Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021AR2682

    Advies van het Europees Comité van de Regio’s over de Europese aanpak van artificiële intelligentie — Wet op de artificiële intelligentie (herzien advies)

    COR 2021/02682

    PB C 97 van 28.2.2022, p. 60–85 (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    28.2.2022   

    NL

    Publicatieblad van de Europese Unie

    C 97/60


    Advies van het Europees Comité van de Regio’s over de Europese aanpak van artificiële intelligentie — Wet op de artificiële intelligentie

    (herzien advies)

    (2022/C 97/12)

    Rapporteur:

    Guido RINK (NL/PSE), wethouder van de gemeente Emmen

    Referentie(s):

    Mededeling van de Commissie aan het Europees Parlement, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio’s — Bevordering van een Europese aanpak op het gebied van artificiële intelligentie

    COM(2021) 205

    Voorstel voor een verordening van het Europees Parlement en de Raad tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie (wet op de artificiële intelligentie) en tot wijziging van bepaalde wetgevingshandelingen van de Unie

    COM(2021) 206

    I.   AANBEVELINGEN VOOR WIJZIGINGEN

    Wijzigingsvoorstel 1

    Overweging 1

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Deze verordening heeft ten doel de werking van de interne markt te verbeteren door een uniform rechtskader vast te stellen, met name voor de ontwikkeling, het in de handel brengen en het gebruik van artificiële intelligentie in overeenstemming met de waarden van de Unie. Deze verordening streeft een aantal dwingende redenen van algemeen belang na, zoals een hoog niveau van bescherming van de gezondheid, de veiligheid en de grondrechten, en zij waarborgt het vrije verkeer van op AI gebaseerde goederen en diensten over de grenzen heen, zodat de lidstaten geen beperkingen kunnen opleggen aan de ontwikkeling, het in de handel brengen en het gebruik van AI-systemen, tenzij dat door deze verordening uitdrukkelijk wordt toegestaan.

    Deze verordening heeft ten doel de werking van de interne markt te verbeteren en de fundamentele rechten van de burgers te garanderen door een uniform rechtskader vast te stellen, met name voor de ontwikkeling, het in de handel brengen en het gebruik van artificiële intelligentie in overeenstemming met de waarden van de Unie. Deze verordening streeft een aantal dwingende redenen van algemeen belang na, zoals een hoog niveau van bescherming van de gezondheid, de veiligheid en de grondrechten, en zij waarborgt het vrije verkeer van op AI gebaseerde goederen en diensten over de grenzen heen, zodat de lidstaten geen beperkingen kunnen opleggen aan de ontwikkeling, het in de handel brengen en het gebruik van AI-systemen, tenzij dat door deze verordening uitdrukkelijk wordt toegestaan.

    Motivering

    De verwijzing naar fundamentele rechten is bedoeld om het verband met het EU-Handvest van de grondrechten te beklemtonen.

    Wijzigingsvoorstel 2

    Nieuwe overweging na overweging 6

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

     

    Het definiëren van AI-systemen is een continu proces, dat rekening houdt met de context waarbinnen AI functioneert, gelijk opgaat met de maatschappelijke ontwikkelingen op dit gebied en waarbij het verband tussen het ecosysteem van excellentie en het ecosysteem van vertrouwen niet uit het oog wordt verloren.

    Motivering

    De ontwikkelingen op het gebied van AI en technologie vragen om een adaptieve en evoluerende benadering. Met deze overweging wordt tot uitdrukking gebracht dat de definitie van AI met de tijd en stand van ontwikkeling van AI-systemen en toepassingen dient mee te bewegen.

    Wijzigingsvoorstel 3

    Overweging 20

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Om ervoor te zorgen dat dergelijke systemen op een verantwoorde en evenredige wijze worden gebruikt, is het ook van belang om vast te stellen dat in elk van die drie limitatief opgesomde en nauwkeurig omschreven situaties bepaalde elementen in aanmerking moeten worden genomen, met name wat betreft de aard van de situatie die aan het verzoek ten grondslag ligt en de gevolgen van het gebruik voor de rechten en vrijheden van alle betrokken personen, alsook de waarborgen en voorwaarden waaraan het gebruik is onderworpen. Voorts moet het gebruik van biometrische systemen voor identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving aan passende beperkingen in tijd en ruimte worden onderworpen, met name gelet op het bewijs of de aanwijzingen met betrekking tot de bedreigingen, de slachtoffers of de dader. De referentiedatabank van personen moet geschikt zijn voor elk gebruik in elk van de drie bovenvermelde situaties.

    Om ervoor te zorgen dat dergelijke systemen op een verantwoorde en evenredige wijze worden gebruikt, is het ook van belang om vast te stellen dat in elk van die drie limitatief opgesomde en nauwkeurig omschreven situaties bepaalde elementen in aanmerking moeten worden genomen, met name wat betreft de aard van de situatie die aan het verzoek ten grondslag ligt en de gevolgen van het gebruik voor de rechten en vrijheden van alle betrokken personen, alsook de waarborgen en voorwaarden waaraan het gebruik is onderworpen. Raadpleging van de betrokken lokale en regionale autoriteiten dient plaats te vinden voorafgaand aan het uitzonderlijk gebruik van deze systemen. Voorts moet het gebruik van biometrische systemen voor identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving aan strikte beperkingen in tijd en ruimte worden onderworpen, met name gelet op het bewijs of de aanwijzingen met betrekking tot de bedreigingen, de slachtoffers of de dader. De referentiedatabank van personen moet geschikt zijn voor elk gebruik in elk van de drie bovenvermelde situaties.

    Motivering

    Biometrische systemen voor identificatie op afstand in real time mogen niet lichtvaardig worden gebruikt.

    Wijzigingsvoorstel 4

    Overweging 21

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Voor elk gebruik van een biometrisch systeem voor identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving moet een uitdrukkelijke en specifieke toestemming van een rechterlijke instantie of van een onafhankelijke administratieve autoriteit van een lidstaat vereist zijn. Die toestemming moet in beginsel vóór het gebruik worden verkregen, behalve in naar behoren gemotiveerde spoedeisende gevallen, dat wil zeggen situaties waarin het wegens de noodzaak om de systemen in kwestie te gebruiken, feitelijk en objectief onmogelijk is om vóór het begin van het gebruik een toestemming te verkrijgen. In dergelijke dringende situaties moet het gebruik worden beperkt tot het absoluut noodzakelijke minimum en onderworpen zijn aan passende waarborgen en voorwaarden, zoals bepaald in de nationale wetgeving en vastgesteld in de context van elk individueel dringend gebruik door de rechtshandhavingsautoriteit zelf . Bovendien moet de rechtshandhavingsautoriteit in dergelijke situaties zo spoedig mogelijk een toestemming trachten te verkrijgen, met vermelding van de redenen waarom zij die niet eerder heeft kunnen vragen.

    Voor elk gebruik van een biometrisch systeem voor identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving moet een uitdrukkelijke en specifieke toestemming van een rechterlijke instantie of van een onafhankelijke administratieve autoriteit van een lidstaat vereist zijn. Die toestemming moet vóór het gebruik worden verkregen, behalve in naar behoren gemotiveerde spoedeisende gevallen, dat wil zeggen situaties waarin het wegens de noodzaak om de systemen in kwestie te gebruiken, feitelijk en objectief onmogelijk is om vóór het begin van het gebruik een toestemming te verkrijgen. In elk geval moet het gebruik worden beperkt tot het absoluut noodzakelijke minimum en onderworpen zijn aan passende waarborgen en voorwaarden, zoals bepaald in de nationale wetgeving. Bovendien moet de rechtshandhavingsautoriteit de betrokken lokale en regionale overheid terstond informeren en bij de bevoegde autoriteiten een toestemming trachten te verkrijgen.

    Motivering

    De politiek-bestuurlijke verantwoordelijkheid voor het beheer van en het toezicht op de openbare ruimte ligt bij de lokale en regionale overheden. Zij moeten daarom naar behoren betrokken worden bij de inzet van dergelijke systemen in de openbare ruimte. In urgente situaties waar voorafgaande raadpleging redelijkerwijs niet kan worden afgewacht, dient de betrokken lokale of regionale autoriteit meteen te worden geïnformeerd over de inzet van biometrische systemen in de openbare ruimte.

    Wijzigingsvoorstel 5

    Overweging 39

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    AI-systemen die worden gebruikt op het gebied van migratie, asiel en grensbeheer hebben gevolgen voor personen die vaak in een bijzonder kwetsbare positie verkeren en die afhankelijk zijn van de uitkomst van de acties van de bevoegde overheidsinstanties. De nauwkeurigheid, niet-discriminerende aard en transparantie van de AI-systemen die in deze context worden gebruikt, zijn derhalve van bijzonder belang om de eerbiediging van de grondrechten van de betrokken personen te waarborgen, en met name hun recht op vrij verkeer, non-discriminatie, bescherming van het privéleven en de persoonsgegevens, internationale bescherming en goed bestuur. Het is derhalve passend om AI-systemen als systemen met een hoog risico te classificeren wanneer zij bedoeld zijn om te worden gebruikt door de bevoegde overheidsinstanties die taken op het gebied van migratie, asiel en grensbeheer uitvoeren, zoals leugendetectortests en vergelijkbare instrumenten, of om de gemoedstoestand van natuurlijke personen te bepalen, om bepaalde risico’s te beoordelen die natuurlijke personen vormen die het grondgebied van een lidstaat binnenkomen of een visum- of asielaanvraag indienen, om de echtheid te controleren van de relevante documenten van natuurlijke personen, om bevoegde overheidsinstanties bij te staan die aanvragen voor asiel, visa en verblijfsvergunningen en hieraan gerelateerde klachten behandelen teneinde vast te stellen of de natuurlijke personen die een status aanvragen, hiervoor in aanmerking komen. AI-systemen op het gebied van migratie, asiel en grensbeheer die onder deze verordening vallen, moeten in overeenstemming zijn met de desbetreffende procedurele voorschriften die zijn vastgesteld in Richtlijn 2013/32/EU van het Europees Parlement en de Raad, Verordening (EG) nr. 810/2009 van het Europees Parlement en de Raad en andere relevante wetgeving.

    AI-systemen die worden gebruikt op het gebied van migratie, asiel en grensbeheer hebben gevolgen voor personen die vaak in een bijzonder kwetsbare positie verkeren en die afhankelijk zijn van de uitkomst van de acties van de bevoegde overheidsinstanties. De nauwkeurigheid, niet-discriminerende aard en transparantie van de AI-systemen die in deze context worden gebruikt, zijn derhalve van bijzonder belang om de eerbiediging van de grondrechten van de betrokken personen te waarborgen, en met name hun recht op vrij verkeer, non-discriminatie, bescherming van het privéleven en de persoonsgegevens, internationale bescherming en goed bestuur. Het is derhalve noodzakelijk om AI-systemen als systemen met een hoog risico te classificeren wanneer zij bedoeld zijn om te worden gebruikt door de bevoegde overheidsinstanties die taken op het gebied van migratie, asiel en grensbeheer uitvoeren, zoals leugendetectortests en vergelijkbare instrumenten, of om de gemoedstoestand van natuurlijke personen te bepalen, om bepaalde risico’s te beoordelen die natuurlijke personen vormen die het grondgebied van een lidstaat binnenkomen of een visum- of asielaanvraag indienen, om de echtheid te controleren van de relevante documenten van natuurlijke personen, om bevoegde overheidsinstanties bij te staan die aanvragen voor asiel, visa en verblijfsvergunningen en hieraan gerelateerde klachten behandelen teneinde vast te stellen of de natuurlijke personen die een status aanvragen, hiervoor in aanmerking komen. AI-systemen op het gebied van migratie, asiel en grensbeheer die onder deze verordening vallen, moeten in overeenstemming zijn met de desbetreffende procedurele voorschriften die zijn vastgesteld in Richtlijn 2013/32/EU van het Europees Parlement en de Raad, Verordening (EG) nr. 810/2009 van het Europees Parlement en de Raad en andere relevante wetgeving.

    Motivering

    Met deze aanpassing wordt tot uitdrukking gebracht de noodzaak om de bedoelde AI-systemen te onderwerpen aan het verzwaarde regime voor hoog risico AI-systemen.

    Wijzigingsvoorstel 6

    Overweging 43

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Op AI-systemen met een hoog risico moeten voorschriften van toepassing zijn met betrekking tot de kwaliteit van de gebruikte datareeksen, technische documentatie en registratie, transparantie en het verstrekken van informatie aan gebruikers, menselijk toezicht en robuustheid, nauwkeurigheid en cyberbeveiliging. Deze voorschriften zijn noodzakelijk om de risico’s voor de gezondheid, veiligheid en grondrechten waarvan in het licht van het beoogde doel van het systeem sprake is, te verminderen wanneer geen andere maatregelen redelijkerwijs beschikbaar zijn die de handel in mindere mate beperken, zodat ongerechtvaardigde beperkingen van de handel worden voorkomen.

    Op AI-systemen met een hoog risico moeten voorschriften van toepassing zijn met betrekking tot de kwaliteit van de gebruikte datareeksen, technische documentatie en registratie, transparantie en het verstrekken van informatie aan gebruikers, menselijk toezicht en robuustheid, nauwkeurigheid en cyberbeveiliging. Deze voorschriften zijn noodzakelijk om de risico’s voor de gezondheid, veiligheid , gegevensbeveiliging , consumentenrechten en de grondrechten waarvan in het licht van het doel van het systeem sprake is, te verminderen wanneer geen andere maatregelen redelijkerwijs beschikbaar zijn die de handel in mindere mate beperken, zodat ongerechtvaardigde beperkingen van de handel worden voorkomen. Natuurlijke personen of groepen personen die getroffen zijn door AI-systemen met een hoog risico die in de Unie in de handel worden gebracht of op een andere wijze in gebruik worden gesteld, moeten op een passende, vlot toegankelijke en begrijpelijke wijze worden geïnformeerd over en toegang hebben tot uitdrukkelijke, vlot toegankelijke en openbare informatie over het feit dat zij aan dergelijke systemen zijn onderworpen.

    Motivering

    De transparantie- en informatievereisten die van toepassing zijn op aanbieders en gebruikers moeten worden uitgebreid tot de personen of groepen personen die potentieel worden getroffen door het gebruik van risicovolle AI-systemen, zoals vermeld in bijlage III bij de verordening. Onder begrijpelijke wijze wordt ook verstaan “een voor de gebruiker begrijpelijke en toegankelijke taal, inclusief oraal-auditieve en manueel-visuele talen”.

    Wijzigingsvoorstel 7

    Nieuwe overweging na overweging 44

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

     

    Aanbieders van AI-systemen onthouden zich in hun systeem voor kwaliteitsbeheer van maatregelen die ongerechtvaardigde discriminatie op grond van geslacht, afkomst, godsdienst of overtuiging, handicap, leeftijd, seksuele geaardheid of discriminatie op welke andere grond dan ook bevorderen.

    Motivering

    Onwettige discriminatie vindt zijn oorsprong in menselijk handelen. Aanbieders van AI-systemen dienen zich in hun kwaliteitssysteem te onthouden van maatregelen die discriminatie zouden kunnen bevorderen.

    Wijzigingsvoorstel 8

    Overweging 47

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Om de ondoorzichtigheid aan te pakken, die ertoe leidt dat bepaalde AI-systemen ondoorgrondelijk of te complex zijn voor natuurlijke personen, moet een bepaalde mate van transparantie vereist zijn voor AI-systemen met een hoog risico. Gebruikers moeten de output van het systeem kunnen interpreteren en dienovereenkomstig kunnen gebruiken. AI-systemen met een hoog risico moeten derhalve vergezeld gaan van relevante documentatie en gebruiksaanwijzingen en beknopte en duidelijke informatie bevatten, waar passend ook met betrekking tot mogelijke risico’s voor de grondrechten en risico’s op discriminatie.

    Om de ondoorzichtigheid aan te pakken, die ertoe leidt dat bepaalde AI-systemen ondoorgrondelijk of te complex zijn voor natuurlijke personen of overheidsinstanties op alle bestuursniveaus, moet de hoogste mate van transparantie vereist zijn voor AI-systemen met een hoog risico. Gebruikers moeten de output van het systeem kunnen interpreteren en dienovereenkomstig kunnen gebruiken. AI-systemen met een hoog risico moeten derhalve vergezeld gaan van relevante documentatie en gebruiksaanwijzingen en beknopte en duidelijke informatie bevatten, waar passend ook met betrekking tot mogelijke risico’s voor de grondrechten en risico’s op discriminatie.

    Motivering

    De verantwoordingsplicht van degenen die AI-systemen met een hoog risico ontwerpen wordt verzwakt door het gebruik van de woorden “een bepaalde mate van transparantie”.

    Wijzigingsvoorstel 9

    Overweging 48

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    AI-systemen met een hoog risico moeten op zodanige wijze worden ontworpen en ontwikkeld dat natuurlijke personen toezicht kunnen houden op de werking ervan. Met het oog hierop moeten passende maatregelen voor menselijk toezicht worden bepaald door de aanbieder van het systeem voordat dit in de handel wordt gebracht of in gebruik wordt gesteld. Dergelijke maatregelen moeten, waar passend, met name waarborgen dat voor het systeem ingebouwde operationele beperkingen gelden die niet door het systeem zelf kunnen worden omzeild, dat het systeem reageert op de menselijke exploitant en dat de natuurlijke personen aan wie de taak van het menselijke toezicht is toegewezen, beschikken over de noodzakelijke competenties, opleiding en autoriteit om deze taak uit te voeren.

    AI-systemen met een hoog risico moeten op zodanige wijze worden ontworpen en ontwikkeld dat natuurlijke personen en overheidsinstanties op alle bestuursniveaus toezicht kunnen houden op de werking ervan. Met het oog hierop moeten passende maatregelen voor menselijk toezicht worden bepaald door de aanbieder van het systeem voordat dit in de handel wordt gebracht of in gebruik wordt gesteld. Dergelijke maatregelen moeten, waar passend, met name waarborgen dat voor het systeem ingebouwde operationele beperkingen gelden die niet door het systeem zelf kunnen worden omzeild, dat het systeem reageert op de menselijke exploitant en dat de natuurlijke personen aan wie de taak van het menselijke toezicht is toegewezen, beschikken over de noodzakelijke competenties, opleiding en autoriteit om deze taak uit te voeren.

    Motivering

    Spreekt voor zich.

    Wijzigingsvoorstel 10

    Overweging 67

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Op AI-systemen met een hoog risico moet de CE-markering worden aangebracht om aan te geven dat zij in overeenstemming zijn met deze verordening, zodat zij vrij kunnen bewegen op de interne markt. De lidstaten mogen het in de handel brengen en in gebruik stellen van AI-systemen met een hoog risico die aan de in deze verordening vastgelegde voorschriften voldoen en waarop de CE-markering is aangebracht, niet op ongerechtvaardigde wijze belemmeren.

    Op AI-systemen met een hoog risico moet de CE-markering worden aangebracht om aan te geven dat zij in overeenstemming zijn met deze verordening, zodat zij vrij kunnen bewegen op de interne markt. De lidstaten mogen het in de handel brengen en in gebruik stellen van AI-systemen met een hoog risico die aan de in deze verordening vastgelegde voorschriften voldoen en waarop de CE-markering is aangebracht, niet belemmeren. De lidstaten hebben alleen de bevoegdheid om risicovolle AI-praktijken en AI-systemen te reguleren op grond van dwingende en naar behoren gerechtvaardigde openbare en nationale veiligheidsbelangen.

    Motivering

    Hoewel de lidstaten de toepassing van de verordening niet mogen belemmeren, moeten zij het recht behouden om risicovolle AI-systemen te reguleren als er openbare en nationale veiligheidsbelangen op het spel staan.

    Wijzigingsvoorstel 11

    Overweging 70

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Bepaalde AI-systemen die bedoeld zijn om met natuurlijke personen te interageren of om inhoud te genereren, kunnen specifieke risico’s op imitatie of bedrog met zich meebrengen, ongeacht of zij al dan niet als systeem met een hoog risico gelden. In bepaalde omstandigheden moeten voor het gebruik van deze systemen daarom specifieke transparantieverplichtingen gelden, zonder dat afbreuk wordt gedaan aan de voorschriften en verplichtingen voor AI-systemen met een hoog risico. Met name moeten natuurlijke personen op de hoogte worden gesteld van het feit dat zij interageren met een AI-systeem, tenzij dit duidelijk blijkt uit de omstandigheden en de context van het gebruik . Natuurlijke personen moeten bovendien worden geïnformeerd wanneer zij worden blootgesteld aan een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering. Dergelijke informatie en kennisgevingen moeten een formaat hebben dat toegankelijk is voor personen met een handicap. Daarnaast moeten gebruikers die een AI-systeem gebruiken om beeld-, audio- of video-inhoud te genereren of te manipuleren die duidelijke overeenkomsten vertoont met bestaande personen, plaatsen of gebeurtenissen en ten onrechte door personen als authentiek zou worden waargenomen, bekendmaken dat de inhoud kunstmatig is gecreëerd of gemanipuleerd door de output van artificiële intelligentie als zodanig aan te merken en de kunstmatige oorsprong ervan bekend te maken.

    Bepaalde AI-systemen die bedoeld zijn om met natuurlijke personen te interageren of om inhoud te genereren, kunnen specifieke risico’s op imitatie of bedrog met zich meebrengen, ongeacht of zij al dan niet als systeem met een hoog risico gelden. Voor het gebruik van deze systemen moeten daarom specifieke transparantieverplichtingen gelden, zonder dat afbreuk wordt gedaan aan de voorschriften en verplichtingen voor AI-systemen met een hoog risico. Met name moeten natuurlijke personen systematisch op de hoogte worden gesteld van het feit dat zij interageren met een AI-systeem. Natuurlijke personen moeten bovendien worden geïnformeerd wanneer zij worden blootgesteld aan een systeem voor het herkennen van emoties of een systeem voor biometrische categorisering. Dergelijke informatie en kennisgevingen moeten een formaat hebben dat toegankelijk is voor personen met een handicap. Daarnaast moeten gebruikers die een AI-systeem gebruiken om beeld-, audio- of video-inhoud te genereren of te manipuleren die duidelijke overeenkomsten vertoont met bestaande personen, plaatsen of gebeurtenissen en ten onrechte door personen als authentiek zou worden waargenomen, bekendmaken dat de inhoud kunstmatig is gecreëerd of gemanipuleerd door de output van artificiële intelligentie als zodanig aan te merken en de kunstmatige oorsprong ervan bekend te maken.

    Motivering

    Er mogen geen uitzonderingen worden gemaakt op de verplichting tot transparantie en informatie wanneer natuurlijke personen met AI-systemen interageren.

    Wijzigingsvoorstel 12

    Overweging 76

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Teneinde een soepele, doeltreffende en geharmoniseerde uitvoering van deze verordening mogelijk te maken, moet een Europees Comité voor artificiële intelligentie worden opgericht. Het Comité moet verantwoordelijk zijn voor een aantal adviestaken, met inbegrip van het opstellen van adviezen, aanbevelingen of richtsnoeren over kwesties die verband houden met de uitvoering van deze verordening, waaronder over technische specificaties of bestaande normen met betrekking tot de voorschriften van deze verordening en de adviesverlening aan en ondersteuning van de Commissie ten aanzien van specifieke vragen in verband met artificiële intelligentie.

    Teneinde een soepele, doeltreffende en geharmoniseerde uitvoering van deze verordening mogelijk te maken, moet een Europees Comité voor artificiële intelligentie worden opgericht. Het Comité moet verantwoordelijk zijn voor een aantal adviestaken, met inbegrip van het opstellen van adviezen, aanbevelingen of richtsnoeren over kwesties die verband houden met de uitvoering van deze verordening, waaronder over technische specificaties of bestaande normen met betrekking tot de voorschriften van deze verordening en de adviesverlening aan en ondersteuning van de Commissie ten aanzien van specifieke vragen in verband met artificiële intelligentie. De leden van het Europees Comité voor artificiële intelligentie dienen een afspiegeling van de belangen van de Europese samenleving te vertegenwoordigen. Het Europees Comité voor artificiële intelligentie dient genderevenwichtig te worden samengesteld.

    Motivering

    Het Europees Comité voor AI dient een goede afspiegeling van de brede belangen van de Europese samenleving te vertegenwoordigen. Het gaat hierbij onder andere om belangen op het gebied van mensenrechten, klimaat en de energiezuinige inzet van AI-systemen, veiligheid, sociale inclusie, gezondheid etc. Genderevenwicht is een randvoorwaarde voor diversiteit in advisering, het opstellen van richtsnoeren etc.

    Wijzigingsvoorstel 13

    Overweging 77

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    De lidstaten spelen een belangrijke rol bij de toepassing en handhaving van deze verordening. In dit verband moet elke lidstaat een of meer nationale bevoegde autoriteiten aanwijzen voor het toezicht op de toepassing en uitvoering van deze verordening. Om de efficiëntie van de organisatie aan de kant van de lidstaten te verbeteren en een officieel contactpunt in te stellen voor het publiek en andere wederpartijen op het niveau van de lidstaten en de Unie, moet in elke lidstaat één nationale autoriteit worden aangewezen als nationale toezichthoudende autoriteit.

    De lidstaten spelen een belangrijke rol bij de toepassing en handhaving van deze verordening. In dit verband moet elke lidstaat een of meer nationale bevoegde autoriteiten aanwijzen voor het toezicht op de toepassing en uitvoering van deze verordening. Om de efficiëntie van de organisatie aan de kant van de lidstaten te verbeteren en een officieel contactpunt in te stellen voor het publiek en andere wederpartijen op het niveau van de lidstaten en de Unie, moet in elke lidstaat één nationale autoriteit worden aangewezen als nationale toezichthoudende autoriteit. Lokale en regionale overheden worden met toezicht- of handhavingstaken belast wanneer zulks door de lidstaat passend wordt geacht.

    Motivering

    Ter wille van de uitvoerbaarheid van de verordening en het daarin opgenomen toezichts- en handhavingskader, dient de lidstaat de bevoegdheid te krijgen om zo nodig en waar mogelijk lokale en regionale overheden met de uitvoering van toezichts- of handhavingstaken te belasten.

    Aanbeveling voor wijzigingsvoorstel 14

    Overweging 79

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Teneinde een passende en doeltreffende handhaving te waarborgen van de voorschriften en verplichtingen van deze verordening, die valt onder de harmonisatiewetgeving van de Unie, moet het systeem van markttoezicht en de conformiteit van producten, zoals vastgesteld bij Verordening (EU) 2019/1020, volledig van toepassing zijn. Waar noodzakelijk met het oog op hun taken, moeten nationale overheidsinstanties of -organen die toezicht houden op de toepassing van het Unierecht voor de bescherming van de grondrechten, met inbegrip van instanties voor gelijke behandeling, ook toegang hebben tot eventuele documentatie die op grond van deze verordening wordt opgesteld.

    Teneinde een passende en doeltreffende handhaving te waarborgen van de voorschriften en verplichtingen van deze verordening, die valt onder de harmonisatiewetgeving van de Unie, moet het systeem van markttoezicht en de conformiteit van producten, zoals vastgesteld bij Verordening (EU) 2019/1020, volledig van toepassing zijn. Waar noodzakelijk met het oog op hun taken, moeten nationale overheidsinstanties en, indien van toepassing, lokale of regionale overheden, of -organen die toezicht houden op de toepassing van het Unierecht voor de bescherming van de grondrechten, met inbegrip van instanties voor gelijke behandeling, ook toegang hebben tot eventuele documentatie die op grond van deze verordening wordt opgesteld.

    Motivering

    In dit amendement wordt rekening gehouden met uiteenlopende bestuursstructuren in de EU-lidstaten.

    Wijzigingsvoorstel 15

    Overweging 83

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Om een betrouwbare en constructieve samenwerking van bevoegde autoriteiten op Unie- en nationaal niveau te waarborgen, moeten alle partijen die betrokken zijn bij de toepassing van deze verordening de vertrouwelijkheid eerbiedigen van informatie en data die zij bij de uitvoering van hun taken verkrijgen.

    Om een betrouwbare en constructieve samenwerking van bevoegde autoriteiten op Unie-, nationaal, regionaal en lokaal niveau te waarborgen, moeten alle partijen die betrokken zijn bij de toepassing van deze verordening de vertrouwelijkheid eerbiedigen van informatie en data die zij bij de uitvoering van hun taken verkrijgen.

    Motivering

    In dit amendement wordt rekening gehouden met uiteenlopende bestuursstructuren in de EU-lidstaten.

    Wijzigingsvoorstel 16

    Titel I, artikel 3, punt 1) — Definities

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    “artificiële-intelligentiesysteem” (AI-systeem): software die is ontwikkeld aan de hand van een of meer van de technieken en benaderingen die zijn opgenomen in de lijst van bijlage I en die voor een bepaalde reeks door mensen gedefinieerde doelstellingen output kan genereren, zoals inhoud, voorspellingen, aanbevelingen of beslissingen die van invloed zijn op de omgeving waarmee wordt geïnterageerd; “aanbieder”:

    “artificiële-intelligentiesysteem” (AI-systeem): software die is ontwikkeld aan de hand van een of meer van de technieken en benaderingen die zijn opgenomen in de niet-uitputtende lijst van bijlage I, in combinatie met sociale praktijken, identiteit en cultuur , en die voor een bepaalde reeks door mensen gedefinieerde doelstellingen, door het waarnemen van zijn omgeving door het verzamelen van gegevens, het interpreteren van de verzamelde gestructureerde of ongestructureerde gegevens, beheren van de kennis of het verwerken van de informatie, afgeleid van deze gegevens , output kan genereren, zoals inhoud, voorspellingen, aanbevelingen of beslissingen die van invloed zijn op de omgeving waarmee wordt geïnterageerd;

    Motivering

    Een AI-systeem bestaat uit een combinatie van technische onderdelen die data, algoritmen en rekenkracht verbinden aan sociale praktijken, samenleving, identiteit en cultuur. De definitie van zo’n socio-technische verzameling moet daarom toekomstbestendig zijn en regelmatig worden bijgewerkt om de steeds grotere maatschappelijke impact van AI nauwgezet te weerspiegelen, waarbij de snel veranderende AI-gerelateerde kansen en uitdagingen in kaart moeten worden gebracht, waaronder het verband tussen kennisbeheer en AI. In dit verband dient een algoritme dat door een ander algoritme is ontwikkeld, ook onder de verordening te vallen.

    Wijzigingsvoorstel 17

    Artikel 5, lid 1

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    De volgende praktijken op het gebied van artificiële intelligentie zijn verboden:

    De volgende praktijken op het gebied van artificiële intelligentie zijn verboden:

    a)

    het in de handel brengen, in gebruik stellen of gebruiken van een AI-systeem dat subliminale technieken gebruikt waarvan personen zich niet bewust zijn om het gedrag van personen wezenlijk te verstoren op een wijze die ertoe leidt of er waarschijnlijk toe zal leiden dat deze of andere personen fysieke of psychologische schade oplopen;

    a)

    het in de handel brengen, in gebruik stellen of gebruiken van een AI-systeem dat subliminale technieken gebruikt waarvan personen zich niet bewust zijn om het gedrag van personen wezenlijk te verstoren op een wijze die ertoe leidt of er waarschijnlijk toe zal leiden dat deze of andere personen fysieke of psychologische schade oplopen , inbreuk maakt of waarschijnlijk inbreuk zal maken op de grondrechten van een andere persoon of een groep personen, met inbegrip van hun fysieke of psychologische gezondheid en veiligheid, nadelige gevolgen voor consumenten veroorzaakt of waarschijnlijk zal veroorzaken, zoals geldelijk verlies of economische discriminatie, of de democratie en de rechtsstaat ondermijnt of waarschijnlijk zal ondermijnen;

    b)

    het in de handel brengen, in gebruik stellen of gebruiken van een AI-systeem dat gebruikmaakt van de kwetsbaarheden van een specifieke groep personen als gevolg van hun leeftijd of fysieke of geestelijke handicap om het gedrag van personen die tot deze groep behoren, wezenlijk te verstoren op een wijze die ertoe leidt of er waarschijnlijk toe zal leiden dat deze of andere personen fysieke of psychologische schade oplopen;

    b)

    het in de handel brengen, in gebruik stellen of gebruiken van een AI-systeem dat gebruikmaakt van de kwetsbaarheden van een specifieke groep personen als gevolg van hun leeftijd of fysieke of geestelijke handicap om het gedrag van personen die tot deze groep behoren, wezenlijk te verstoren op een wijze die ertoe leidt of er waarschijnlijk toe zal leiden dat deze of andere personen fysieke of psychologische schade oplopen;

    c)

    het in de handel brengen, in gebruik stellen of gebruiken van AI-systemen door of namens overheidsinstanties voor de evaluatie of classificatie van de betrouwbaarheid van natuurlijke personen gedurende een bepaalde periode op basis van hun sociale gedrag of bekende of voorspelde persoonlijke of persoonlijkheidskenmerken, waarbij de sociale score een of beide van de volgende gevolgen heeft:

    i)

    de nadelige of ongunstige behandeling van bepaalde natuurlijke personen of volledige groepen personen in een sociale context die geen verband houdt met de context waarin de data oorspronkelijk werden gegenereerd of verzameld;

    ii)

    de nadelige of ongunstige behandeling van bepaalde natuurlijke personen of volledige groepen personen die ongerechtvaardigd of onevenredig met hun sociale gedrag of de ernst hiervan is;

    c)

    het in de handel brengen, in gebruik stellen of gebruiken van AI-systemen door of namens overheidsinstanties voor de evaluatie of classificatie van de betrouwbaarheid van natuurlijke personen of groepen van personen gedurende een bepaalde periode op basis van hun sociale gedrag of bekende of voorspelde persoonlijke, of persoonlijkheidskenmerken , hetgeen leidt tot op AI gebaseerde sociale scores voor algemene doeleinden ;

    d)

    het gebruik van biometrische systemen voor de identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving, tenzij en voor zover een dergelijk gebruik strikt noodzakelijk is voor een van de volgende doelstellingen:

    i)

    het gericht zoeken naar specifieke potentiële slachtoffers van misdaad, waaronder vermiste kinderen;

    ii)

    het voorkomen van een specifieke, aanzienlijke en imminente dreiging voor het leven of de fysieke gezondheid van natuurlijke personen of van een terroristische aanslag;

    iii)

    de detectie, opsporing, identificatie of vervolging van een dader of verdachte van een strafbaar feit als bedoeld in artikel 2, lid 2, van Kaderbesluit 2002/584/JBZ van de Raad ([62]), dat in de betrokken lidstaat strafbaar is met een vrijheidsstraf of een tot vrijheidsbeneming strekkende maatregel voor een maximumperiode van ten minste drie jaar, zoals bepaald in het recht van die lidstaat.

    d)

    het in de handel brengen, in gebruik stellen of gebruiken van AI-systemen door of namens overheidsinstanties waarbij op AI gebaseerde sociale scores zonder menselijke controle voor specifieke doeleinden worden toegepast, dat wil zeggen in een sociale context die verband houdt met de context waarin de data oorspronkelijk werden gegenereerd of verzameld, voor de evaluatie of classificatie van de betrouwbaarheid van natuurlijke personen of groepen van personen gedurende een bepaalde periode op basis van hun sociale gedrag of bekende of voorspelde persoonlijke of persoonlijkheidskenmerken, waarbij de sociale score leidt tot de nadelige of ongunstige behandeling van bepaalde natuurlijke personen of volledige groepen personen die ongerechtvaardigd of onevenredig met hun sociale gedrag of de ernst hiervan is;

     

    e)

    het gebruik van biometrische systemen voor de identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving, tenzij en voor zover een dergelijk gebruik strikt noodzakelijk is voor een van de volgende doelstellingen:

    i)

    het gericht zoeken naar specifieke potentiële slachtoffers van misdaad, waaronder vermiste kinderen;

    ii)

    het voorkomen van een specifieke, aanzienlijke en imminente dreiging voor het leven of de fysieke gezondheid van natuurlijke personen of van een terroristische aanslag;

    iii)

    de detectie, opsporing, identificatie of vervolging van een dader of verdachte van een strafbaar feit als bedoeld in artikel 2, lid 2, van Kaderbesluit 2002/584/JBZ van de Raad ([62]), dat in de betrokken lidstaat strafbaar is met een vrijheidsstraf of een tot vrijheidsbeneming strekkende maatregel voor een maximumperiode van ten minste drie jaar, zoals bepaald in het recht van die lidstaat.

    Motivering

    Subliminale technieken kunnen in zijn algemeenheid vrijheid, mensenrechten en daarmee de werking van de democratische rechtsstaat ondermijnen. Tegelijkertijd kan artificiële intelligentie de consumentenrechten aantasten. De toevoegingen dienen om dit buiten twijfel te stellen.

    Wat betreft sociale classificatie door overheden of namens hen, moet deze praktijk worden verboden als die voor algemene doeleinden wordt toegepast, gelet op de risico’s daarvan zoals uitgelegd in overweging 17. Het genereren of verzamelen van gegevens voor specifieke doeleinden zou alleen met menselijke controle moeten worden toegestaan en op voorwaarde dat zulks geen inbreuk vormt op het recht op waardigheid en non-discriminatie en de waarden van gelijkheid en rechtvaardigheid.

    Wijzigingsvoorstel 18

    Artikel 5, lid 4

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Een lidstaat kan besluiten om te voorzien in de mogelijkheid om volledig of gedeeltelijk toestemming te verlenen voor het gebruik van biometrische systemen voor de identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving binnen de grenzen en onder de voorwaarden van lid 1, punt d), en de leden 2 en 3. Deze lidstaat stelt in zijn interne recht de noodzakelijke gedetailleerde regels vast voor het verzoek om en de afgifte en het gebruik van, evenals het toezicht in verband met, de in lid 3 bedoelde vergunningen. In deze regels wordt ook gespecificeerd voor welke doelstellingen van lid 1, punt d), en voor welke strafbare feiten als bedoeld in punt iii) daarvan de bevoegde autoriteiten deze systemen mogen gebruiken met het oog op de rechtshandhaving.

    Een lidstaat kan besluiten om te voorzien in de mogelijkheid om volledig of gedeeltelijk toestemming te verlenen voor het gebruik van biometrische systemen voor de identificatie op afstand in real time in openbare ruimten met het oog op de rechtshandhaving binnen de grenzen en onder de voorwaarden van lid 1, punt d), en de leden 2 en 3. Deze lidstaat stelt in zijn interne recht de noodzakelijke gedetailleerde regels vast voor het verzoek om en de afgifte en het gebruik van, evenals het toezicht in verband met, de in lid 3 bedoelde vergunningen. In deze regels wordt ook gespecificeerd voor welke doelstellingen van lid 1, punt d), en voor welke strafbare feiten als bedoeld in punt iii) daarvan de bevoegde autoriteiten deze systemen mogen gebruiken met het oog op de rechtshandhaving. In deze regels wordt de wijze van informatieverstrekking aan en raadpleging van de betreffende lokale en regionale autoriteiten geregeld. Deze raadpleging moet plaatsvinden vóór het uitzonderlijke gebruik van deze systemen in de openbare ruimte. In urgente situaties waarin voorafgaande raadpleging redelijkerwijs niet kan worden afgewacht, wordt de relevante lokale en regionale overheid terstond geïnformeerd over de inzet van de betreffende AI-praktijk.

    Motivering

    De politiek-bestuurlijke verantwoordelijkheid voor het beheer van en het toezicht op de openbare ruimte ligt bij de lokale en regionale overheden. Zij moeten daarom in positie worden gebracht om voorafgaand aan de inzet van dergelijke AI-praktijken hun inbreng te leveren en naar behoren in kennis worden gesteld van het uitzonderlijke gebruik van AI-systemen voor het doel van rechtshandhaving.

    In urgente situatie waarin voorafgaande raadpleging redelijkerwijs niet kan worden afgewacht wordt de betreffende lokale of regionale overheid meteen geïnformeerd.

    Wijzigingsvoorstel 19

    Artikel 13

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Artikel  13 Transparantie en informatieverstrekking aan gebruikers

    Artikel  13a Transparantie en informatieverstrekking aan gebruikers

    1.   AI-systemen met een hoog risico worden op zodanige wijze ontworpen en ontwikkeld dat de werking ervan voldoende transparant is om gebruikers in staat te stellen de output van het systeem te interpreteren en op passende wijze te gebruiken. Een passende soort en mate van transparantie wordt gewaarborgd met het oog op de naleving van de relevante verplichtingen van de gebruiker en de aanbieder zoals uiteengezet in hoofdstuk 3 van deze titel.

    1.   AI-systemen met een hoog risico worden op zodanige wijze ontworpen en ontwikkeld dat de werking ervan voldoende transparant is om gebruikers in staat te stellen de output van het systeem te interpreteren en op passende wijze te gebruiken. Een passende soort en mate van transparantie en begrijpelijke uitleg worden gewaarborgd met het oog op de naleving van de relevante verplichtingen van de gebruiker en de aanbieder zoals uiteengezet in hoofdstuk 3 van deze titel. De uitleg geschiedt op zijn minst in de taal van het land waar het AI-systeem wordt ingezet.

    2.   AI-systemen met een hoog risico gaan vergezeld van gebruiksinstructies in een passend digitaal of ander formaat dat beknopte, volledige, juiste en duidelijke informatie bevat die relevant, toegankelijk en begrijpelijk is voor gebruikers.

    2.   AI-systemen met een hoog risico gaan vergezeld van openbare, begrijpelijke en voor het publiek toegankelijke gebruiksinstructies in een passend digitaal of ander formaat dat beknopte, volledige, juiste en duidelijke informatie bevat die relevant, toegankelijk en begrijpelijk is voor gebruikers.

    3.   De in lid 2 bedoelde informatie omvat:

    3.   De in lid 2 bedoelde informatie omvat:

    a)

    de identiteit en de contactgegevens van de aanbieder en, in voorkomend geval, van zijn gemachtigde;

    a)

    de identiteit en de contactgegevens van de aanbieder en, in voorkomend geval, van zijn gemachtigde;

    b)

    de kenmerken, capaciteiten en beperkingen van de prestaties van het AI-systeem met een hoog risico, waaronder:

    b)

    de kenmerken, capaciteiten en beperkingen van de prestaties van het AI-systeem met een hoog risico, waaronder:

     

    i)

    het beoogde doel;

     

    i)

    het beoogde doel;

     

    ii)

    de mate van nauwkeurigheid, robuustheid en cyberbeveiliging als bedoeld in artikel 15 waarop het AI-systeem met een hoog risico is getest en gevalideerd en die kan worden verwacht, en eventuele bekende en te voorziene omstandigheden die een effect kunnen hebben op die verwachte mate van nauwkeurigheid, robuustheid en cyberbeveiliging;

     

    ii)

    de mate van nauwkeurigheid (uitgedrukt in de relevante metrics voor het evalueren van modellen) , robuustheid en cyberbeveiliging als bedoeld in artikel 15 waarop het AI-systeem met een hoog risico is getest en gevalideerd en die kan worden verwacht, en eventuele bekende en te voorziene omstandigheden die een effect kunnen hebben op die verwachte mate van nauwkeurigheid, robuustheid en cyberbeveiliging;

     

    iii)

    eventuele bekende of te voorziene omstandigheden in verband met het gebruik van het AI-systeem met een hoog risico in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik, die kunnen leiden tot risico’s voor de gezondheid en veiligheid of de grondrechten;

     

    iii)

    eventuele bekende of te voorziene omstandigheden in verband met het gebruik van het AI-systeem met een hoog risico in overeenstemming met het beoogde doel ervan of in een situatie van redelijkerwijs te voorzien misbruik, die kunnen leiden tot risico’s voor de gezondheid en veiligheid of de grondrechten;

     

    iv)

    de prestaties ervan met betrekking tot de personen of groepen personen voor wie het systeem moet worden gebruikt;

     

    iv)

    de prestaties ervan met betrekking tot de personen of groepen personen voor wie het systeem moet worden gebruikt;

     

    v)

    waar passend, specificaties voor de inputdata of eventuele andere relevante informatie met betrekking tot de gebruikte datareeksen voor training, validatie en tests, rekening houdend met het beoogde doel van het AI-systeem;

     

    v)

    waar passend, specificaties voor de inputdata of eventuele andere relevante informatie met betrekking tot de gebruikte datareeksen voor training, validatie en tests, rekening houdend met het beoogde doel van het AI-systeem;

    vi)

    parameters waarmee het model is getuned en maatregelen die zijn genomen om overftting en underfitting te voorkomen;

    c)

    de wijzigingen van het AI-systeem met een hoog risico en de prestaties ervan die vooraf door de aanbieder zijn bepaald op het moment van de eerste conformiteitsbeoordeling, indien van toepassing;

    c)

    de wijzigingen van het AI-systeem met een hoog risico en de prestaties ervan die vooraf door de aanbieder zijn bepaald op het moment van de eerste conformiteitsbeoordeling, indien van toepassing;

    d)

    de maatregelen voor menselijk toezicht als bedoeld in artikel 14, met inbegrip van de technische maatregelen die zijn getroffen om de interpretatie van de output van AI-systemen door gebruikers te vergemakkelijken;

    d)

    de maatregelen voor menselijk toezicht als bedoeld in artikel 14, met inbegrip van de technische maatregelen die zijn getroffen om de interpretatie van de output van AI-systemen door gebruikers te vergemakkelijken;

    e)

    de verwachte levensduur van het AI-systeem met een hoog risico en eventuele noodzakelijke maatregelen voor onderhoud en verzorging om de goede werking van dat AI-systeem te waarborgen, ook in verband met software-updates.

    e)

    de verwachte levensduur van het AI-systeem met een hoog risico en eventuele noodzakelijke maatregelen voor onderhoud en verzorging om de goede werking van dat AI-systeem te waarborgen, ook in verband met software-updates.

     

    13b Transparantie en informatieverstrekking aan betrokken personen

    Personen of groepen van personen voor wie het de bedoeling is dat een hoog risico AI-systeem wordt gebruikt worden op een passende, vlot toegankelijke en begrijpelijke wijze worden geïnformeerd over en hebben toegang tot uitdrukkelijke, vlot toegankelijke en openbare informatie over dergelijk gebruik.

    Motivering

    Om het ecosysteem van vertrouwen te versterken, dienen de gebruiksinstructies van hoog risico AI-systemen openbaar gemaakt te worden voor het publiek. Deze instructies dienen geschreven te zijn in een voor de lezer begrijpelijke taal van het land waar het AI-systeem wordt ingezet.

    In het kader van transparantie en uitlegbaarheid van algoritmen, moet uitgelegd kunnen worden met welke parameters het model is getuned en welke maatregelen zijn genomen om overfitting en underfitting te voorkomen.

    Artikel 13b regelt de transparantieverplichting en informatieverstrekking ten aanzien van personen die met het AI-systemen interageren of die door het AI-systeem zouden kunnen worden geraakt.

    Wijzigingsvoorstel 20

    Artikel 14, lid 4

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    De in lid 3 bedoelde maatregelen stellen de personen die verantwoordelijk zijn voor het menselijk toezicht in staat om het volgende te doen, zoals passend gezien de omstandigheden:

    De in lid 3 bedoelde maatregelen stellen de personen die verantwoordelijk zijn voor het menselijk toezicht in staat om het volgende te doen, zoals passend gezien de omstandigheden:

    a)

    de capaciteiten en beperkingen van het AI-systeem met een hoog risico volledig begrijpen en de werking ervan naar behoren kunnen monitoren, zodat tekenen van onregelmatigheden, storingen en onverwachte prestaties zo snel mogelijk kunnen worden gedetecteerd en aangepakt;

    a)

    de capaciteiten en beperkingen van het AI-systeem met een hoog risico volledig begrijpen en de werking ervan naar behoren kunnen monitoren, zodat tekenen van onregelmatigheden, storingen en onverwachte prestaties zo snel mogelijk kunnen worden gedetecteerd en aangepakt;

    b)

    zich bewust blijven van de mogelijke neiging om automatisch of te veel te vertrouwen op de output van een AI-systeem met een hoog risico (de zogenaamde “automation bias”), met name voor AI-systemen met een hoog risico die worden gebruikt om informatie of aanbevelingen te verstrekken voor beslissingen die door natuurlijke personen moeten worden genomen;

    b)

    zich bewust blijven van de mogelijke neiging om automatisch of te veel te vertrouwen op de output van een AI-systeem met een hoog risico (de zogenaamde “automation bias”) of van enige andere vorm van bias , met name voor AI-systemen met een hoog risico die worden gebruikt om informatie of aanbevelingen te verstrekken voor beslissingen die door natuurlijke personen moeten worden genomen;

    c)

    de output van het AI-systeem met een hoog risico juist interpreteren, in het bijzonder rekening houdend met de kenmerken van het systeem en de beschikbare instrumenten en methoden voor interpretatie;

    c)

    de output van het AI-systeem met een hoog risico juist interpreteren, in het bijzonder rekening houdend met de kenmerken van het systeem en de beschikbare instrumenten en methoden voor interpretatie;

    d)

    in alle specifieke situaties kunnen besluiten om het AI-systeem met een hoog risico niet te gebruiken of de output van het AI-systeem met een hoog risico op andere wijze te negeren, terzijde te schuiven of terug te draaien;

    d)

    in alle specifieke situaties kunnen besluiten om het AI-systeem met een hoog risico niet te gebruiken of de output van het AI-systeem met een hoog risico op andere wijze te negeren, terzijde te schuiven of terug te draaien;

    e)

    ingrijpen in de werking van het AI-systeem met een hoog risico of het systeem onderbreken door middel van een stopknop of een vergelijkbare procedure.

    e)

    ingrijpen in de werking van het AI-systeem met een hoog risico of het systeem onderbreken door middel van een stopknop of een vergelijkbare procedure.

    Motivering

    Er zijn meerdere vormen van bias die problematisch kunnen zijn. Denk bijvoorbeeld aan de eigen bias van de ontwerper of gebruiker van het AI-systeem (sociale bias), bias ten aanzien van de vraag of het ingezette AI-systeem wel een adequate oplossing is voor het probleem (techno bias) en statistische vormen van bias.

    Wijzigingsvoorstel 21

    Artikel 14, nieuw lid na het vijfde lid

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

     

    Elk besluit dat wordt genomen door AI-systemen zoals bedoeld in bijlage III, punt 5, a) en b), moet onderworpen zijn aan menselijke tussenkomst en berusten op een zorgvuldig besluitvormingsproces. Menselijk contact over deze besluiten moet worden gegarandeerd.

    Motivering

    Artikel 14 gaat louter over menselijk toezicht op hoog risico AI-systemen. Voor overheidsbesluiten is het belangrijk om te benadrukken dat menselijke tussenkomst, contact en een behoorlijke rechtsgang is geborgd.

    Wijzigingsvoorstel 22

    Artikel 17, lid 1, nieuw onderdeel na onderdeel m

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Aanbieders van AI-systemen met een hoog risico voorzien in een systeem voor kwaliteitsbeheer dat de naleving van deze verordening waarborgt. Dit systeem wordt op systematische en ordelijke wijze gedocumenteerd in de vorm van schriftelijk beleidslijnen, procedures en instructies en omvat ten minste de volgende aspecten:

    Aanbieders van AI-systemen met een hoog risico voorzien in een systeem voor kwaliteitsbeheer dat de naleving van deze verordening waarborgt. Dit systeem wordt op systematische en ordelijke wijze gedocumenteerd in de vorm van schriftelijk beleidslijnen, procedures en instructies en omvat ten minste de volgende aspecten:

    a)

    een strategie voor de naleving van de wet- en regelgeving, inclusief de naleving van de conformiteitsbeoordelingsprocedures en de procedures voor het beheer van de wijzigingen van het AI-systeem met een hoog risico;

    a)

    een strategie voor de naleving van de wet- en regelgeving, inclusief de naleving van de conformiteitsbeoordelingsprocedures en de procedures voor het beheer van de wijzigingen van het AI-systeem met een hoog risico;

    b)

    technieken, procedures en systematische maatregelen die moeten worden toegepast voor het ontwerp, de controle van het ontwerp en de verificatie van het ontwerp van het AI-systeem met een hoog risico;

    b)

    technieken, procedures en systematische maatregelen die moeten worden toegepast voor het ontwerp, de controle van het ontwerp en de verificatie van het ontwerp van het AI-systeem met een hoog risico;

    c)

    technieken, procedures en systematische maatregelen die moeten worden toegepast voor de ontwikkeling, de kwaliteitscontrole en de kwaliteitsborging van het AI-systeem met een hoog risico;

    c)

    technieken, procedures en systematische maatregelen die moeten worden toegepast voor de ontwikkeling, de kwaliteitscontrole en de kwaliteitsborging van het AI-systeem met een hoog risico;

    d)

    procedures voor het inspecteren, testen en valideren die vóór, tijdens en na de ontwikkeling van het AI-systeem met een hoog risico moeten worden uitgevoerd en de regelmaat waarmee zij moeten worden uitgevoerd;

    d)

    procedures voor het inspecteren, testen en valideren die vóór, tijdens en na de ontwikkeling van het AI-systeem met een hoog risico moeten worden uitgevoerd en de regelmaat waarmee zij moeten worden uitgevoerd;

    e)

    technische specificaties, met inbegrip van normen, die moeten worden toegepast en, wanneer de relevante geharmoniseerde normen niet volledig worden toegepast, de middelen die worden gebruikt om ervoor te zorgen dat het AI-systeem met een hoog risico in overeenstemming is met de voorschriften van hoofdstuk 2 van deze titel;

    e)

    technische specificaties, met inbegrip van normen, die moeten worden toegepast en, wanneer de relevante geharmoniseerde normen niet volledig worden toegepast, de middelen die worden gebruikt om ervoor te zorgen dat het AI-systeem met een hoog risico in overeenstemming is met de voorschriften van hoofdstuk 2 van deze titel;

    f)

    systemen en procedures voor databeheer, met inbegrip van dataverzameling, -analyse, -etikettering, -opslag, -zuivering, -aggregatie en -behoud en datamining en eventuele andere operaties met betrekking tot de data die worden uitgevoerd voorafgaand aan en met het oog op het in de handel brengen of in gebruik stellen van AI-systemen met een hoog risico;

    f)

    systemen en procedures voor databeheer, met inbegrip van dataverzameling, -analyse, -etikettering, -opslag, -zuivering, -aggregatie en -behoud en datamining en eventuele andere operaties met betrekking tot de data die worden uitgevoerd voorafgaand aan en met het oog op het in de handel brengen of in gebruik stellen van AI-systemen met een hoog risico;

    g)

    het systeem voor risicobeheer zoals bedoeld in artikel 9;

    g)

    het systeem voor risicobeheer zoals bedoeld in artikel 9;

    h)

    het opzetten, toepassen en onderhouden van een systeem voor monitoring na het in de handel brengen, overeenkomstig artikel 61;

    h)

    het opzetten, toepassen en onderhouden van een systeem voor monitoring na het in de handel brengen, overeenkomstig artikel 61;

    i)

    procedures in verband met het melden van ernstige incidenten en van gebrekkig functioneren in overeenstemming met artikel 62;

    i)

    procedures in verband met het melden van ernstige incidenten en van gebrekkig functioneren in overeenstemming met artikel 62;

    j)

    de communicatie met nationale bevoegde autoriteiten, bevoegde autoriteiten, met inbegrip van sectorale autoriteiten, die de toegang tot data verlenen of ondersteunen, aangemelde instanties, andere exploitanten, klanten of andere belangstellenden;

    j)

    de communicatie met nationale bevoegde autoriteiten, bevoegde autoriteiten, met inbegrip van sectorale autoriteiten, die de toegang tot data verlenen of ondersteunen, aangemelde instanties, andere exploitanten, klanten of andere belangstellenden;

    k)

    systemen en procedures voor de registratie van alle relevante documentatie en informatie;

    k)

    systemen en procedures voor de registratie van alle relevante documentatie en informatie;

    l)

    het beheer van hulpmiddelen, met inbegrip van maatregelen in verband met de voorzieningszekerheid;

    l)

    het beheer van hulpmiddelen, met inbegrip van maatregelen in verband met de voorzieningszekerheid;

    m)

    een kader voor de verantwoording, waarin de verantwoordelijkheden van het management en ander personeel uiteen worden gezet met betrekking tot alle aspecten van dit lid.

    m)

    een kader voor de verantwoording, waarin de verantwoordelijkheden van het management en ander personeel uiteen worden gezet met betrekking tot alle aspecten van dit lid;

     

    n)

    maatregelen ter voorkoming van ongerechtvaardigde discriminatie op grond van geslacht, etnische afstamming, godsdienst of overtuiging, handicap, leeftijd, seksuele geaardheid of op welke grond dan ook;

    o)

    een uitleg van de wijze waarop ethische kwesties zijn meegewogen bij het ontwerp van het hoog risico AI-systeem.

    Motivering

    Met de toevoeging wordt benadrukt dat inclusiviteit en bestrijding van ongerechtvaardigde discriminatie belangrijke onderdelen van het kwaliteitssyteem zouden moeten zijn.

    Het systeem dient te voldoen aan de ethische waarden die een gebruiker van het AI-systeem aan dat systeem wenst te stellen of waarvan de aanbieder redelijkerwijs mag verwachten dat die aan een hoog risico AI systeem mogen worden gesteld. De aanbieder moet kunnen uitleggen hoe hij hiermee rekening heeft gehouden.

    Wijzigingsvoorstel 23

    Artikel 19, lid 1

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Aanbieders van AI-systemen met een hoog risico zorgen ervoor dat voor hun systemen de relevante conformiteitsbeoordelingsprocedure wordt uitgevoerd in overeenstemming met artikel 43 voordat deze systemen in de handel worden gebracht of in gebruik worden gesteld. Wanneer de overeenstemming van de AI-systemen met de voorschriften van hoofdstuk 2 van deze titel is aangetoond aan de hand van die conformiteitsbeoordeling, stellen de aanbieders overeenkomstig artikel 48 een EU-conformiteitsverklaring op en brengen zij overeenkomstig artikel 49 de CE-conformiteitsmarkering aan.

    Aanbieders van AI-systemen met een hoog risico zorgen ervoor dat voor hun systemen de relevante conformiteitsbeoordelingsprocedure wordt uitgevoerd in overeenstemming met artikel 43 voordat deze systemen in de handel worden gebracht of in gebruik worden gesteld. Wanneer de overeenstemming van de AI-systemen met de voorschriften van hoofdstuk 2 van deze titel is aangetoond aan de hand van die conformiteitsbeoordeling, stellen de aanbieders overeenkomstig artikel 48 een EU-conformiteitsverklaring op en brengen zij overeenkomstig artikel 49 de CE-conformiteitsmarkering aan. De aanbieder van AI-systemen met een hoog risico publiceert de EU-conformiteitsverklaring en een samenvatting van de conformiteitsbeoordeling op een voor het publiek toegankelijke plaats.

    Motivering

    Om het ecosysteem van vertrouwen in AI-systemen te versterken moeten aanbieder van hoog risico AI systemen openheid betrachten. Het publiek moet daarom kunnen controleren of de conformiteitsbeoordeling goed en volgens de regels van de verordening is vastgesteld.

    Wijzigingsvoorstel 24

    Artikel 29, nieuw lid invoegen na lid 6

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

     

    Gebruikers van hoog risico AI-systemen zijn verantwoordelijk voor het maken van een ethische afweging voordat zij het systeem in gebruik stellen. Zij moeten kunnen toelichten de mogelijke effecten van de inzet van de technologie op mens en samenleving. Zij expliciteren het door hen beoogde doel van de inzet van het AI-systeem, de overkoepelende waarden en de wijze waarop die waarden zijn gewogen en al dan niet in het systeem zijn geïmplementeerd. Zij evalueren gedurende de levenscyclus van het AI-systeem de werkelijke effecten van het systeem op mens en samenleving.

    Motivering

    Ethiek is een ruim begrip. Er zijn vele manieren om aan ethiek met betrekking tot technologie te doen, zowel in termen van theoretische onderbouwingen als van concrete methodologieën, instrumenten en ontwerp-waarden. Waarden zijn zaken die door bepaalde (groepen) mensen belangrijk worden gevonden; zij kunnen concreter of meer conceptueel zijn. Het is van belang de reeks mogelijk te implementeren morele waarden open te houden en de levenscyclus van het AI-systeem te blijven evalueren.

    Wijzigingsvoorstel 25

    Artikel 52, lid 1

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Aanbieders zorgen ervoor dat AI-systemen die voor interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat natuurlijke personen worden geïnformeerd dat zij interageren met een AI-systeem, tenzij de omstandigheden en de gebruikscontext dit duidelijk maken . Deze verplichting is niet van toepassing op bij wet toegestane AI-systemen voor het opsporen, voorkomen, onderzoeken en vervolgen van strafbare feiten, tenzij die systemen voor het publiek beschikbaar zijn om een strafbaar feit te melden.

    Aanbieders zorgen ervoor dat AI-systemen die voor interactie met natuurlijke personen zijn bedoeld, zodanig worden ontworpen en ontwikkeld dat natuurlijke personen worden geïnformeerd dat zij interageren met een AI-systeem. Deze verplichting is niet van toepassing op bij wet toegestane AI-systemen voor het opsporen, voorkomen, onderzoeken en vervolgen van strafbare feiten, tenzij die systemen voor het publiek beschikbaar zijn om een strafbaar feit te melden. De reikwijdte van de opties en de rechtspositie van natuurlijke personen die interageren met AI-systemen mogen door deze interactie niet worden beperkt.

    Motivering

    Daar waar technologische artefacten worden ingezet als medium voor interactie met natuurlijke personen kan het gevaar ontstaan dat keuzen van natuurlijke personen die interageren met deze artefacten worden beperkt. Natuurlijke personen moeten altijd terdege worden geïnformeerd telkens wanneer ze te maken krijgen met AI-systemen en dit mag niet afhankelijk zijn van de interpretatie van een bepaalde situatie. Hun rechten moeten in interacties met AI-systemen te allen tijde worden gewaarborgd.

    Wijzigingsvoorstel 26

    Artikel 57, lid 1

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Het Comité is samengesteld uit de nationale toezichthoudende autoriteiten, die worden vertegenwoordigd door het hoofd of een gelijkwaardige hoge ambtenaar van die autoriteit, en de Europese Toezichthouder voor gegevensbescherming. Andere nationale autoriteiten kunnen voor de vergaderingen worden uitgenodigd, wanneer de besproken kwesties relevant zijn voor hen.

    Het Comité is samengesteld uit de nationale toezichthoudende autoriteiten, die worden vertegenwoordigd door het hoofd of een gelijkwaardige hoge ambtenaar van die autoriteit, en de Europese Toezichthouder voor gegevensbescherming. Andere nationale autoriteiten kunnen voor de vergaderingen worden uitgenodigd, wanneer de besproken kwesties relevant zijn voor hen.

    Motivering

    Lokale en regionale overheden moeten kunnen deelnemen aan het toezicht op AI-systemen en verslag kunnen uitbrengen over de uitvoering ervan in het veld.

    Wijzigingsvoorstel 27

    Artikel 58

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Bij het verstrekken van advies en bijstand aan de Commissie in het kader van artikel 56, lid 2, heeft het Comité met name de volgende taken:

    Bij het verstrekken van advies en bijstand aan de Commissie in het kader van artikel 56, lid 2, heeft het Comité met name de volgende taken:

    a)

    expertise en beste praktijken onder de lidstaten verzamelen en delen;

    a)

    expertise en beste praktijken onder de lidstaten, regionale en lokale autoriteiten verzamelen en delen;

    b)

    bijdragen aan uniforme administratieve praktijken in de lidstaten, ook voor de werking van testomgevingen voor regelgeving als bedoeld in artikel 53;

    b)

    bijdragen aan uniforme administratieve praktijken in de lidstaten, ook voor de werking van testomgevingen voor regelgeving als bedoeld in artikel 53;

    c)

    adviezen, aanbevelingen of schriftelijke bijdragen afgeven over aangelegenheden met betrekking tot de uitvoering van deze verordening, met name

    c)

    adviezen, aanbevelingen of schriftelijke bijdragen afgeven over aangelegenheden met betrekking tot de uitvoering van deze verordening, met name

     

    i)

    over technische specificaties of bestaande normen ten aanzien van de in titel III, hoofdstuk 2, beschreven voorschriften;

    ii)

    over het gebruik van geharmoniseerde normen of gemeenschappelijke specificaties als bedoeld in de artikelen 40 en 41;

    iii)

    over de opstelling van begeleidende documenten, waaronder de richtsnoeren betreffende de bepaling van administratieve boeten als bedoeld in artikel 71.

     

    i)

    over technische specificaties of bestaande normen ten aanzien van de in titel III, hoofdstuk 2, beschreven voorschriften;

    ii)

    over het gebruik van geharmoniseerde normen of gemeenschappelijke specificaties als bedoeld in de artikelen 40 en 41;

    iii)

    over de opstelling van begeleidende documenten, waaronder de richtsnoeren betreffende de bepaling van administratieve boeten als bedoeld in artikel 71.

    Motivering

    Lokale en regionale overheden staan het dichtst bij de lokale inwoners en economieën. Zijn dienen uitdrukkelijk gepositioneerd te worden als het gaat om het delen van hun kennis.

    Wijzigingsvoorstel 28

    Artikel 59, lid 1

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Nationale bevoegde autoriteiten worden door elke lidstaat opgericht of aangewezen met het oog op het waarborgen van de toepassing en uitvoering van deze verordening. Nationale bevoegde autoriteiten worden zodanig georganiseerd dat de objectiviteit en onpartijdigheid van hun activiteiten en taken gewaarborgd zijn.

    Nationale bevoegde autoriteiten worden door elke lidstaat opgericht of aangewezen met het oog op het waarborgen van de toepassing en uitvoering van deze verordening. Nationale bevoegde autoriteiten worden zodanig georganiseerd dat de objectiviteit en onpartijdigheid van hun activiteiten en taken gewaarborgd zijn. Lokale en regionale overheden zijn bevoegd om toezicht- of handhavingstaken uit te voeren wanneer zulks door de lidstaat passend wordt geacht.

    Motivering

    Ter wille van de uitvoerbaarheid van de verordening en het gegeven toezichts- en handhavingskader, dient de lidstaat zo nodig en waar mogelijk lokale en regionale overheden met toezichts- of handhavingstaken te kunnen belasten. In dit verband moeten lokale en regionale overheden steun en opleidingen voor toezichts- of handhavingstaken krijgen om volledig in staat te zijn toezicht- of handhavingstaken uit te voeren.

    Wijzigingsvoorstel 29

    Artikel 69, lid 3

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    Gedragscodes kunnen door individuele aanbieders van AI-systemen of door organisaties die hen vertegenwoordigen, of allebei, worden opgesteld, ook met betrokkenheid van gebruikers en geïnteresseerde belanghebbenden en hun representatieve organisaties. Gedragscodes kunnen betrekking hebben op een of meer AI-systemen, rekening houdend met de overeenkomst van het beoogde doel van de relevante systemen.

    Gedragscodes kunnen door nationale, lokale of regionale overheden , individuele aanbieders van AI-systemen of door organisaties die hen vertegenwoordigen, of allebei, worden opgesteld, ook met betrokkenheid van gebruikers en geïnteresseerde belanghebbenden en hun representatieve organisaties. Gedragscodes kunnen betrekking hebben op een of meer AI-systemen, rekening houdend met de overeenkomst van het beoogde doel van de relevante systemen.

    Motivering

    Nationale, lokale en regionale overheden dienen de wettelijke bevoegdheid te krijgen om voor de AI-systemen die zij ontwikkelen of gebruiken gedragscodes op te stellen.

    Wijzigingsvoorstel 30

    BIJLAGE I — Technieken en benaderingen op het gebied van artificiële intelligentie als bedoeld in artikel 3, punt 1

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

     

    Gelet op de huidige stand van de wetenschap, omvat AI de volgende technieken en methoden:

    (a)

    Benaderingen voor machinaal leren, waaronder gecontroleerd, ongecontroleerd en versterkend leren, met behulp van een brede waaier aan methoden, waaronder diep leren (“deep learning”).

    (a)

    Benaderingen voor machinaal leren, waaronder gecontroleerd, ongecontroleerd en versterkend leren, met behulp van een brede waaier aan methoden, waaronder diep leren (“deep learning”).

    (b)

    Op logica en op kennis gebaseerde benaderingen, waaronder kennisrepresentatie, inductief (logisch) programmeren, kennisbanken, inferentie- en deductiemachines, (symbolisch) redeneren en expertsystemen.

    (b)

    Op logica en op kennis gebaseerde benaderingen, waaronder kennisrepresentatie, inductief (logisch) programmeren, kennisbanken, inferentie- en deductiemachines, (symbolisch) redeneren en expertsystemen.

    (c)

    Statistische benaderingen, Bayesiaanse schattings-, zoek- en optimalisatiemethoden.

    (c)

    Statistische benaderingen, Bayesiaanse schattings-, zoek- en optimalisatiemethoden.

    Motivering

    De definitie en lijst van AI-technieken dient toekomstbestendig te zijn. De lijst van specifieke technieken en benaderingen die voor de ontwikkeling van AI-systemen wordt gebruikt, moet geen uitputtende lijst zijn en het moet duidelijk zijn dat die lijst is gebaseerd op de huidige wetenschappelijke stand van zaken.

    Wijzigingsvoorstel 31

    Bijlage III, 1-5

    Door de Europese Commissie voorgestelde tekst

    Wijzigingsvoorstel van het CvdR

    AI-systemen met een hoog risico overeenkomstig artikel 6, lid 2, zijn de vermelde AI-systemen op de volgende gebieden:

    AI-systemen met een hoog risico overeenkomstig artikel 6, lid 2, zijn de vermelde AI-systemen op de volgende gebieden:

    1.

    biometrische identificatie en categorisering van natuurlijke personen:

    1.

    biometrische identificatie en categorisering van natuurlijke personen:

    (a)

    AI-systemen die bedoeld zijn om te worden gebruikt voor de biometrische identificatie op afstand van natuurlijke personen in real time en achteraf;

    (a)

    AI-systemen die bedoeld zijn om te worden gebruikt voor de biometrische identificatie op afstand van natuurlijke personen in real time en achteraf;

    2.

    beheer en exploitatie van kritieke infrastructuur:

    2.

    beheer en exploitatie van kritieke infrastructuur:

    (a)

    AI-systemen die bedoeld zijn om te worden gebruikt als veiligheidscomponent bij het beheer of de exploitatie van wegverkeer en de levering van water, gas, verwarming en elektriciteit;

    (a)

    AI-systemen die bedoeld zijn om te worden gebruikt als veiligheidscomponent bij het beheer of de exploitatie van wegverkeer en de levering van water, gas, verwarming en elektriciteit en telecommunicatie, water- en internetinfrastructuur ;

    3.

    onderwijs en beroepsopleiding:

    3.

    onderwijs en beroepsopleiding:

    (a)

    AI-systemen die bedoeld zijn om te worden gebruikt voor de bepaling van toegang tot of de toewijzing van natuurlijke personen aan onderwijs- en beroepsopleidingsinstellingen;

    (a)

    AI-systemen die bedoeld zijn om te worden gebruikt voor de bepaling van toegang tot of de toewijzing van natuurlijke personen aan onderwijs- en beroepsopleidingsinstellingen;

    (b)

    AI-systemen die bedoeld zijn om te worden gebruikt voor de beoordeling van studenten in onderwijs- en beroepsopleidingsinstellingen en voor de beoordeling van deelnemers aan tests die gewoonlijk vereist zijn voor toelating tot onderwijsinstellingen;

    (b)

    AI-systemen die bedoeld zijn om te worden gebruikt voor de beoordeling van studenten in onderwijs- en beroepsopleidingsinstellingen en voor de beoordeling van deelnemers aan tests die gewoonlijk vereist zijn voor toelating tot onderwijsinstellingen;

    4.

    werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid:

    4.

    werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid:

    (a)

    AI-systemen die bedoeld zijn voor de aanwerving of selectie van natuurlijke personen, met name voor het bekendmaken van vacatures, het screenen of filteren van sollicitaties, de evaluatie van kandidaten tijdens interviews of tests;

    (a)

    AI-systemen die bedoeld zijn voor de aanwerving of selectie van natuurlijke personen, met name voor het bekendmaken van vacatures, het screenen of filteren van sollicitaties, de evaluatie van kandidaten tijdens interviews of tests;

    (b)

    AI-systemen die bedoeld zijn voor het nemen van besluiten over de bevordering en beëindiging van arbeidsgerelateerde contractuele relaties, voor de toewijzing van taken en voor het toezicht op en de evaluatie van prestaties en gedrag van personen in dergelijke relaties;

    (b)

    AI-systemen die bedoeld zijn voor het nemen van besluiten over de bevordering en beëindiging van arbeidsgerelateerde contractuele relaties, voor de toewijzing van taken en voor het toezicht op en de evaluatie van prestaties en gedrag van personen in dergelijke relaties;

    5.

    toegang tot en gebruik van essentiële particuliere diensten en openbare diensten en uitkeringen:

    5.

    toegang tot en gebruik van essentiële particuliere diensten en openbare diensten en uitkeringen:

    (a)

    AI-systemen die bedoeld zijn om door of namens overheidsinstanties te worden gebruikt om te beoordelen of natuurlijke personen in aanmerking komen voor overheidsuitkeringen en -diensten, evenals voor het verlenen, beperken, intrekken of terugvorderen van dergelijke uitkeringen en diensten;

    a)

    AI-systemen die bedoeld zijn om door of namens overheidsinstanties te worden gebruikt om te beoordelen en te besluiten of natuurlijke personen in aanmerking komen voor overheidsuitkeringen en -diensten, evenals voor het verlenen, beperken, intrekken of terugvorderen van dergelijke uitkeringen en diensten;

    (b)

    AI-systemen die bedoeld zijn om de kredietwaardigheid van natuurlijke personen te beoordelen of hun kredietscore vast te stellen , met uitzondering van AI-systemen die in bedrijf zijn gesteld door kleine aanbieders voor eigen gebruik;

    b)

    AI-systemen die bedoeld zijn om de kredietwaardigheid van natuurlijke personen of hun kredietscore te bepalen , met uitzondering van AI-systemen die in bedrijf zijn gesteld door kleine aanbieders voor eigen gebruik;

    (c)

    AI-systemen die bedoeld zijn om te worden gebruikt voor de inzet of voor het vaststellen van prioriteiten bij de inzet van hulpdiensten, waaronder brandweer en ambulance;

    (c)

    AI-systemen die bedoeld zijn om te worden gebruikt voor de inzet of voor het vaststellen van prioriteiten bij de inzet van hulpdiensten, waaronder brandweer en ambulance;

    Motivering

    Telecommunicatie-, water- en internetinfrastructuur maken integraal deel uit van kritieke infrastructuur.

    Waar het om gaat bij de kwalificatie van hoog risico systemen is of dergelijke systemen een daadwerkelijk risico voor burgers zouden kunnen vormen. Het enkel analytisch en theoretisch beoordelen van aanspraken van inwoners op voorzieningen van de overheid brengt an sich nog geen hoog risico mee. De aanvulling van het woord “beoordelen” met “besluiten” benadrukt dat dit risico met name voor de inwoner effectief tot uitdrukking komt bij besluitvorming.

    II.   BELEIDSAANBEVELINGEN

    HET EUROPEES COMITÉ VAN DE REGIO’S

    Ecosysteem van excellentie

    1.

    benadrukt dat de ambitie van de Commissie om de EU wereldleider te maken op het gebied van verantwoorde en mensgerichte ontwikkeling van AI alleen te realiseren is met een sterke positie voor lokale en regionale overheden. Lokale en regionale overheden zijn het beste in staat om bij te dragen aan het scheppen van een gunstig klimaat voor een toename van de investeringen in AI in de komende jaren en het bevorderen van het vertrouwen in AI;

    2.

    benadrukt dat lokale en regionale overheden niet alleen bij AI betrokken moeten worden, maar ook steun en opleidingen moeten krijgen om hen competenter te maken op dit vlak, met name omdat zij met toezicht en handhaving kunnen worden belast;

    3.

    constateert dat er EU-financiering beschikbaar komt voor de ontwikkeling van AI, maar wijst wel op de gefragmenteerde aanpak hiervan door de diversiteit aan programma’s. Dit verhoogt het risico op versnippering en overlap;

    4.

    roept de Commissie daarom op om krachtige en pluriforme common data spaces te ontwikkelen en te verbinden, waarin maatschappelijke usecases met de inzet van publieke en private data worden opgelost. Dit vraagt mede om afstemming met wetgevende initiatieven onder de Europese Datastrategie.

    Ecosysteem van vertrouwen

    5.

    Het valt te betreuren dat in het voorstel voor een verordening niet wordt verwezen naar de lokale en regionale overheden, hoewel het rechtskader van toepassing zal zijn op zowel publieke als private actoren;

    6.

    merkt in dit verband op dat AI-systemen een flinke steun in de rug kunnen zijn voor de interactie van lokale en regionale overheden met hun burgers en voor hun dienstverlening. Bovendien kunnen AI-systemen onder meer de efficiëntie van de publieke sector vergroten en de lokale en regionale overheden ondersteunen bij het uitvoeren van de nodige aanpassingen op lokaal en regionaal niveau in verband met de groene en digitale transitie. Het is dan ook belangrijk dat bij de lopende herziening van de verordening de ervaringen van lokale en regionale overheden actief worden benut.

    7.

    dringt aan op een nadere uitleg van de definities “aanbieder” en “gebruiker” met name in de situaties waarin bedrijven, onderzoeksinstellingen, overheden en inwoners gezamenlijk AI-systemen ontwikkelen en uittesten in living labs. Ook moet de nodige aandacht worden besteed aan burgers of consumenten die de gevolgen ondervinden van door AI gestuurde besluiten van systemen die door professionele gebruikers worden gebruikt;

    8.

    onderstreept de noodzaak van voorafgaande raadpleging van de betrokken lokale en regionale autoriteiten in het geval van het gebruik van AI-systemen voor de “realtime” biometrische identificatie van natuurlijke personen op afstand in openbaar toegankelijke ruimten met het oog op rechtshandhaving;

    9.

    is ingenomen met de openbare raadpleging van de Europese Commissie over de aanpassing van de regels inzake wettelijke aansprakelijkheid aan de specifieke uitdagingen van het digitale tijdperk en van artificiële intelligentie (1) en verwacht dat een en ander zal uitmonden in een geactualiseerd kader dat waarborgt dat consumenten schadeloos worden gesteld voor door AI-toepassingen veroorzaakte schade;

    10.

    vraagt zich af waarom AI-systemen die worden ingezet bij democratische processen zoals verkiezingen niet op de lijst van hoog risico AI-systemen staan;

    11.

    dringt er op aan dat risicovolle AI-systemen onderworpen zijn aan dezelfde transparantie- en informatievereisten voor natuurlijke personen als momenteel het geval is voor gebruikers;

    12.

    wijst op de grote mensenrechtelijke risico’s en implicaties die zijn verbonden aan het gebruik van sociale classificaties;

    13.

    is in dit verband zeer sceptisch ten aanzien van de twee in de verordening (2) genoemde redenen om te bepalen wanneer een sociale classificatie leidt tot een nadelige of ongunstige behandeling van individuen of groepen mensen, aangezien het uiterst moeilijk is om het bestaan van dergelijke redenen vast te stellen. In dit verband dringt het Comité aan op duidelijke formulering van krachtige waarborgen om te voorkomen dat het verbod op sociale-classificatiepraktijken wordt omzeild.

    14.

    neemt kennis van het feit dat in de overwegingen van de verordening nader wordt ingegaan op de risico’s waaraan natuurlijke personen worden blootgesteld als gevolg van hun interactie met risicovolle AI-systemen in het kader van onder meer onderwijs, opleiding, werkgelegenheid, personeelsbeheer, toegang tot zelfstandige arbeid of toegang tot en het genot van bepaalde essentiële particuliere en openbare diensten;

    15.

    roept de Commissie op een nader onderzoek te verrichten naar de hoog risico kwalificatie van AI-systemen die bestemd zijn om te worden gebruikt door overheidsinstanties; (3)

    16.

    pleit voor een autoriteit die ex ante zwaarwegend advies kan geven over de uitleg van bepalingen in de verordening mede in relatie met de Algemene Verordening Gegevensbescherming. Dit bevordert de rechtszekerheid en verlaagt de kosten van het ontwerp en implementatie van AI-systemen;

    17.

    onderstreept in dit verband het belang van een duidelijke formulering van de verordening, die bijdraagt aan de opbouw van een ecosysteem van vertrouwen en het wegnemen van rechtsonzekerheid rondom de ontwikkeling en het gebruik van AI-systemen. Dit zou verkeerde interpretaties van de voorgestelde eisen voorkomen en de risico’s van daaruit voortvloeiend verkeerd beheer van AI-toepassingen tot een minimum beperken, waardoor de doeltreffendheid van de verordening en de geloofwaardigheid van de sancties worden gemaximaliseerd. Tegelijkertijd, en conform de agenda voor betere regelgeving van de Europese Commissie, is het van cruciaal belang dat mogelijke overlappingen en/of conflicten met bestaande regels vroegtijdig worden opgespoord en weggenomen.

    18.

    merkt op dat veel lokale en regionale overheden dezelfde AI-systemen inzetten voor vergelijkbare taken. De systemen worden in het overgrote deel van de gevallen ontworpen door private bedrijven;

    19.

    merkt op dat de voorgestelde verordening niet op zichzelf staat wat betreft het waarborgen van de rechten van de burgers en dat het voorstel moet worden gezien in samenhang met bestaande wetgeving. De lidstaten zouden er dan ook voor moeten zorgen dat zij steeds de nodige bestuursrechtelijke maatregelen nemen om de kansen en risico’s van het gebruik van AI in de publieke sector het hoofd te kunnen bieden;

    20.

    signaleert dat dit betekent dat bij de conformiteitsbeoordeling Europese en nationale regels worden geïnterpreteerd door bedrijven en aangemelde instanties en aldus doorwerken in de praktijk van lokale en regionale overheden die deze AI-systemen gebruiken. Het is daarmee lastig vast te stellen hoeveel lokaal en regionaal beleid toe te voegen is aan deze AI-systemen. Daarom wijst het Comité op de specifieke behoeften van lokale en regionale overheden en op het feit dat een “one-size-fits-all”-benadering de doeltreffendheid van AI-systemen om aan deze behoeften tegemoet te komen, kan ondermijnen. Verder stelt het Comité voor de lidstaten de bevoegdheid te geven om risicovolle AI-systemen te reguleren op grond van dwingende en gerechtvaardigde redenen van algemeen belang;

    21.

    dringt er in dit verband op aan dat conformiteitsbeoordelingen transparant en toegankelijk moeten zijn voor het publiek. Bovendien moeten lokale en regionale overheden ook kunnen deelnemen aan de monitoring van AI-systemen, verslag kunnen uitbrengen over de uitvoering ervan in het veld en formeel kunnen bijdragen aan de evaluatie door de Europese Commissie van de toepassing van de verordening;

    22.

    benadrukt dat voor de toepassing van de regulatory sandbox de juiste juridische, methodologische en ethische voorwaarden dienen te worden gecreëerd om de ontwikkeling van technologie, wetgeving en evaluatie van wetgeving mogelijk te maken. En dat er duidelijke criteria voor toelating van ondernemers tot de regulatory sandbox moeten komen. Om ervoor te zorgen dat consumentenorganisaties de bepalingen van de Wet Artificiële intelligentie kunnen afdwingen, moet deze worden toegevoegd aan bijlage I van de Europese richtlijn betreffende representatieve vorderingen ter bescherming van de collectieve belangen van consumenten ((EU) 2020/1828);

    Voorlichtingscampagnes

    23.

    benadrukt het belang van voorlichtingscampagnes, zodat het grote publiek wordt geïnformeerd over en vertrouwd wordt gemaakt met het bestaan en het nut van AI-systemen en de mogelijke risico’s daarvan. Verder bestaat er dringende behoefte aan uitvoerige informatie voor consumenten over op AI gebaseerde/machinaal gestuurde besluitvorming. De Europese Commissie zou voor dit soort campagnes financiering ter beschikking moeten stellen;

    Administratieve lasten

    24.

    spreekt zijn zorg uit over de mogelijke administratieve lasten die de voorgestelde verordening mee kan brengen. De administratieve lasten kunnen kleine en middelgrote ondernemingen, lokale en regionale overheden belemmeren in het bevorderen van innovatie en het inzetten van AI-systemen; (4)

    Evenredigheid en subsidiariteit

    25.

    overweegt dat de ontwerpverordening voldoet aan de vereisten van het proportionaliteits- en het subsidiariteitsbeginsel. De toegevoegde waarde van het optreden van de EU op dit gebied en de geschiktheid van de gekozen rechtsgrondslagen door de Commissie zijn duidelijk en consistent. De effectbeoordeling omvatte een apart onderdeel over subsidiariteit. Voorts heeft geen enkel nationaal parlement binnen de op 2 september 2021 bepaalde uiterste indieningsdatum een gemotiveerd advies uitgebracht over niet-naleving van het subsidiariteitsbeginsel.

    Brussel, 2 december 2021.

    De voorzittervan het Europees Comité van de Regio’s

    Apostolos TZITZIKOSTAS


    ([62])  Kaderbesluit 2002/584/JBZ van de Raad van 13 juni 2002 betreffende het Europees aanhoudingsbevel en de procedures van overlevering tussen de lidstaten (PB L 190 van 18.7.2002, blz. 1).

    ([62])  Kaderbesluit 2002/584/JBZ van de Raad van 13 juni 2002 betreffende het Europees aanhoudingsbevel en de procedures van overlevering tussen de lidstaten (PB L 190 van 18.7.2002, blz. 1).

    (1)  https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_nl.

    (2)  Artikel 5, lid 1, onder c)

    (3)  Bijlage III, onder 5a

    (4)  In een recente, door de Europese Commissie gesteunde studie (Study to Support an Impact Assessment of Regulatory Requirements for Artificial Intelligence in Europe, p. 12)wordt geraamd dat, uitgaande van redelijke veronderstellingen, het verkrijgen van certificering voor een AI-systeem gemiddeld 16 800-23 000 euro kan kosten, wat ruwweg neerkomt op 10-14 % van de ontwikkelingskosten.


    Top