This document is an excerpt from the EUR-Lex website
Document 52020IP0275
European Parliament resolution of 20 October 2020 with recommendations to the Commission on a framework of ethical aspects of artificial intelligence, robotics and related technologies (2020/2012(INL))
Resolutie van het Europees Parlement van 20 oktober 2020 met aanbevelingen aan de Commissie betreffende een kader voor ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën (2020/2012(INL))
Resolutie van het Europees Parlement van 20 oktober 2020 met aanbevelingen aan de Commissie betreffende een kader voor ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën (2020/2012(INL))
PB C 404 van 6.10.2021, p. 63–106
(BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)
6.10.2021 |
NL |
Publicatieblad van de Europese Unie |
C 404/63 |
P9_TA(2020)0275
Kader voor ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën
Resolutie van het Europees Parlement van 20 oktober 2020 met aanbevelingen aan de Commissie betreffende een kader voor ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën (2020/2012(INL))
(2021/C 404/04)
Het Europees Parlement,
— |
gezien artikel 225 van het Verdrag betreffende de werking van de Europese Unie, |
— |
gezien artikel 114 van het Verdrag betreffende de werking van de Europese Unie, |
— |
gezien het Handvest van de grondrechten van de Europese Unie, |
— |
gezien Verordening (EU) 2018/1488 van de Raad van 28 september 2018 tot oprichting van de Gemeenschappelijke Onderneming Europese high-performance computing (1), |
— |
gezien Richtlijn 2000/43/EG van de Raad van 29 juni 2000 houdende toepassing van het beginsel van gelijke behandeling van personen ongeacht ras of etnische afstamming (2) (richtlijn inzake rassengelijkheid), |
— |
gezien Richtlijn 2000/78/EG van de Raad van 27 november 2000 tot instelling van een algemeen kader voor gelijke behandeling in arbeid en beroep (3) (richtlijn inzake gelijke behandeling in arbeid), |
— |
gezien Verordening (EU) 2016/679 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens en betreffende het vrije verkeer van die gegevens en tot intrekking van Richtlijn 95/46/EG (algemene verordening gegevensbescherming) (4) (AVG), en Richtlijn (EU) 2016/680 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens door bevoegde autoriteiten met het oog op de voorkoming, het onderzoek, de opsporing en de vervolging van strafbare feiten of de tenuitvoerlegging van straffen, en betreffende het vrije verkeer van die gegevens en tot intrekking van Kaderbesluit 2008/977/JBZ van de Raad (5), |
— |
gezien het Interinstitutioneel Akkoord van 13 april 2016 over beter wetgeven (6), |
— |
gezien het voorstel voor een verordening van het Europees Parlement en de Raad van 6 juni 2018 tot vaststelling van het programma Digitaal Europa voor de periode 2021-2027 (COM(2018)0434), |
— |
gezien de mededeling van de Commissie aan het Europees Parlement, de Europese Raad, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio’s van 11 december 2019 over de Europese Green Deal (COM(2019)0640), |
— |
gezien het Witboek van de Commissie aan het Europees Parlement, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio’s van 19 februari 2020 over artificiële intelligentie — een Europese benadering op basis van excellentie en vertrouwen (COM(2020)0065), |
— |
gezien de mededeling van 19 februari 2020 van de Commissie aan het Europees Parlement, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio’s, getiteld “Een Europese datastrategie” (COM(2020)0066), |
— |
gezien de mededeling van de Commissie aan het Europees Parlement, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio’s van 19 februari 2020, getiteld “De digitale toekomst van Europa vormgeven” (COM(2020)0067), |
— |
Gezien de “Conclusies van de Raad van de Europese Unie — De digitale toekomst van Europa vormgeven” van juni 2020, |
— |
gezien zijn resolutie van 16 februari 2017 met aanbevelingen aan de Commissie over civielrechtelijke regels inzake robotica (7), |
— |
gezien zijn resolutie van 1 juni 2017 over de digitalisering van de Europese industrie (8), |
— |
gezien zijn resolutie van 12 september 2018 over autonome wapensystemen (9), |
— |
gezien zijn resolutie van 11 september 2018 over taalgelijkheid in het digitale tijdperk (10), |
— |
gezien zijn resolutie van 12 februari 2019 inzake een alomvattend Europees industriebeleid inzake artificiële intelligentie en robotica (11), |
— |
gezien het verslag van 8 april 2019 van de door de Commissie opgerichte deskundigengroep op hoog niveau inzake artificiële intelligentie getiteld “Ethische richtsnoeren voor betrouwbare artificiële intelligentie”, |
— |
gezien het onderzoek naar de beoordeling van de Europese meerwaarde, uitgevoerd door de onderzoeksdienst van het Europees Parlement (EPRS), getiteld “Europees kader voor ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën: beoordeling van de Europese meerwaarde” (12) |
— |
gezien de briefings en studies die zijn opgesteld op verzoek van het panel voor de toekomst van wetenschap en technologie (STOA), dat wordt beheerd door de afdeling Wetenschappelijke Toekomstverkenningen van de onderzoeksdienst van het Europees Parlement, getiteld “What if algorithms could abide by ethical principles?”, “Artificial Intelligence ante portas: Legal & ethical reflections”, “A governance framework for algorithmic accountability and transparency”, “Should we fear artificial intelligence?” en “The ethics of artificial intelligence: Issues and initiatives”, |
— |
gezien het Kaderverdrag inzake de bescherming van nationale minderheden van de Raad van Europa, Protocol nr. 12 bij het Verdrag tot bescherming van de rechten van de mens en de fundamentele vrijheden, en het Europees Handvest voor regionale talen of talen van minderheden, |
— |
gezien de aanbeveling van de OESO-Raad betreffende artificiële intelligentie, die op 22 mei 2019 werd aangenomen, |
— |
gezien de artikelen 47 en 54 van zijn Reglement, |
— |
gezien de adviezen van de Commissie buitenlandse zaken, de Commissie interne markt en consumentenbescherming, de Commissie vervoer en toerisme, de Commissie burgerlijke vrijheden, justitie en binnenlandse zaken, de Commissie werkgelegenheid en sociale zaken, de Commissie milieubeheer, volksgezondheid en voedselveiligheid, de Commissie cultuur en onderwijs, |
— |
gezien het verslag van de Commissie juridische zaken (A9-0186/2020), |
Inleiding
A. |
overwegende dat het mensen zijn die artificiële intelligentie (ook wel AI genoemd), robotica en aanverwante technologieën ontwikkelen, uitrollen en gebruiken en dat hun keuzes bepalen of de mogelijkheden van dergelijke technologieën ten goede komen aan de samenleving; |
B. |
overwegende dat artificiële intelligentie, robotica en aanverwante technologieën, die kansen voor bedrijven en voordelen voor burgers kunnen creëren en die rechtstreeks van invloed kunnen zijn op alle aspecten van onze samenleving, met inbegrip van grondrechten en sociale en economische beginselen en waarden, en die een blijvende invloed hebben op alle activiteitengebieden, worden bevorderd en snel worden ontwikkeld; |
C. |
overwegende dat artificiële intelligentie, robotica en aanverwante technologieën wezenlijke veranderingen teweeg zullen brengen op de arbeidsmarkt en op de werkplek; overwegende dat zij in de plaats kunnen komen van werknemers die repetitieve activiteiten verrichten, de samenwerking tussen mens en machine kunnen vergemakkelijken, het concurrentievermogen en de welvaart kunnen vergroten en nieuwe arbeidsmogelijkheden voor gekwalificeerde werknemers kunnen creëren en tegelijkertijd een serieuze uitdaging kunnen vormen wat betreft de reorganisatie van het personeel; |
D. |
overwegende dat de ontwikkeling van artificiële intelligentie, robotica en aanverwante technologieën ook kan bijdragen tot het verwezenlijken van de duurzaamheidsdoelstellingen van de Europese Green Deal in tal van sectoren; overwegende dat digitale technologieën het effect van beleid op het gebied van milieubescherming kunnen versterken; overwegende dat zij tevens kunnen bijdragen tot het verminderen van verkeersopstoppingen en de uitstoot van broeikasgassen en luchtvervuilende stoffen; |
E. |
overwegende dat in sectoren als het openbaar vervoer door AI ondersteunde toepassingen voor intelligente vervoerssystemen kunnen worden gebruikt om files zo beperkt mogelijk te houden, routes te optimaliseren, personen met een beperking zelfredzamer te maken en de energie-efficiëntie te vergroten, en dus kunnen bijdragen tot de vermindering van koolstofemissies en het verkleinen van de ecologische voetafdruk; |
F. |
overwegende dat deze technologieën kunnen resulteren in nieuwe kansen voor het bedrijfsleven die kunnen bijdragen tot het herstel van de industrie van de Unie na de huidige gezondheids- en economische crisis, indien er meer gebruik van wordt gebruikt, bijvoorbeeld in de vervoerssector; overwegende dat dergelijke kansen voor nieuwe werkgelegenheid kunnen zorgen, aangezien de toepassing van deze technologieën de mogelijkheid biedt om de productiviteit van bedrijven te verhogen en bij te dragen tot een hogere mate van efficiëntie; overwegende dat innovatieprogramma’s op dit gebied regionale clusters de mogelijkheid bieden om hun positie te versterken; |
G. |
overwegende dat de Unie en haar lidstaten een bijzondere verantwoordelijkheid hebben om de meerwaarde van artificiële intelligentie aan te wenden, te bevorderen en te vergroten en ervoor te zorgen dat AI-technologieën veilig zijn en bijdragen tot het welzijn en het algemeen belang van hun burgers, aangezien zij een enorme bijdrage kunnen leveren aan de verwezenlijking van de gemeenschappelijke doelstelling om het leven van de burgers te verbeteren en de welvaart binnen de Unie te bevorderen door hun bijdrage aan de ontwikkeling van betere strategieën en innovatie op een aantal gebieden en in bepaalde sectoren; overwegende dat, teneinde het volledig potentieel van artificiële intelligentie te benutten en gebruikers bewust te maken van de voordelen en uitdagingen van AI-technologieën, AI en digitale geletterdheid aan bod moeten komen in het onderwijs en in opleidingen, onder meer met het oog op de bevordering van digitale inclusie, en dat er op het niveau van de Unie informatiecampagnes moeten worden gevoerd die een nauwkeurig beeld geven van alle aspecten van de ontwikkeling van AI; |
H. |
overwegende dat een gemeenschappelijk regelgevingskader van de Unie voor de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën (“regelgevingskader voor AI”) de burgers in staat moet stellen de potentiële voordelen ervan te benutten, maar de burgers ook tegen mogelijke risico’s moet beschermen en de betrouwbaarheid van dergelijke technologieën in de Unie en elders moet bevorderen; overwegende dat dit kader gebaseerd moet zijn op het recht en de waarden van de Unie en uit moet gaan van de beginselen van transparantie, verklaarbaarheid, billijkheid, verantwoordingsplicht en verantwoordelijkheid; |
I. |
overwegende dat een dergelijk regelgevingskader van cruciaal belang is om versnippering van de interne markt, die het gevolg is van uiteenlopende nationale wetgeving, te voorkomen en zal bijdragen tot de bevordering van broodnodige investeringen, de ontwikkeling van data-infrastructuur en de ondersteuning van onderzoek; overwegende dat het moet bestaan uit gemeenschappelijke wettelijke verplichtingen en ethische beginselen, zoals vastgelegd in het voorstel voor een verordening waarom in de bijlage bij deze resolutie wordt gevraagd; overwegende dat het overeenkomstig de richtsnoeren voor betere regelgeving moet worden opgezet; |
J. |
overwegende dat de Unie beschikt over een strikt juridisch kader om onder meer de bescherming van persoonsgegevens, privacy en non-discriminatie te waarborgen, en om gendergelijkheid, milieubescherming en de rechten van consumenten te bevorderen; overwegende dat een dergelijk kader met een omvangrijk pakket horizontale en sectorale wetgeving, waaronder de bestaande regels inzake productveiligheid en aansprakelijkheid, ook zal gelden voor artificiële intelligentie, robotica en aanverwante technologieën, hoewel zekere aanpassingen van specifieke rechtsinstrumenten noodzakelijk kunnen blijken om rekening te houden met de digitale transformatie en om het hoofd te bieden aan nieuwe uitdagingen als gevolg van het gebruik van artificiële intelligentie; |
K. |
overwegende dat er ernstig aan wordt getwijfeld of het huidige wettelijk kader van de Unie, met inbegrip van het acquis op het gebied van het consumentenrecht en werkgelegenheid en het sociale acquis, de wetgeving inzake gegevensbescherming, inzake productveiligheid en markttoezicht alsmede de antidiscriminatiewetgeving, toereikend is om de risico’s die door artificiële intelligentie, robotica en aanverwante technologieën ontstaan, effectief aan te pakken; |
L. |
overwegende dat, behalve door aanpassingen van bestaande wetgeving, juridische en ethische vraagstukken over deze technologieën moeten worden behandeld door middel van een doeltreffend, alomvattend en toekomstbestendig regelgevingskader van Unierecht dat een afspiegeling vormt van de beginselen en waarden van de Unie die zijn verankerd in de Verdragen en het Handvest van de grondrechten van de Europese Unie (“Handvest”) en waarin geen sprake is van overregulering, doordat alleen bestaande mazen in de wetgeving worden gedicht en doordat de rechtszekerheid voor zowel bedrijven als burgers wordt vergroot, namelijk door het opnemen van verplichte maatregelen ter voorkoming van praktijken die de grondrechten zonder twijfel zouden ondermijnen; |
M. |
overwegende dat in elk nieuw regelgevingskader rekening dient te worden gehouden met alle belangen die op het spel staan; overwegende dat zorgvuldig onderzoek naar de gevolgen van een nieuw regelgevingskader voor alle actoren door middel van een effectbeoordeling een eerste voorwaarde dient te zijn voor verdere wetgevingsmaatregelen; overwegende dat de essentiële rol die kleine en middelgrote ondernemingen (kmo’s) en start-ups met name in de economie van de Unie spelen een strikt evenredige benadering rechtvaardigt om hen in staat te stellen zich te ontwikkelen en te innoveren; |
N. |
overwegende dat artificiële intelligentie, robotica en aanverwante technologieën ernstige implicaties kunnen hebben voor de materiële en immateriële integriteit van personen, groepen en de samenleving als geheel, en dat potentiële individuele en collectieve schadelijke gevolgen door middel van wetgeving moeten worden aangepakt; |
O. |
overwegende dat er wellicht specifieke regels voor de vervoerssector van de Unie moeten worden vastgesteld om een regelgevingskader van de Unie voor AI te eerbiedigen; |
P. |
overwegende dat AI-technologieën van strategisch belang zijn voor de vervoerssector, onder meer omdat zij de veiligheid en toegankelijkheid van alle vervoerswijzen vergroten en nieuwe werkgelegenheid en duurzamere bedrijfsmodellen creëren; overwegende dat een dergelijke benadering op Unieniveau van de ontwikkeling van artificiële intelligentie, robotica en aanverwante technologieën in de vervoerssector het potentieel heeft om het mondiale concurrentievermogen en de strategische autonomie van de economie van de Unie te vergroten; |
Q. |
overwegende dat menselijke fouten nog steeds een rol spelen bij circa 95 % van alle verkeersongevallen in de Unie; overwegende dat de Unie ernaar streefde het aantal verkeersdoden in de Unie uiterlijk in 2020 met 50 % te verminderen ten opzichte van 2010, maar dat zij, gezien de stagnerende vooruitgang op dit terrein, haar inspanningen in het kader van haar EU-beleidskader voor verkeersveiligheid 2021-2030 — Volgende stappen voor “Vision Zero” heeft hernieuwd; overwegende dat AI, automatisering en andere nieuwe technologieën in dit verband een groot potentieel hebben en van vitaal belang zijn om het verkeer veiliger te maken doordat zij de kans op menselijke fouten beperken; |
R. |
overwegende dat het regelgevingskader van de Unie voor AI ook de noodzaak moet weerspiegelen om de rechten van werknemers te eerbiedigen; overwegende dat rekening moet worden gehouden met de kaderovereenkomst van de Europese sociale partners inzake digitalisering van juni 2020; |
S. |
overwegende dat het toepassingsgebied van het regelgevingskader van de Unie voor AI toereikend en evenredig moet zijn en aan een grondige beoordeling moet worden onderworpen; overwegende dat dit kader een breed scala van technologieën en hun componenten moet bestrijken, met inbegrip van de algoritmen, software en de gegevens die erdoor worden gebruikt of geproduceerd, maar dat een gerichte, op risico’s gebaseerde benadering noodzakelijk is om te voorkomen dat toekomstige innovaties worden belemmerd en dat er onnodige lasten ontstaan, met name voor kmo’s; overwegende dat het door de grote verscheidenheid aan toepassingen op basis van artificiële intelligentie, robotica en aanverwante technologieën ingewikkeld is om één oplossing te vinden voor het hele gamma aan risico’s; |
T. |
overwegende dat gegevensanalyse en AI een steeds grotere invloed hebben op de informatie die aan burgers ter beschikking wordt gesteld; overwegende dat deze technologieën, wanneer er misbruik van wordt gemaakt, het fundamentele recht op de vrijheid van meningsuiting en op informatie, evenals persvrijheid en pluralisme in gevaar kunnen brengen; |
U. |
overwegende dat het geografische toepassingsgebied van het regelgevingskader van de Unie voor AI alle componenten van artificiële intelligentie, robotica en aanverwante technologieën moet bestrijken die worden ontwikkeld, uitgerold of gebruikt in de Unie, ook in gevallen waarin een deel van deze technologieën zich mogelijk buiten de Unie bevindt of geen specifieke locatie heeft; |
V. |
overwegende dat het regelgevingskader van de Unie voor AI alle relevante stadia moet bestrijken, namelijk de ontwikkeling, de uitrol en het gebruik van de relevante technologieën en hun componenten, waarbij terdege rekening moet worden gehouden met de relevante wettelijke verplichtingen en ethische beginselen, en de voorwaarden moeten worden vastgesteld om ervoor te zorgen dat ontwikkelaars, exploitanten en gebruikers dergelijke verplichtingen en beginselen volledig in acht nemen; |
W. |
overwegende dat een geharmoniseerde benadering van de ethische beginselen met betrekking tot artificiële intelligentie, robotica en aanverwante technologieën een gemeenschappelijke Unie-interpretatie vereist van de begrippen die aan de technologieën ten grondslag liggen, zoals algoritmen, software, gegevens en biometrische herkenning; |
X. |
overwegende dat actie op Unieniveau wordt gerechtvaardigd door de noodzaak om versnipperde regelgeving of een reeks nationale bepalingen zonder gemeenschappelijke deler te voorkomen, en ervoor te zorgen dat gemeenschappelijke, in het recht verankerde ethische beginselen homogeen worden toegepast wanneer artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico worden ontwikkeld, uitgerold en gebruikt; overwegende dat er duidelijke regels nodig zijn wanneer er sprake is van aanzienlijke risico’s; |
Y. |
overwegende dat gemeenschappelijke ethische beginselen alleen doelmatig zijn wanneer zij tevens zijn verankerd in het recht en wanneer is bepaald wie er verantwoordelijk zijn voor het waarborgen, beoordelen en monitoren van de conformiteit; |
Z. |
overwegende dat ethische richtsnoeren, zoals de beginselen die zijn goedgekeurd door de deskundigengroep op hoog niveau inzake artificiële intelligentie, een goed uitgangspunt vormen, maar niet kunnen waarborgen dat ontwikkelaars, exploitanten en gebruikers eerlijk handelen en doeltreffende consumentenbescherming garanderen; overwegende dat dergelijke richtsnoeren des te relevanter zijn met betrekking tot artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico; |
AA. |
overwegende dat elke lidstaat een nationale toezichthoudende autoriteit moet aanwijzen die verantwoordelijk is voor het waarborgen, beoordelen en monitoren van de conformiteit van de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico met het regelgevingskader van de Unie voor AI, en voor het bevorderen van discussies en de uitwisseling van standpunten, in nauwe samenwerking met de belanghebbenden en het maatschappelijk middenveld; overwegende dat de nationale toezichthoudende autoriteiten onderling moeten samenwerken; |
AB. |
overwegende dat met het oog op een geharmoniseerde aanpak in de hele Unie en de optimale werking van de digitale eengemaakte markt, de coördinatie op Unieniveau door de Commissie en/of relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen, moet worden beoordeeld met betrekking tot de nieuwe kansen en uitdagingen, met name die van grensoverschrijdende aard, die voortvloeien uit doorlopende technologische ontwikkelingen; overwegende dat de Commissie met het oog hierop de opdracht moet krijgen een passende oplossing te vinden om deze coördinatie op het niveau van de Unie te structureren; |
Mensgerichte en door de mens gemaakte artificiële intelligentie
1. |
is van mening dat, onverminderd sectorspecifieke wetgeving, een doeltreffend en geharmoniseerd regelgevingskader dat gebaseerd is op het recht van de Unie, het Handvest en het internationaal recht inzake de mensenrechten, en dat met name van toepassing is op technologieën met een hoog risico, noodzakelijk is teneinde in de hele Unie gelijke normen vast te stellen en de waarden van de Unie doeltreffend te beschermen; |
2. |
is van mening dat elk nieuw regelgevingskader voor AI bestaande uit wettelijke verplichtingen en ethische beginselen voor de ontwikkeling, de uitrol en het gebruik van AI, robotica en aanverwante technologieën volledig in overeenstemming moet zijn met het Handvest en dus de menselijke waardigheid, autonomie en zelfbeschikking van het individu moet eerbiedigen, schade moet voorkomen, eerlijkheid, inclusie en transparantie moet bevorderen, vooringenomenheid en discriminatie, ook ten opzichte van minderheidsgroepen, moet uitbannen en moet voldoen aan de beginselen van beperking van de negatieve externe effecten van de gebruikte technologie, van waarborging van de verklaarbaarheid van technologieën en van de garantie dat de technologieën er zijn om mensen te dienen en niet om hen te vervangen of voor hen te beslissen, en deze beginselen moet eerbiedigen, met als uiteindelijke doel het welzijn van ieder mens te vergroten; |
3. |
wijst op de asymmetrie tussen degenen die AI-technologieën gebruiken en degenen die ermee in contact staan en er afhankelijk van zijn; benadrukt in dit verband dat het vertrouwen van de burgers in AI alleen kan worden opgebouwd op basis van een regelgevingskader waarin ethische beginselen standaard worden toegepast en in het ontwerp zijn ingebed (“ethics-by-default and ethics-by-design”) en dat garandeert dat alle AI die in werking wordt gesteld volledig voldoet aan en in overeenstemming is met de Verdragen, het Handvest en het afgeleide recht van de Unie; is van mening dat het hanteren van een dergelijke aanpak als basis in overeenstemming moet zijn met het voorzorgsbeginsel dat ten grondslag ligt aan de wetgeving van de Unie en de kern moet vormen van elk regelgevingskader voor AI; vraagt in dit verband om een duidelijk en samenhangend governancemodel aan de hand waarvan bedrijven en innovatoren artificiële intelligentie, robotica en aanverwante technologieën verder kunnen ontwikkelen; |
4. |
is van mening dat wetgevende maatregelen met betrekking tot artificiële intelligentie, robotica en aanverwante technologieën, overeen dienen te stemmen met de beginselen van noodzakelijkheid en evenredigheid; |
5. |
is van oordeel dat een dergelijke benadering bedrijven in staat zal stellen om innovatieve producten op de markt te brengen en nieuwe kansen te scheppen, en tegelijkertijd de waarden van de Unie beschermt doordat zij leidt tot de ontwikkeling van AI-systemen waarin de ethische beginselen van de Unie in het ontwerp zijn ingebed; meent dat een dergelijk op waarden gebaseerd regelgevingskader een meerwaarde zou vormen doordat het de Unie een uniek concurrentievoordeel verschaft en een significante bijdrage levert aan het welzijn en de welvaart van de burgers en bedrijven in de Unie doordat het de interne markt versterkt; benadrukt dat een dergelijk regelgevingskader voor AI ook meerwaarde heeft wat betreft het bevorderen van innovatie op de interne markt; is van mening dat deze benadering bijvoorbeeld in de vervoerssector ondernemingen in de Unie de kans biedt om op dit gebied wereldleider te worden; |
6. |
merkt op dat het rechtskader van de Unie van toepassing moet zijn op artificiële intelligentie, robotica en aanverwante technologieën, waaronder software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd; |
7. |
merkt op dat de mogelijkheden die artificiële intelligentie, robotica en aanverwante technologieën bieden, afhankelijk zijn van big data en dat een kritieke massa aan gegevens vereist is om algoritmen te trainen en de resultaten te verfijnen; is in dit opzicht ingenomen met het voorstel van de Commissie voor de totstandbrenging van een gemeenschappelijke gegevensruimte in de Unie om de gegevensuitwisseling te verbeteren en onderzoek te ondersteunen, met volledige inachtneming van de Europese regelgeving inzake gegevensbescherming; |
8. |
is van mening dat het huidige rechtskader van de Unie, met name op het gebied van bescherming, privacy en persoonsgegevens, volledig van toepassing zal moeten zijn op AI, robotica en aanverwante technologieën en regelmatig zal moeten worden geëvalueerd en gecontroleerd en, waar nodig, zal moeten worden bijgewerkt om de risico’s van deze technologieën doeltreffend aan te pakken, en meent dat het in dit verband gebaat zou kunnen zijn bij een aanvulling met krachtige ethische grondbeginselen; wijst erop dat er, waar het voorbarig zou zijn rechtshandelingen vast te stellen, gebruik moet worden gemaakt van een kader van niet-bindende voorschriften; |
9. |
verwacht dat de Commissie in het wetgevingsvoorstel waar in de bijlage bij deze resolutie om wordt gevraagd als follow-up van het Witboek over artificiële intelligentie, een sterke ethische benadering integreert die ook veiligheid, aansprakelijkheid en grondrechten omvat en die de kansen van AI-technologieën zoveel mogelijk benut en de risico’s ervan zoveel mogelijk beperkt; verwacht dat het gevraagde wetgevingsvoorstel beleidsoplossingen zal omvatten voor de belangrijkste erkende risico’s van artificiële intelligentie, onder meer de ethische vergaring en het ethische gebruik van big data, de kwestie van algoritmische transparantie, en algoritmische vooringenomenheid; verzoekt de Commissie criteria en indicatoren te ontwikkelen met het oog op een keurmerk voor AI-technologie, teneinde de transparantie, verklaarbaarheid en verantwoordingsplicht te stimuleren en ontwikkelaars aan te zetten tot het nemen van aanvullende voorzorgsmaatregelen; beklemtoont dat er moet worden geïnvesteerd in de integratie van niet-technische disciplines in AI-studies en in onderzoek waarin de maatschappelijke context wordt meegenomen; |
10. |
is van mening dat artificiële intelligentie, robotica en aanverwante technologieën moeten worden afgestemd op de menselijke behoeften, in overeenstemming met het beginsel dat de ontwikkeling, de uitrol en het gebruik ervan altijd ten dienste moeten staan van de mens en nooit andersom, en gericht moeten zijn op het verbeteren van het welzijn en de individuele vrijheid, het handhaven van vrede, het voorkomen van conflicten en het versterken van de internationale veiligheid, waarbij tegelijkertijd de geboden voordelen moeten worden gemaximaliseerd en de risico’s ervan moeten worden voorkomen en verminderd; |
11. |
verklaart dat de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, onder meer maar niet uitsluitend door mensen, altijd gebaseerd moeten zijn op ethische beginselen en zodanig ontworpen moeten zijn dat menselijk ingrijpen en democratisch toezicht mogelijk zijn en dat mensen zo nodig de controle weer kunnen overnemen door de uitvoering van passende controlemaatregelen; |
Risicobeoordeling
12. |
dringt erop aan dat bij een toekomstige verordening een gedifferentieerde en toekomstgerichte aanpak van de regulering van artificiële intelligentie, robotica en aanverwante technologieën moet worden gehanteerd, met inbegrip van technologieneutrale normen voor alle sectoren met waar nodig sectorspecifieke normen; merkt op dat er een uitputtende en cumulatieve lijst van risicosectoren en toepassingen of doeleinden met een hoog risico nodig is om te zorgen voor een uniforme invoering van het risicobeoordelingssysteem en voor conformiteit met de desbetreffende wettelijke verplichtingen teneinde een gelijk speelveld tussen de lidstaten te waarborgen en versnippering van de interne markt te voorkomen; benadrukt dat een dergelijke lijst regelmatig opnieuw moet worden geëvalueerd en merkt op dat, gezien de evoluerende aard van deze technologieën, de manier waarop de risicobeoordeling ervan wordt uitgevoerd in de toekomst wellicht opnieuw moet worden beoordeeld; |
13. |
is van mening dat de vaststelling of artificiële intelligentie, robotica en aanverwante technologieën als risicovol moeten worden beschouwd en dus onderworpen moeten zijn aan de verplichte naleving van wettelijke voorschriften en ethische beginselen zoals vastgelegd in het regelgevingskader voor AI, altijd moet voortvloeien uit een onpartijdige, gereguleerde en externe ex-antebeoordeling op basis van concrete en welomschreven criteria; |
14. |
is in dit verband van mening dat artificiële intelligentie, robotica en aanverwante technologieën als risicovol moeten worden beschouwd wanneer de ontwikkeling, de uitrol en het gebruik ervan een aanzienlijk risico inhouden op het veroorzaken van letsel of schade voor personen of de samenleving, in strijd met de grondrechten en veiligheidsvoorschriften zoals vastgelegd in het recht van de Unie; is van mening dat bij de beoordeling of AI-technologieën een dergelijk risico inhouden, rekening moet worden gehouden met de sector waarin zij worden ontwikkeld, uitgerold of gebruikt, het specifieke gebruik of het specifieke doel ervan en de ernst van het letsel of de schade die naar verwachting optreedt; het eerste en het twee criterium, namelijk de sector en het specifieke gebruik of doel, moeten cumulatief worden overwogen; |
15. |
onderstreept dat de risicobeoordeling van deze technologieën moet plaatsvinden op basis van een volledige en cumulatieve lijst van sectoren met een hoog risico en toepassingen en doeleinden met een hoog risico; is er sterk van overtuigd dat er binnen de Unie samenhang moet zijn wat betreft de risicobeoordeling van deze technologieën, met name wanneer zij worden beoordeeld in het licht van hun conformiteit met het regelgevingskader voor AI en in overeenstemming met andere toepasselijke sectorspecifieke wetgeving; |
16. |
is van oordeel dat deze risicogebaseerde aanpak zo dient te worden ontwikkeld dat de administratieve last voor bedrijven, en met name kmo’s, zo veel mogelijk beperkt blijft door gebruikmaking van bestaande instrumenten; dergelijke instrumenten omvatten onder meer, maar niet uitsluitend de lijst in het kader van de gegevensbeschermingseffectbeoordeling overeenkomstig Verordening (EU) 2016/679; |
Veiligheidskenmerken, transparantie en verantwoordingsplicht
17. |
wijst erop dat het recht op voorlichting van consumenten als basisbeginsel in het recht van de Unie is verankerd en benadrukt dat dit recht om die reden volledig moet worden toegepast met betrekking tot artificiële intelligentie, robotica en aanverwante technologieën; is van mening dat het met name moet ingaan op transparantie met betrekking tot de interactie met AI-systemen, met inbegrip van automatiseringsprocessen, en op de werking en capaciteit ervan, bijvoorbeeld de vraag hoe informatie wordt gefilterd en gepresenteerd, de nauwkeurigheid en beperkingen ervan; is van mening dat dergelijke informatie moet worden verstrekt aan de nationale toezichthoudende autoriteiten en de nationale consumentenbeschermingsautoriteiten; |
18. |
benadrukt dat consumentenvertrouwen van essentieel belang is voor de ontwikkeling en invoering van deze technologieën, die inherente risico’s kunnen inhouden wanneer zij op ondoorzichtige algoritmen en vooringenomen gegevensreeksen zijn gebaseerd; is van mening dat consumenten het recht moeten hebben om op adequate, begrijpelijke, tijdige, gestandaardiseerde, nauwkeurige en toegankelijke wijze te worden geïnformeerd over het bestaan, de manier van redeneren, de mogelijke resultaten en de gevolgen voor consumenten van algoritmische systemen, over de manier waarop een mens met beslissingsbevoegdheid kan worden bereikt, en over de wijze waarop de beslissingen van het systeem kunnen worden gecontroleerd, op betekenisvolle wijze betwist en gecorrigeerd; benadrukt in dit verband dat de beginselen van informatie en openbaarmaking, waarop het acquis op het gebied van het consumentenrecht is gebaseerd, in overweging en in acht genomen moeten worden; acht het noodzakelijk eindgebruikers gedetailleerde informatie te verstrekken over de werking van vervoerssystemen en door AI ondersteunde voertuigen; |
19. |
merkt op dat het van essentieel belang is dat de algoritmen en gegevensreeksen die worden gebruikt of geproduceerd door artificiële intelligentie, robotica en aanverwante technologieën verklaarbaar zijn en, waar strikt noodzakelijk en met volledige inachtneming van de wetgeving van de Unie inzake gegevensbescherming, privacy en intellectuele-eigendomsrechten en bedrijfsgeheimen, toegankelijk zijn voor overheidsinstanties zoals nationale toezichthoudende autoriteiten en markttoezichtautoriteiten; merkt verder op dat, in overeenstemming met de hoogst mogelijke toepasselijke industrienormen, documentatie moet worden bewaard door degenen die betrokken zijn bij de verschillende stadia van de ontwikkeling van technologieën met een hoog risico; merkt op dat markttoezichtautoriteiten mogelijk beschikken over aanvullende prerogatieven in verband hiermee; beklemtoont in dit verband de rol van wettige reverse engineering; meent dat een onderzoek van de huidige wetgeving inzake markttoezicht nodig kan zijn om te waarborgen dat zij op ethische wijze inspeelt op de opkomst van artificiële intelligentie, robotica en aanverwante technologieën; |
20. |
dringt aan op de verplichting voor ontwikkelaars en exploitanten van technologieën met een hoog risico om, indien uit een risicobeoordeling blijkt dat hiervan sprake is, overheidsinstanties de relevante documentatie te verstrekken over het gebruik, het ontwerp en de veiligheidsinstructies, met inbegrip van, indien strikt noodzakelijk en met volledige inachtneming van de wetgeving van de Unie inzake gegevensbescherming, privacy, intellectuele-eigendomsrechten en bedrijfsgeheimen, broncode, ontwikkelingsinstrumenten en door het systeem gebruikte gegevens; merkt op dat een dergelijke verplichting het mogelijk zou maken te beoordelen of deze technologieën in overeenstemming zijn met het recht van de Unie en ethische beginselen, en wijst in dit verband op het voorbeeld van de wettelijke deponering van publicaties van een nationale bibliotheek; merkt op dat er sprake is van een belangrijk onderscheid tussen transparantie van algoritmen en transparantie in het gebruik van algoritmen; |
21. |
merkt voorts op dat, om de menselijke waardigheid, autonomie en veiligheid te eerbiedigen, voldoende aandacht moet worden besteed aan essentiële en geavanceerde medische apparatuur en aan de noodzaak dat onafhankelijke betrouwbare autoriteiten de middelen behouden die nodig zijn om diensten te verlenen aan personen die deze apparaten dragen, wanneer de oorspronkelijke ontwikkelaar of exploitant deze niet meer levert; deze diensten zouden bijvoorbeeld onderhoud, reparaties en verbeteringen omvatten, met inbegrip van software-updates waarmee storingen en kwetsbaarheden worden verholpen; |
22. |
is van mening dat artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, ongeacht op welk gebied ze worden ontwikkeld, uitgerold en gebruikt, op een inherent veilige, traceerbare, technisch solide, betrouwbare, ethische en wettelijk bindende manier moeten worden ontwikkeld en worden onderworpen aan onafhankelijke controle en onafhankelijk toezicht; is met name van oordeel dat alle actoren die bij de ontwikkeling en de toeleveringsketens van AI-producten en -diensten betrokken zijn, wettelijk aansprakelijk moeten zijn en wijst op de noodzaak van mechanismen om de aansprakelijkheid en verantwoordingsplicht te waarborgen; |
23. |
onderstreept dat regelgeving en richtsnoeren inzake verklaarbaarheid, controleerbaarheid, traceerbaarheid en transparantie, evenals, indien een risicobeoordeling dit vereist en dit strikt noodzakelijk is en met volledige inachtneming van het recht van de Unie zoals op het gebied van gegevensbescherming, privacy, intellectuele-eigendomsrechten en bedrijfsgeheimen, toegang van overheidsinstanties tot technologie, gegevens en computersystemen die aan dergelijke technologieën ten grondslag liggen, essentieel zijn om het vertrouwen van de burgers in deze technologieën te waarborgen, ook al houdt de mate van verklaarbaarheid verband met de complexiteit van de technologieën; wijst erop dat het niet altijd mogelijk is om uit te leggen waarom een model tot een bepaald resultaat of besluit heeft geleid, met “zwarte doos”-algoritmen als voorbeeld; is daarom van oordeel dat eerbiediging van deze beginselen een eerste voorwaarde is om de verantwoordingsplicht te waarborgen; |
24. |
is van oordeel dat burgers, met inbegrip van consumenten, wanneer zij te maken hebben met een systeem waarin artificiële intelligentie wordt gebruikt, met name om een product of dienst aan hun persoonlijke voorkeuren aan te passen, erop gewezen dienen te worden of en hoe zij deze personalisering kunnen uitschakelen of beperken; |
25. |
wijst er in dit verband op dat, om betrouwbaar te zijn, artificiële intelligentie, robotica en aanverwante technologieën technisch robuust en nauwkeurig moeten zijn; |
26. |
benadrukt dat de bescherming van netwerken van onderling verbonden AI en robotica belangrijk is en dat sterke maatregelen moeten worden genomen om inbreuken op de beveiliging, gegevenslekken, datavergiftiging, cyberaanvallen en misbruik van persoonsgegevens te verhinderen en dat dit vereist dat de relevante agentschappen, organen en instellingen op zowel Unie- als nationaal niveau samenwerken en ook samenwerken met de eindgebruikers van deze technologieën; roept de Commissie en de lidstaten op ervoor te zorgen dat de waarden van de Unie en de eerbiediging van de grondrechten te allen tijde in acht worden genomen bij de ontwikkeling en uitrol van AI-technologie, teneinde de veiligheid en veerkracht van de digitale infrastructuur van de Unie te waarborgen; |
Geen vooringenomenheid en discriminatie
27. |
herinnert eraan dat AI, afhankelijk van de wijze waarop deze wordt ontwikkeld en gebruikt, vooringenomenheid kan creëren en versterken, onder meer door inherente vooringenomenheid in de onderliggende gegevensreeksen, en dus verschillende vormen van geautomatiseerde discriminatie, waaronder indirecte discriminatie, kan creëren ten aanzien van met name groepen mensen met vergelijkbare kenmerken; verzoekt de Commissie en de lidstaten alle mogelijke maatregelen te nemen om dergelijke vooringenomenheid te voorkomen en de volledige bescherming van de grondrechten te waarborgen; |
28. |
is verontrust over de risico’s van vooringenomenheid en discriminatie bij de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd; herinnert eraan dat zij in alle omstandigheden de Uniewetgeving, de mensenrechten en de menselijke waardigheid, autonomie en zelfbeschikking van personen moeten eerbiedigen en gelijke behandeling en non-discriminatie voor iedereen moeten waarborgen; |
29. |
benadrukt dat AI-technologieën zodanig ontworpen moeten worden dat ze de ethische waarden van de Unie en de fysieke en mentale integriteit respecteren, dienen en beschermen, de culturele en taalkundige verscheidenheid van de Unie hooghouden en in essentiële behoeften helpen voorzien; onderstreept de noodzaak om gebruik te vermijden dat kan leiden tot onaanvaardbare directe of indirecte dwang, de psychologische zelfstandigheid en geestelijke gezondheid dreigt te ondermijnen of ongerechtvaardigde controle, misleiding of ontoelaatbare manipulatie kan veroorzaken; |
30. |
is er stellig van overtuigd dat de in het Handvest verankerde grondbeginselen inzake de rechten van de mens strikt in acht moeten worden genomen, zodat deze opkomende technologieën geen lacunes op het gebied van bescherming veroorzaken; |
31. |
bevestigt dat de mogelijke vooringenomenheid van en discriminatie door software, algoritmen en gegevens personen en de samenleving wel degelijk schade kunnen berokkenen en dat deze daarom moeten worden aangepakt door aan te moedigen dat er strategieën worden ontwikkeld en gedeeld om deze tegen te gaan, zoals het corrigeren van subjectieve gegevensreeksen bij onderzoek en ontwikkeling, en het ontwikkelen van regels voor gegevensverwerking; is van oordeel dat software, algoritmen en gegevens door een dergelijke aanpak in bepaalde situaties kunnen worden ingezet als troef in de strijd tegen vooringenomenheid en discriminatie en kunnen fungeren als een aandrijver voor gelijke rechten en positieve maatschappelijke verandering; |
32. |
is van oordeel dat de ethische waarden van billijkheid, juistheid, vertrouwelijkheid en transparantie de grondslag moeten vormen voor deze technologieën, wat in deze context inhoudt dat hun activiteiten zodanig moeten zijn dat ze geen vertekende outputs genereren; |
33. |
onderstreept het belang van de kwaliteit van gegevensreeksen die worden gebruikt voor artificiële intelligentie, robotica en aanverwante technologieën, afhankelijk van hun context, met name wat betreft de representativiteit van de trainingsgegevens, het corrigeren van subjectieve gegevensreeksen, de gebruikte algoritmen en de normen voor gegevens en aggregatie; benadrukt dat de nationale toezichthoudende autoriteiten die gegevensreeksen moeten kunnen controleren indien hun gevraagd wordt ervoor te zorgen dat ze in overeenstemming zijn met de eerder uiteengezette beginselen; |
34. |
beklemtoont dat, in de context van de wijdverspreide desinformatieoorlog, die voornamelijk door niet-Europese actoren wordt gevoerd, AI-technologieën ethisch gezien schadelijke effecten kunnen hebben door in gegevens en algoritmen vervatte vooringenomenheid te exploiteren of doordat een derde land trainingsgegevens opzettelijk wijzigt, en dat ze ook op onvoorspelbare wijze en niet te becijferen gevolgen vatbaar kunnen zijn voor andere vormen van gevaarlijke, kwaadaardige manipulatie; wijst er daarom op dat de Unie nog meer moet blijven investeren in onderzoek, analyse, innovatie en grens- en sectoroverschrijdende kennisoverdracht om AI-technologieën te ontwikkelen die absoluut niet gebaseerd mogen zijn op enige vorm van profilering, vooringenomenheid en discriminatie, die doeltreffend kunnen bijdragen aan de bestrijding van nepnieuws en desinformatie en die tegelijkertijd de gegevensbescherming en het rechtskader van de Unie eerbiedigen; |
35. |
herinnert eraan dat het belangrijk is te voorzien in doeltreffende rechtsmiddelen voor personen, en verzoekt de lidstaten te zorgen voor toegankelijke, betaalbare, onafhankelijke en doeltreffende procedures en evaluatiemechanismen om een onpartijdige menselijke beoordeling te garanderen van alle claims wegens schending van burgerrechten, zoals consumenten- of civiele rechten, door het gebruik van algoritmische systemen, zowel in de overheids- als in de particuliere sector; onderstreept het belang van de ontwerprichtlijn van het Europees Parlement en de Raad betreffende representatieve vorderingen ter bescherming van de collectieve belangen van consumenten en tot intrekking van Richtlijn 2009/22/EG, waarover op 22 juni 2020 een politiek akkoord werd bereikt met betrekking tot toekomstige gevallen waarin de invoering of het verdere gebruik wordt betwist van een AI-systeem dat consumentenrechten riskeert te schenden, of waarin rechtsmiddelen worden ingesteld in verband met schending van rechten; verzoekt de Commissie en de lidstaten ervoor te zorgen dat nationale consumentenorganisaties en consumentenorganisaties van de Unie over voldoende financiële middelen beschikken om consumenten te helpen bij de uitoefening van hun recht op een voorziening in rechte in gevallen waarin hun rechten geschonden zijn; |
36. |
is daarom van oordeel dat natuurlijke of rechtspersonen beroep moeten kunnen aantekenen tegen een beslissing die door artificiële intelligentie, robotica of aanverwante technologieën in hun nadeel en in strijd met nationaal of Unierecht is genomen; |
37. |
is van mening dat de nationale toezichthoudende autoriteiten, als eerste aanspreekpunt in gevallen van vermoedelijke inbreuken op het regelgevingskader van de Unie in dit verband, ook door consumenten kunnen worden benaderd met verzoeken om verhaal om de effectieve handhaving van bovengenoemd kader te waarborgen; |
Maatschappelijke verantwoordelijkheid en genderevenwicht
38. |
benadrukt dat maatschappelijk verantwoorde artificiële intelligentie, robotica en aanverwante technologieën een rol moeten spelen bij het vinden van oplossingen die de grondrechten en waarden van onze maatschappij beschermen en bevorderen, zoals democratie, de rechtsstaat, gevarieerde en onafhankelijke media en objectieve en vrij beschikbare informatie, gezondheid en economische welvaart, gelijke kansen, arbeids- en sociale rechten, hoogwaardig onderwijs, bescherming van kinderen, culturele en taalkundige verscheidenheid, gendergelijkheid, digitale geletterdheid, innovatie en creativiteit; wijst nogmaals op de noodzaak om voldoende rekening te houden met de belangen van alle burgers, met inbegrip van degenen die zich in de marge van de samenleving of een kwetsbare situatie bevinden, zoals personen met een handicap, en dat deze belangen naar behoren worden behartigd; |
39. |
benadrukt dat het belangrijk is een hoog niveau van algemene digitale geletterdheid te bereiken en hooggekwalificeerde vakmensen op dit gebied op te leiden, alsook de wederzijdse erkenning van deze kwalificaties in de hele Unie te waarborgen; beklemtoont dat verschillende teams van ontwikkelaars en ingenieurs moeten samenwerken met de belangrijkste actoren in de samenleving om te voorkomen dat gender- en culturele vooroordelen onbedoeld doordringen tot AI-algoritmen, -systemen en -toepassingen; pleit voor het opzetten van onderwijsprogramma’s en activiteiten op het gebied van publieksvoorlichting betreffende de maatschappelijke, juridische en ethische gevolgen van artificiële intelligentie; |
40. |
benadrukt dat het van essentieel belang is de vrijheid van denken en meningsuiting te waarborgen en er aldus voor te zorgen dat deze technologieën geen haatzaaiende uitlatingen of geweld bevorderen, en is van oordeel dat het belemmeren of beperken van de vrijheid van meningsuiting die digitaal wordt uitgeoefend, volgens de grondbeginselen van de Unie onwettig is, tenzij de uitoefening van dit grondrecht onwettige handelingen met zich meebrengt; |
41. |
benadrukt dat artificiële intelligentie, robotica en aanverwante technologieën kunnen bijdragen tot het verminderen van sociale ongelijkheden en stelt dat het Europese model voor de ontwikkeling ervan gebaseerd moet zijn op het vertrouwen van de burgers en een grotere sociale cohesie; |
42. |
beklemtoont dat de uitrol van een systeem voor artificiële intelligentie de toegang van gebruikers tot openbare diensten, zoals sociale zekerheid, niet onnodig mag beperken; verzoekt de Commissie daarom na te gaan hoe deze doelstelling kan worden bereikt; |
43. |
benadrukt het belang van verantwoordelijk onderzoek en verantwoordelijke ontwikkeling om het volledige potentieel van artificiële intelligentie, robotica en aanverwante technologieën voor de burgers en het openbaar belang te verwezenlijken; pleit ervoor dat de Unie en haar lidstaten middelen beschikbaar stellen om verantwoordelijke innovatie te ontwikkelen en te ondersteunen; |
44. |
benadrukt dat technologische vaardigheden steeds belangrijker zullen worden en dat het daarom noodzakelijk zal zijn om het opleidingsaanbod voortdurend te moderniseren, met name voor toekomstige generaties, en om omscholing van degenen die al op de arbeidsmarkt actief zijn te bevorderen; is in dit verband van oordeel dat innovatie en opleiding niet alleen in de particuliere sector, maar ook in de overheidssector moeten worden gestimuleerd; |
45. |
stelt met klem dat de ontwikkeling, de uitrol en het gebruik van deze technologieën geen letsel of schade van welke aard ook mogen toebrengen aan personen, de samenleving of het milieu, en dat de ontwikkelaars, exploitanten en gebruikers van deze technologieën dus verantwoordelijk moeten worden gesteld voor dergelijk letsel of dergelijke schade overeenkomstig de desbetreffende aansprakelijkheidsregels van de Unie en de lidstaten; |
46. |
verzoekt de lidstaten na te gaan of het banenverlies als gevolg van de toepassing van deze technologieën moet leiden tot passend overheidsbeleid, zoals arbeidstijdverkorting; |
47. |
blijft van oordeel dat een ontwerpbenadering op basis van de waarden en ethische beginselen van de Unie dringend noodzakelijk is om de voorwaarden te scheppen voor een brede maatschappelijke acceptatie van artificiële intelligentie, robotica en aanverwante technologieën; is van mening dat deze benadering, die gericht is op de ontwikkeling van betrouwbare, ethisch verantwoorde en technisch robuuste artificiële intelligentie, een belangrijke factor is voor duurzame en slimme mobiliteit die veilig en toegankelijk is; |
48. |
wijst op de grote meerwaarde van autonome voertuigen voor personen met beperkte mobiliteit, aangezien deze personen met dergelijke voertuigen effectiever kunnen deelnemen aan het individuele wegverkeer, waardoor hun dagelijks leven eenvoudiger wordt; benadrukt het belang van toegankelijkheid, met name bij het ontwerpen van MaaS-systemen (mobiliteit als een dienst); |
49. |
verzoekt de Commissie de ontwikkeling van betrouwbare AI-systemen verder te ondersteunen om het vervoer veiliger, efficiënter, toegankelijker, betaalbaarder en inclusiever te maken, ook voor personen met beperkte mobiliteit, in het bijzonder personen met een handicap, daarbij rekening houdend met Richtlijn (EU) 2019/882 van het Europees Parlement en de Raad (13) en de Europese wetgeving inzake passagiersrechten; |
50. |
is van mening dat AI kan bijdragen tot een beter gebruik van de vaardigheden en competenties van mensen met een handicap en dat de toepassing van AI op de werkplek kan bijdragen tot een inclusieve arbeidsmarkt en een hogere arbeidsparticipatie van mensen met een handicap; |
Milieu en duurzaamheid
51. |
stelt dat regeringen en bedrijven artificiële intelligentie, robotica en aanverwante technologieën zodanig moeten gebruiken dat zij mensen en de planeet ten goede komen, bijdragen tot de verwezenlijking van duurzame ontwikkeling, het behoud van het milieu, klimaatneutraliteit en de doelstellingen van de circulaire economie; en dat de ontwikkeling, de uitrol en het gebruik van deze technologieën moeten bijdragen tot de groene transitie, het milieu ontzien en eventuele milieuschade zoveel mogelijk beperken en herstellen, zowel tijdens de levenscyclus als in de hele toeleveringsketen, overeenkomstig het recht van de Unie; |
52. |
gezien de aanzienlijke milieueffecten van de ontwikkeling, uitrol en gebruik van artificiële intelligentie, robotica en aanverwante technologieën in het licht van de vorige alinea, kunnen deze effecten, waar relevant en passend, gedurende de gehele levensduur door sectorspecifieke autoriteiten worden geëvalueerd; een dergelijke evaluatie zou een raming kunnen omvatten van het effect van de winning van de benodigde materialen, het energieverbruik en de broeikasgasemissies als gevolg van de ontwikkeling, de uitrol en het gebruik ervan; |
53. |
stelt voor, met het oog op de ontwikkeling van verantwoorde geavanceerde AI-oplossingen, het potentieel van artificiële intelligentie, robotica en aanverwante technologieën te analyseren, te stimuleren en te maximaliseren door middel van verantwoorde activiteiten op het gebied van onderzoek en ontwikkeling, waarvoor de Unie en haar lidstaten middelen beschikbaar moeten stellen; |
54. |
benadrukt het feit dat de ontwikkeling, de uitrol en het gebruik van deze technologieën kansen bieden voor de bevordering van de duurzameontwikkelingsdoelstellingen van de Verenigde Naties, de wereldwijde energietransitie en decarbonisatie; |
55. |
is van oordeel dat de doelstellingen inzake maatschappelijk verantwoord ondernemen, gendergelijkheid, milieubescherming en duurzaamheid niet mogen afdoen aan bestaande algemene en sectorale verplichtingen op deze gebieden; is van mening dat niet-bindende uitvoeringsrichtsnoeren moeten worden vastgesteld voor ontwikkelaars, exploitanten en gebruikers, met name van technologieën met een hoog risico, inzake de methodologie voor de beoordeling van de naleving van deze verordening en de verwezenlijking van die doelstellingen; |
56. |
verzoekt de Unie de ontwikkeling te bevorderen en te financieren van mensgerichte artificiële intelligentie, robotica en aanverwante technologieën waarmee milieu- en klimaatuitdagingen worden aangepakt en die de eerbiediging van de grondrechten waarborgen, door het gebruik van belastingen, overheidsopdrachten of andere stimulansen; |
57. |
benadrukt dat, ondanks de huidige grote koolstofvoetafdruk van de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van geautomatiseerde besluitvorming en machinaal leren, deze technologieën kunnen bijdragen tot het verkleinen van de huidige ecologische voetafdruk van de ICT-sector; benadrukt dat deze en andere goed gereguleerde aanverwante technologieën doorslaggevend zouden moeten zijn voor de verwezenlijking in veel verschillende sectoren van de doelstellingen van de Green Deal, de duurzameontwikkelingsdoelstellingen van de VN en de Overeenkomst van Parijs, en het effect van beleid ter bescherming van het milieu, bijvoorbeeld het beleid inzake afvalvermindering en de aantasting van het milieu, zouden moeten vergroten; |
58. |
verzoekt de Commissie een studie uit te voeren naar de koolstofvoetafdruk van AI-technologie en naar de positieve en negatieve effecten van de overgang naar gebruik van AI-technologie door consumenten; |
59. |
merkt op dat, gezien de toenemende ontwikkeling van AI-toepassingen, die rekenkracht, opslagruimte en energie vergen, de milieueffecten van AI-systemen gedurende de hele levenscyclus moeten worden beoordeeld; |
60. |
is van mening dat op gebieden als gezondheid de aansprakelijkheid in laatste instantie bij een natuurlijke of rechtspersoon moet blijven liggen; benadrukt de noodzaak van traceerbaarheid en publiekelijk beschikbare trainingsgegevens voor algoritmen; |
61. |
is groot voorstander van de totstandbrenging van een Europese ruimte voor gezondheidsgegevens, zoals voorgesteld door de Commissie in haar mededeling inzake een Europese datastrategie, ter bevordering van de uitwisseling van gezondheidsgegevens en ter ondersteuning van onderzoek, met volledige eerbiediging van gegevensbescherming en met inbegrip van gegevensverwerking met behulp van AI-technologie, waardoor het gebruik en hergebruik van gezondheidsgegevens kan worden versterkt en uitgebreid; spoort aan tot opschaling van de grensoverschrijdende uitwisseling van gezondheidsgegevens, de koppeling en het gebruik van dergelijke gegevens via beveiligde gefedereerde databanken en specifieke gezondheidsinformatie, zoals Europese elektronische medische dossiers (EMD’s), genoominformatie en digitale medische beelden om de opzet van Uniebrede interoperabele registers of databanken op gebieden als onderzoek, wetenschap en gezondheidszorg te vergemakkelijken; |
62. |
benadrukt de voordelen van AI voor de preventie, behandeling en bestrijding van ziekten, zoals is gebleken uit het feit dat AI de COVID-19-epidemie eerder heeft voorspeld dan de Wereldgezondheidsorganisatie; dringt er bij de Commissie op aan voor het ECDC te voorzien in het adequate regelgevingskader en passende middelen voor het onafhankelijk verzamelen van de noodzakelijke geanonimiseerde realtime wereldwijde gezondheidsgegevens, in samenwerking met de lidstaten, om onder meer problemen aan te pakken die door de COVID-19-pandemie aan het licht zijn gekomen; |
Privacy en biometrische herkenning
63. |
merkt op dat door de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën steeds meer gegevens, waaronder persoonsgegevens zoals biometrische gegevens, worden gegenereerd en gebruikt en dat het daarom noodzakelijk is de rechten van burgers op privacy en de bescherming van persoonsgegevens overeenkomstig de Uniewetgeving te eerbiedigen en te handhaven; |
64. |
wijst erop dat de mogelijkheden die deze technologieën bieden om persoonsgegevens en niet-persoonsgegevens te gebruiken om mensen in categorieën in te delen en op microniveau te benaderen, de kwetsbaarheden van personen vast te stellen of nauwkeurige voorspellende kennis te benutten, moeten worden gecompenseerd door de daadwerkelijke handhaving van gegevensbeschermings- en privacybeginselen, zoals gegevensminimalisatie, het recht om bezwaar te maken tegen profilering en het recht op zeggenschap over het gebruik van de eigen gegevens, het recht om uitleg te krijgen over een beslissing die is gebaseerd op geautomatiseerde besluitvorming en privacy door ontwerp, en van de beginselen van evenredigheid, noodzaak en strikte doelbinding in overeenstemming met de AVG; |
65. |
benadrukt dat wanneer overheidsinstanties voor belangrijke doeleinden van algemeen belang gebruikmaken van technologieën voor herkenning op afstand, zoals de herkenning van biometrische kenmerken, met name gezichtsherkenning, dit gebruik altijd openbaar, evenredig, gericht, beperkt tot specifieke doelstellingen en van beperkte duur moet zijn in overeenstemming met de Uniewetgeving en met inachtneming van de menselijke waardigheid en autonomie evenals de grondrechten zoals vastgesteld in het Handvest; benadrukt ook dat de criteria en limieten van dergelijke systemen onderworpen moeten worden aan een toetsing door de rechter en democratisch toezicht en rekening moeten houden met het psychologische en sociaal-culturele effect ervan op het maatschappelijk middenveld; |
66. |
wijst erop dat de uitrol van artificiële intelligentie, robotica en aanverwante technologieën in het kader van overheidsbeslissingen voordelen biedt, maar ook kan leiden tot ernstig misbruik, zoals grootschalig toezicht, voorspellend politiewerk en schendingen van het recht op een eerlijke procesgang; |
67. |
is van oordeel dat technologieën die geautomatiseerde beslissingen kunnen genereren en zo besluiten van overheidsinstanties kunnen vervangen, met uiterste omzichtigheid tegemoet dienen te worden getreden, met name op het gebied van justitie en rechtshandhaving; |
68. |
is van mening dat de lidstaten alleen een beroep op deze technologieën mogen doen indien hun betrouwbaarheid terdege is bewezen en indien een betekenisvolle menselijke interventie en beoordeling mogelijk is of stelselmatig wordt uitgevoerd in gevallen waarin de fundamentele vrijheden op het spel staan; onderstreept dat het van groot belang is dat de nationale autoriteiten een grondige effectbeoordeling inzake de grondrechten uitvoeren voor AI-systemen die in deze gevallen worden gebruikt, met name wanneer die technologieën als risicovol zijn beoordeeld; |
69. |
is van mening dat alle besluiten die in het kader van publiekrechtelijke prerogatieven door artificiële intelligentie, robotica en aanverwante technologieën worden genomen onderworpen moeten worden aan betekenisvolle menselijke interventie en een behoorlijke rechtsgang, met name wanneer die technologieën als risicovol zijn beoordeeld; |
70. |
is van mening dat de technologische vooruitgang niet mag leiden tot het gebruik van artificiële intelligentie, robotica en aanverwante technologieën om autonoom overheidsbesluiten te nemen die een rechtstreekse en aanzienlijke impact hebben op de rechten en plichten van de burgers; |
71. |
merkt op dat AI, robotica en aanverwante technologieën op het gebied van rechtshandhaving en grenscontrole de openbare orde en veiligheid kunnen verbeteren, maar ook uitgebreide en strenge overheidstoetsing vereisen evenals een zo groot mogelijke transparantie, zowel wat betreft de risicobeoordeling van individuele toepassingen als een algemeen overzicht van het gebruik van AI, robotica en aanverwante technologieën op het gebied van wetshandhaving en grenscontrole; is van mening dat dergelijke technologieën aanzienlijke ethische risico’s met zich meebrengen die adequaat moeten worden aangepakt, gelet op de mogelijke negatieve gevolgen voor personen, met name voor hun recht op privacy, gegevensbescherming en non-discriminatie; benadrukt dat het misbruik van deze technologieën een directe bedreiging voor de democratie kan worden en dat bij de uitrol en het gebruik ervan de beginselen van evenredigheid en noodzakelijkheid moeten worden nageleefd, evenals het Handvest van de grondrechten en het relevante afgeleide Unierecht zoals de voorschriften inzake gegevensbescherming; benadrukt dat AI nooit in de plaats mag komen van de mens bij het uitvaardigen van vonnissen; is van oordeel dat voor beslissingen die gehoord worden door de rechter, zoals vrijlating op borgtocht of met een proeftijd, of voor uitsluitend op geautomatiseerde verwerking gebaseerde beslissingen die rechtsgevolgen hebben voor personen of die hen in aanzienlijke mate treffen, altijd een betekenisvolle toetsing en menselijke beoordeling vereist is; |
Goede governance
72. |
benadrukt dat het in goede banen leiden van de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met name technologieën met een hoog risico, met behulp van maatregelen die zijn gericht op verantwoordingsplicht en het beheersen van potentiële risico’s met betrekking tot vooringenomenheid en discriminatie, de veiligheid van burgers en hun vertrouwen in deze technologieën ten goede kan komen; |
73. |
is van oordeel dat een gemeenschappelijk kader voor de governance van deze technologieën dat wordt gecoördineerd door de Commissie en/of relevante instellingen, organen en instanties van de Unie waaraan deze taak in dit verband kan worden toegewezen en dat door nationale toezichthoudende autoriteiten in elke lidstaat moet worden ingevoerd, een samenhangende Unie-aanpak zou waarborgen en versnippering van de eengemaakte markt zou voorkomen; |
74. |
merkt op dat grote hoeveelheden gegevens worden gebruikt voor de ontwikkeling van artificiële intelligentie, robotica en aanverwante technologieën, en dat het verwerken, delen en gebruiken van en de toegang tot dergelijke gegevens moeten worden beheerd overeenkomstig het recht en op basis van de hierin vervatte vereisten van kwaliteit, integriteit, transparantie, veiligheid, privacy en controle; |
75. |
herinnert eraan dat de toegang tot gegevens van essentieel belang is voor de groei van de digitale economie; wijst er in dit verband op dat de interoperabiliteit van gegevens, door beperking van “lock-in-effecten”, een essentiële rol speelt bij de verwezenlijking van eerlijke marktvoorwaarden en de bevordering van een gelijk speelveld in de digitale eengemaakte markt; |
76. |
onderstreept dat moet worden gegarandeerd dat persoonsgegevens, in het bijzonder gegevens over of afkomstig van kwetsbare groepen, zoals personen met een handicap, patiënten, kinderen, ouderen, minderheden, migranten en andere groepen die risico lopen om buitengesloten te worden, afdoende worden beschermd; |
77. |
merkt op dat de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën door overheidsinstanties vaak worden uitbesteed aan particuliere bedrijven; is van oordeel dat dit op geen enkele wijze ten koste mag gaan van de bescherming van collectieve waarden en grondrechten; is van oordeel dat in de algemene voorwaarden voor overheidsopdrachten, indien van toepassing, de ethische normen waaraan overheidsinstanties moeten voldoen tot uiting moeten komen; |
Consumenten en de interne markt
78. |
benadrukt het belang van een regelgevingskader voor AI dat van toepassing is wanneer consumenten in de Unie gebruiker zijn van, onderworpen zijn aan, beoogd worden door of geleid worden naar een algoritmisch systeem, ongeacht de plaats van vestiging van de entiteiten die het systeem ontwikkelen, verkopen of gebruiken; is verder van mening dat de in een dergelijk kader vastgestelde regels met het oog op de rechtszekerheid van toepassing moeten zijn op alle ontwikkelaars en op de gehele waardeketen, namelijk de ontwikkeling, de uitrol en het gebruik van de desbetreffende technologieën en hun componenten, en dat zij een hoog niveau van consumentenbescherming moeten garanderen; |
79. |
merkt het inherente verband op tussen artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd enerzijds, en gebieden als het internet der dingen, machinaal leren, regelgebaseerde systemen en geautomatiseerde en ondersteunde besluitvormingsprocessen anderzijds; merkt verder op dat gestandaardiseerde verwijzingssystemen kunnen worden ontwikkeld om deze systemen te helpen uitleggen aan consumenten wanneer deze complex zijn of besluiten kunnen nemen die van grote invloed zijn op het leven van consumenten; |
80. |
herinnert eraan dat de Commissie het bestaande rechtskader en de toepassing ervan moet onderzoeken, met inbegrip van het acquis inzake consumentenwetgeving en de wetgeving inzake productaansprakelijkheid, productveiligheid en markttoezicht, om wettelijke lacunes en bestaande regelgevingsverplichtingen vast te stellen; acht dit noodzakelijk om te bepalen of het kader de nieuwe uitdagingen kan aangaan die zijn ontstaan door de opkomst van artificiële intelligentie, robotica en aanverwante technologieën, en of het een hoog niveau van consumentenbescherming kan waarborgen; |
81. |
wijst op de noodzaak de door artificiële intelligentie, robotica en aanverwante technologieën gecreëerde uitdagingen doeltreffend aan te pakken en ervoor te zorgen dat consumenten over rechten beschikken en naar behoren worden beschermd; onderstreept dat er verder moet worden gekeken dan de traditionele beginselen van informatie en openbaarmaking op grond waarvan het acquis op het gebied van het consumentenrecht tot stand is gekomen, aangezien sterkere consumentenrechten en duidelijke beperkingen ten aanzien van de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën nodig zullen zijn om ervoor te zorgen dat dit soort technologieën bijdragen tot het verbeteren van het leven van de consument en zich ontwikkelen met eerbiediging van de grond- en consumentenrechten en waarden van de Unie; |
82. |
wijst erop dat het bij Besluit nr. 768/2008/EG (14) ingevoerde wetgevingskader een geharmoniseerde lijst van verplichtingen voor producenten, invoerders en distributeurs bevat, het gebruik van normen aanmoedigt en in verschillende controleniveaus naargelang van de gevaarlijkheid van het product voorziet; is van mening dat dit kader ook van toepassing moet zijn op met AI uitgeruste producten; |
83. |
merkt op dat, met het oog op de analyse van de gevolgen van artificiële intelligentie, robotica en aanverwante technologieën voor consumenten, de toegang tot gegevens kan worden uitgebreid tot de nationale bevoegde autoriteiten, mits het Unierecht, zoals het recht inzake gegevensbescherming, privacy en bedrijfsgeheimen, volledig wordt nageleefd; herinnert aan het belang van voorlichting van consumenten zodat zij beter geïnformeerd en vaardiger zijn bij de omgang met artificiële intelligentie, robotica en aanverwante technologieën, om hen zo te beschermen tegen potentiële risico’s en hun rechten te verdedigen; |
84. |
verzoekt de Commissie maatregelen voor de traceerbaarheid van gegevens voor te stellen, rekening houdend met zowel de wettigheid van gegevensvergaring als de bescherming van consumenten- en grondrechten, met volledige inachtneming van het recht van de Unie, zoals dat betreffende gegevensbescherming, privacy, intellectuele-eigendomsrechten en bedrijfsgeheimen; |
85. |
merkt op dat deze technologieën op de gebruiker gericht moeten zijn en zodanig moeten zijn ontworpen dat iedereen gebruik kan maken van AI-producten of -diensten, ongeacht leeftijd, geslacht, vaardigheden of eigenschappen; merkt op dat de toegang ertoe voor personen met een handicap van bijzonder belang is; wijst erop dat er geen standaardbenadering mag worden gevolgd en dat moet worden overwogen om beginselen inzake universeel ontwerp toe te passen waarmee een zo groot mogelijke groep gebruikers wordt bereikt op basis van relevante toegankelijkheidsnormen; benadrukt dat dit mensen in staat zal stellen om op billijke wijze toegang te krijgen tot en actief deel te nemen aan bestaande en opkomende computerondersteunde menselijke activiteiten en hulptechnologieën. |
86. |
benadrukt dat wanneer overheidsgeld in ruime mate wordt gebruikt voor de ontwikkeling, de uitrol of het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, naast open aanbestedingsnormen moet worden nagedacht over de mogelijkheid om de code, de gegenereerde gegevens — voor zover deze geen persoonsgegevens zijn — en het getrainde model met de goedkeuring van de ontwikkelaar standaard openbaar te maken om de transparantie te waarborgen, de cyberbeveiliging te verbeteren en hergebruik mogelijk te maken om innovatie te bevorderen; benadrukt dat op deze manier het volledige potentieel van de interne markt kan worden benut terwijl versnippering van de markt wordt voorkomen; |
87. |
is van mening dat AI, robotica en aanverwante technologieën een enorm potentieel hebben om te voorzien in mogelijkheden voor consumenten om toegang te hebben tot diverse voorzieningen in tal van aspecten van hun leven naast betere producten en diensten, alsook te profiteren van beter markttoezicht, zolang alle toepasselijke beginselen, voorwaarden, waaronder transparantie en controleerbaarheid, en regelgeving van toepassing blijven; |
Veiligheid en defensie
88. |
benadrukt dat het veiligheids- en defensiebeleid van de Europese Unie en haar lidstaten gebaseerd is op de beginselen die zijn verankerd in het Handvest en in de beginselen van het Handvest van de Verenigde Naties, en op een gemeenschappelijk begrip van de universele waarden van eerbiediging van de onschendbare en onvervreemdbare rechten van de mens, menselijke waardigheid, vrijheid, democratie, gelijkheid en de rechtsstaat; benadrukt dat alle defensiegerelateerde inspanningen binnen het kader van de Unie deze universele waarden in acht moeten nemen en tegelijkertijd vrede, veiligheid en vooruitgang in Europa en in de wereld moeten bevorderen; |
89. |
is ingenomen met de bekrachtiging van elf leidende beginselen voor de ontwikkeling en het gebruik van autonome wapensystemen door de Hoge Verdragsluitende Partijen bij het Verdrag van de Verenigde Naties inzake het verbod of de beperking van het gebruik van bepaalde conventionele wapens (Conventionelewapensverdrag, CWV) tijdens hun vergadering in 2019; betreurt evenwel dat ze geen overeenstemming konden bereiken over een juridisch bindend instrument voor de regulering van dodelijke autonome wapensystemen (LAWS), met een doeltreffend handhavingsmechanisme; is ingenomen met de het verslag getiteld “Ethische richtsnoeren voor betrouwbare artificiële intelligentie” van de deskundigengroep op hoog niveau inzake artificiële intelligentie van de Commissie, die op 9 april 2019 werden gepubliceerd, en met het standpunt van deze deskundigengroep inzake dodelijke autonome wapensystemen, en verleent er zijn steun aan; dringt er bij de lidstaten op aan nationale strategieën te ontwikkelen voor de definitie en de status van dodelijke autonome wapens met het oog op een omvattende strategie op Unieniveau, en samen met de vicevoorzitter van de Commissie/hoge vertegenwoordiger van de Unie voor buitenlandse zaken en veiligheidsbeleid (VV/HV) en de Raad het voortouw te nemen bij de bespreking van LAWS in het kader van het CWV van de VN en andere relevante fora en bij de vaststelling van internationale normen betreffende de ethische en wettelijke parameters voor de ontwikkeling en het gebruik van volledig autonome, semiautonome en op afstand bestuurde dodelijke wapensystemen; herinnert in dit verband aan zijn resolutie van 12 september 2018 over autonome wapensystemen, en vraagt nogmaals dringend een gemeenschappelijk standpunt over dodelijke autonome wapensystemen op te stellen en goed te keuren; pleit eens te meer voor een internationaal verbod op de ontwikkeling, de productie en het gebruik van dodelijke autonome wapensystemen waarmee aanvallen kunnen worden uitgevoerd zonder betekenisvolle menselijke controle en zonder eerbiediging van het “human-in-the-loop”-beginsel, in overeenstemming met de verklaring van ’s werelds prominentste AI-onderzoekers in hun open brief van 2015; is ingenomen met de overeenkomst van de Raad en het Parlement om dodelijke automatische wapens waarmee aanvallen kunnen worden uitgevoerd zonder betekenisvolle menselijke controle op het kiezen van doelwitten en het inzetten van een aanval, uit te sluiten van maatregelen die uit het Europees Defensiefonds worden gefinancierd; is van mening dat de ethische aspecten van andere AI-toepassingen in de defensiesector, zoals inlichtingendiensten, surveillance en verkennings- of cyberoperaties niet over het hoofd mogen worden gezien en dat bijzondere aandacht moet worden besteed aan de ontwikkeling en inzet van drones tijdens militaire operaties; |
90. |
benadrukt dat opkomende technologieën in de defensie- en veiligheidssector die niet binnen het internationale recht gereguleerd zijn, getoetst moeten worden, rekening houdend met het beginsel van eerbiediging van de menselijkheid en algemeen geldende ethische normen; |
91. |
wijst erop dat een Europees kader voor het gebruik van systemen op basis van AI in de defensiesector, zowel in gevechtssituaties als daarbuiten, alle toepasselijke wettelijke regelingen in acht moet nemen, met name het internationale humanitaire recht en het internationale recht inzake de mensenrechten, en in overeenstemming moet zijn met het recht, de beginselen en de waarden van de Unie, waarbij rekening wordt gehouden met de verschillen in technische en veiligheidsinfrastructuur in de hele Unie; |
92. |
erkent dat cruciale AI-innovaties, in tegenstelling tot de industriële en technologische defensiebasis, afkomstig zouden kunnen zijn uit kleine lidstaten, en dat een door het GVDB gestandaardiseerde aanpak ervoor moet zorgen dat kleinere lidstaten en kmo’s niet worden verdrongen; beklemtoont dat een reeks gemeenschappelijke AI-capaciteiten van de EU die zijn afgestemd op de operationele concepten van de lidstaten, de technische kloven kunnen overbruggen die anders zouden kunnen leiden tot de uitsluiting van lidstaten die niet beschikken over de desbetreffende technologie, industriële deskundigheid of het vermogen om AI-systemen toe te passen in hun Ministerie van Defensie; |
93. |
is van mening dat de huidige en toekomstige veiligheids- en defensiegerelateerde activiteiten binnen het kader van de Unie gebruik zullen maken van AI, robotica, autonomie en aanverwante technologieën, en dat betrouwbare, robuuste en beproefde AI kan bijdragen tot moderne en doeltreffende strijdkrachten; vindt dan ook dat de Unie het voortouw moet nemen bij het onderzoek naar en de ontwikkeling van AI-systemen op het gebied van veiligheid en defensie; is van mening dat het gebruik van op AI gebaseerde veiligheids- en defensietoepassingen een aantal directe voordelen voor de bevelhebber van de operatie kan bieden, zoals gegevens van hogere kwaliteit, een groter situationeel bewustzijn, een snellere besluitvorming, een lager risico op nevenschade dankzij betere bekabeling, bescherming van de troepen op het terrein, en een grotere betrouwbaarheid van militaire uitrusting, en bijgevolg minder risico’s voor de mens en minder menselijke slachtoffers; benadrukt dat de ontwikkeling van betrouwbare AI op het gebied van defensie een onontbeerlijke technologie is om de Europese strategische autonomie te garanderen op capaciteits- en operationeel gebied; herinnert eraan dat AI-systemen ook cruciale elementen worden in de bestrijding van nieuwe bedreigingen voor de veiligheid, zoals cyber- en hybride oorlogsvoering, zowel on- als offline; wijst tegelijkertijd op alle risico’s en uitdagingen die het niet-gereguleerde gebruik van AI met zich meebrengt; merkt op dat AI vatbaar kan zijn voor manipulatie, fouten en onnauwkeurigheden; |
94. |
beklemtoont dat AI-technologieën strikt genomen dienen voor dubbel gebruik en dat de ontwikkeling van AI in defensiegerelateerde activiteiten haar voordeel doet met uitwisselingen tussen militaire en civiele technologieën; benadrukt dat AI in defensiegerelateerde activiteiten een transversale disruptieve technologie is waarvan de ontwikkeling kansen kan bieden voor het concurrentievermogen en de strategische autonomie van de Unie; |
95. |
onderkent dat in de hybride en geavanceerde oorlogsvoering van vandaag het volume aan informatie en de snelheid ervan tijdens de vroege fasen van een crisis overdonderend kunnen zijn voor menselijke analisten en dat een AI-systeem die informatie kan verwerken zodat de menselijke besluitvormers het volledige spectrum van informatie binnen een passend tijdsbestek kunnen doorlopen en snel kunnen reageren; |
96. |
benadrukt dat het belangrijk is te investeren in de ontwikkeling van menselijk kapitaal voor artificiële intelligentie en daarbij de vaardigheden en de opleidingen te bevorderen die nodig zijn op het gebied van AI-technologieën voor veiligheid en defensie, met bijzondere aandacht voor de ethische toelaatbaarheid van semiautonome en autonome operationele systemen op basis van menselijke verantwoordingsplicht in een op AI gebaseerde wereld; beklemtoont met name dat het belangrijk is op dit gebied ethici te hebben die over passende vaardigheden beschikken en hiertoe een degelijke opleiding krijgen; verzoekt de Commissie zo spoedig mogelijk haar “versterking van de vaardighedenagenda” voor te stellen, zoals aangekondigd in haar witboek over artificiële intelligentie van 19 februari 2020; |
97. |
beklemtoont dat het gebruik van kwantumcomputers wel eens de revolutionairste ommekeer in het beslechten van conflicten met zich mee zou kunnen brengen sinds de introductie van kernwapens, en dringt er daarom op aan om van de verdere ontwikkeling van kwantumcomputertechnologie een prioriteit te maken voor de Unie en de lidstaten; onderkent dat gewapende aanvallen, onder meer op kritieke infrastructuur, met behulp van kwantumcomputers een conflictomgeving zullen scheppen waarin de beschikbare tijd voor besluitvorming ingrijpend wordt ingekort — van dagen en uren tot minuten en seconden — zodat de lidstaten ertoe gedwongen worden capaciteiten te ontwikkelen die hen binnen dat korte tijdsbestek beschermen, en zowel hun besluitvormers als militair personeel op te leiden om binnen dat korte tijdsbestek doeltreffend te reageren; |
98. |
dringt aan op meer investeringen in Europese AI voor defensie en in de kritieke infrastructuur die daarvoor nodig is; |
99. |
herinnert eraan dat de meeste huidige militaire mogendheden ter wereld reeds aanzienlijke O&O-inspanningen hebben geleverd in verband met de militaire dimensie van artificiële intelligentie; is van mening dat de Unie ervoor moet zorgen dat zij op dit gebied geen achterstand oploopt; |
100. |
verzoekt de Commissie de capaciteitsopbouw voor cyberbeveiliging in te bedden in haar industriebeleid om de ontwikkeling en uitrol te garanderen van veilige, veerkrachtige en robuuste op AI gebaseerde systemen en robotica; verzoekt de Commissie onderzoek te doen naar het gebruik van op blockchain gebaseerde cyberbeveiligingsprotocollen en -toepassingen ter verbetering van de weerbaarheid, betrouwbaarheid en robuustheid van AI-infrastructuur aan de hand van modellen van gegevensversleuteling zonder tussenkomst; spoort de Europese belanghebbenden aan geavanceerde kenmerken te onderzoeken en te construeren die de opsporing vergemakkelijken van corrupte en kwaadaardige op AI gebaseerde systemen en robotica die de veiligheid van de Unie en de burgers zouden kunnen ondermijnen; |
101. |
benadrukt dat alle AI-systemen op het gebied van defensie een concreet en duidelijk afgebakend missiekader moeten hebben, waarbij mensen over de mogelijkheid moeten beschikken om ingezette systemen op te sporen en te ontkoppelen of te deactiveren indien zij hun door een menselijke bevelvoerder vastgelegde en toegewezen missiekader verlaten, of mogelijk een escalerende of onbedoelde handeling uitvoeren; is van mening dat op AI gebaseerde systemen, producten en technologie voor militair gebruik uitgerust moeten zijn met een “zwarte doos” die alle gegevenstransacties van de machine registreert; |
102. |
benadrukt dat de volledige aansprakelijkheid en verantwoordingsplicht voor het besluit om AI-systemen te ontwerpen, te ontwikkelen, uit te rollen en te gebruiken moeten berusten op menselijke actoren, aangezien alle wapensystemen moeten worden onderworpen aan zinvolle menselijke monitoring en controle, en het besluit om geweld te gebruiken bij de uitvoering van elke beslissing van een op AI gebaseerd wapensysteem dat dodelijke gevolgen kan hebben, moet afhangen van menselijke intenties; benadrukt dat er menselijke controle moet blijven bestaan voor de bevelvoering en controle van op AI gebaseerde systemen, in overeenstemming met de beginselen “human-in-the-loop”, “human-on-the loop” en “human-in-command” op het niveau van de militaire leiding; benadrukt dat op AI gebaseerde systemen de militaire leiding in staat moeten stellen de volledige verantwoordelijkheid op zich te nemen, het gebruik van dodelijk geweld te verantwoorden en het noodzakelijke beoordelingsniveau uit te oefenen om dodelijke of grootschalige destructieve actie via dergelijke systemen te kunnen ondernemen, en dat machines daartoe niet in staat zijn omdat er sprake moet zijn van onderscheidingsvermogen, evenredigheid en voorzorg; beklemtoont dat er een kader moet worden gecreëerd voor duidelijke en traceerbare toelating en verantwoordingsplicht in verband met het inzetten van slimme wapens en andere op AI gebaseerde systemen, waarbij unieke gebruikerskenmerken zoals biometrische kenmerken worden gebruikt zodat dergelijke wapens en systemen uitsluitend door bevoegd personeel kunnen worden ingezet; |
Vervoer
103. |
benadrukt het potentieel van artificiële intelligentie, robotica en aanverwante technologieën voor alle vormen van autonoom vervoer over het spoor, over water en door de lucht, en ook voor het stimuleren van de modal shift en intermodaal vervoer, aangezien dergelijke technologieën kunnen helpen om de optimale combinatie van vervoerswijzen te vinden voor het vervoer van goederen en personen; benadrukt verder dat deze technologieën het potentieel hebben om het vervoer, logistieke processen en verkeersstromen efficiënter te maken en alle vormen van vervoer veiliger, slimmer en milieuvriendelijker te maken; wijst erop dat een ethische benadering van AI ook kan fungeren als systeem voor vroegtijdige waarschuwing, in het bijzonder met betrekking tot de veiligheid en efficiëntie van het vervoer; |
104. |
benadrukt dat de wereldwijde concurrentie tussen bedrijven en economische regio’s betekent dat de Unie investeringen moet bevorderen en het internationale concurrentievermogen van bedrijven in de vervoerssector moet versterken door een gunstig klimaat te scheppen voor de ontwikkeling en toepassing van AI-oplossingen en verdere innovaties, waarbij in de Unie gevestigde bedrijven wereldleider kunnen worden op het gebied van de ontwikkeling van AI-technologieën; |
105. |
benadrukt dat de vervoerssector in de Unie behoefte heeft aan een actualisering van het regelgevingskader met betrekking tot dergelijke opkomende technologieën en het gebruik ervan in de vervoerssector en aan een duidelijk ethisch kader voor het verwezenlijken van betrouwbare AI, onder meer met betrekking tot veiligheid, beveiliging, eerbiediging van de menselijke autonomie, toezicht en aansprakelijkheid, hetgeen zal leiden tot meer voordelen die door iedereen worden gedeeld en essentieel zullen zijn voor het stimuleren van investeringen in onderzoek en innovatie, de ontwikkeling van vaardigheden en de invoering van AI door overheidsdiensten, kmo’s, start-ups en bedrijven, en tegelijkertijd de bescherming van gegevens en de interoperabiliteit zal waarborgen, zonder dat dit een onnodige administratieve last voor bedrijven en consumenten met zich meebrengt; |
106. |
merkt op dat de ontwikkeling en integratie van AI in de vervoerssector niet mogelijk zal zijn zonder moderne infrastructuur, die een essentieel deel uitmaakt van slimme vervoerssystemen; benadrukt dat aanhoudende verschillen in het ontwikkelingsniveau tussen de lidstaten het risico met zich meebrengen dat de minst ontwikkelde regio’s en hun inwoners van de voordelen van de ontwikkeling van autonome mobiliteit verstoken blijven; dringt erop aan dat de modernisering van vervoersinfrastructuur in de Unie, waaronder de integratie ervan in het 5G-netwerk, voldoende wordt gefinancierd; |
107. |
pleit voor de ontwikkeling van voor de hele Unie geldende betrouwbare AI-normen voor alle vervoerswijzen, waaronder de autosector, en voor het testen van op AI gebaseerde voertuigen en aanverwante producten en diensten; |
108. |
merkt op dat AI-systemen kunnen helpen om het aantal dodelijke verkeersslachtoffers aanzienlijk te verlagen, bijvoorbeeld door snellere reactietijden en een betere naleving van de regels; is echter van mening dat het gebruik van autonome voertuigen onmogelijk alle ongevallen kan uitbannen, en onderstreept dat dit de verklaarbaarheid van AI-beslissingen steeds belangrijker maakt om tekortkomingen en onbedoelde gevolgen van AI-beslissingen te rechtvaardigen; |
Werkgelegenheid, rechten van werknemers, digitale vaardigheden en de werkplek
109. |
merkt op dat de toepassing van artificiële intelligentie, robotica en aanverwante technologieën op de werkplek kan bijdragen tot een inclusieve arbeidsmarkt en gevolgen kan hebben voor de gezondheid en veiligheid op het werk, en ook kan worden gebruikt voor het monitoren, evalueren, voorspellen en sturen van werknemersprestaties, wat zowel directe als indirecte gevolgen heeft voor hun loopbaanperspectieven; overwegende dat AI een positief effect moet hebben op de arbeidsomstandigheden en moet worden geleid door eerbiediging van de mensenrechten en de grondrechten en fundamentele waarden van de Unie; overwegende dat AI mensgericht moet zijn, het welzijn van mensen en de samenleving moet verbeteren en moet bijdragen tot een eerlijke en rechtvaardige transitie; overwegende dat dergelijke technologieën dan ook een positief effect moeten hebben op de arbeidsomstandigheden en moeten uitgaan van de eerbiediging van de mensenrechten, de grondrechten en fundamentele waarden van de Unie; |
110. |
benadrukt de noodzaak van competentieontwikkeling via opleiding en training voor werknemers en hun vertegenwoordigers met betrekking tot AI op de werkplek om de implicaties van AI-oplossingen beter te begrijpen; benadrukt dat sollicitanten en werknemers naar behoren schriftelijk in kennis moeten worden gesteld indien AI wordt gebruikt in het kader van aanwervingsprocedures en andere beslissingen met betrekking tot het personeelsbeleid, en dat, wanneer dit het geval is, een menselijke beoordeling kan worden aangevraagd met het oog op het terugdraaien van een geautomatiseerde beslissing; |
111. |
benadrukt dat erop toe moet worden gezien dat productiviteitswinsten als gevolg van de ontwikkeling en het gebruik van AI en robotica niet alleen ten goede komen aan de eigenaren en aandeelhouders van bedrijven, maar ook aan de bedrijven zelf en aan de werknemers via betere arbeidsvoorwaarden en -omstandigheden, onder meer lonen, economische groei en ontwikkeling, alsook aan de samenleving in het algemeen, met name wanneer dergelijke winsten ten koste gaan van de werkgelegenheid; verzoekt de lidstaten de mogelijke gevolgen van AI voor de arbeidsmarkt en de socialezekerheidsstelsels grondig te onderzoeken en strategieën te ontwikkelen om stabiliteit op de lange termijn te waarborgen door belastingen en bijdragen te hervormen, alsook door te voorzien in andere maatregelen in het geval van lagere overheidsinkomsten; |
112. |
benadrukt het belang van bedrijfsinvesteringen in formele en informele opleidingen en een leven lang leren om de rechtvaardige transitie naar de digitale economie te ondersteunen; benadrukt in dit verband dat bedrijven die AI inzetten de verantwoordelijkheid hebben om alle betrokken werknemers passende om- en bijscholing te bieden, zodat zij kunnen leren hoe zij digitale instrumenten moeten gebruiken en met co-bots en andere nieuwe technologieën moeten werken, waardoor zij zich kunnen aanpassen aan de veranderende behoeften op de arbeidsmarkt en hun baan kunnen behouden; |
113. |
is van mening dat bijzondere aandacht moet worden besteed aan nieuwe vormen van werk, zoals eenmalige klussen en platformwerk, die het gevolg zijn van de toepassing van nieuwe technologieën op dit gebied; benadrukt dat bij het reguleren van de voorwaarden voor telewerk in de hele Unie en het garanderen van fatsoenlijke arbeidsvoorwaarden en -omstandigheden in de digitale economie eveneens rekening moet worden gehouden met de gevolgen van AI; verzoekt de Commissie in dit verband overleg te plegen met de sociale partners, AI-ontwikkelaars, onderzoekers en andere belanghebbenden; |
114. |
benadrukt dat artificiële intelligentie, robotica en aanverwante technologieën op geen enkele wijze afbreuk mogen doen aan de uitoefening van de grondrechten zoals die in de lidstaten en op het niveau van de Unie zijn erkend, met inbegrip van het stakingsrecht of de stakingsvrijheid dan wel het recht of de vrijheid om in het kader van de in de lidstaten bestaande bijzondere stelsels van arbeidsverhoudingen andere acties te voeren overeenkomstig het nationaal recht en/of de nationale praktijk, noch aan het recht om over collectieve overeenkomsten te onderhandelen, deze te sluiten en naleving ervan af te dwingen, of om collectieve actie te voeren overeenkomstig het nationaal recht en/of de nationale praktijk; |
115. |
herhaalt het belang van onderwijs en permanente educatie om de kwalificaties te ontwikkelen die nodig zijn in het digitale tijdperk en om digitale uitsluiting aan te pakken; verzoekt de lidstaten te investeren in hoogwaardige, responsieve en inclusieve stelsels voor onderwijs, beroepsopleiding en een leven lang leren, alsook in om- en bijscholingsbeleid voor werknemers in sectoren die mogelijk zwaar worden getroffen door AI; benadrukt dat het noodzakelijk is de huidige en toekomstige beroepsbevolking te voorzien van de nodige lees- en schrijf-, reken- en digitale vaardigheden, alsook van competenties op het gebied van wetenschap, technologie, engineering en wiskunde (STEM) en horizontaal inzetbare zachte vaardigheden, zoals kritisch denken, creativiteit en ondernemerschap; benadrukt dat er in dit verband bijzondere aandacht moet worden besteed aan de inclusie van kansarme groepen; |
116. |
wijst erop dat artificiële intelligentie, robotica en aanverwante technologieën die gebruikt worden op de werkplek voor iedereen toegankelijk moeten zijn volgens het beginsel van universeel ontwerp; |
Onderwijs en cultuur
117. |
benadrukt de noodzaak om criteria te ontwikkelen voor de ontwikkeling, de uitrol en het gebruik van AI, waarbij rekening wordt gehouden met hun impact op het gebied van onderwijs, media, jeugd, onderzoek en sport en in de culturele en creatieve sectoren, door het ontwikkelen van benchmarks en het definiëren van beginselen voor ethisch verantwoord en geaccepteerd gebruik van AI-technologieën die op de juiste wijze kunnen worden toegepast op deze gebieden, met inbegrip van een duidelijke aansprakelijkheidsregeling voor producten die voortkomen uit het gebruik van AI; |
118. |
is van mening dat elk kind recht heeft op openbaar kwaliteitsonderwijs op alle niveaus; dringt daarom aan op de ontwikkeling, de uitrol en het gebruik van hoogstaande AI-systemen die kwalitatief hoogwaardige pedagogische instrumenten mogelijk maken en verschaffen voor alle niveaus, en benadrukt dat de uitrol van nieuwe AI-systemen op scholen niet mag leiden tot een grotere digitale kloof in de maatschappij; is zich bewust van het enorme potentieel dat AI en robotica hebben in het onderwijs; merkt op dat de gepersonaliseerde leersystemen van AI niet in de plaats mogen komen van het pedagogische contact met leerkrachten en dat de traditionele onderwijsvormen niet mogen worden losgelaten, maar wijst er tegelijkertijd op dat financiële, technologische en educatieve ondersteuning, met inbegrip van gespecialiseerde opleidingen in informatie- en communicatietechnologie, moet worden geboden aan leerkrachten die passende vaardigheden willen verwerven om zich aan te passen aan de technologische veranderingen en niet alleen om het potentieel van AI te benutten, maar ook de beperkingen ervan te begrijpen; dringt aan op de ontwikkeling van een strategie op Unieniveau om onze onderwijsstelsels te helpen transformeren en actualiseren, onderwijsinstanties op alle niveaus voor te bereiden en ervoor te zorgen dat leraren en leerlingen de nodige vaardigheden en capaciteiten verwerven; |
119. |
benadrukt dat onderwijsinstellingen ernaar moeten streven AI-systemen te gebruiken voor onderwijsdoeleinden waarvoor een Europees certificaat van ethische conformiteit is afgegeven; |
120. |
benadrukt dat de mogelijkheden die de digitalisering en de nieuwe technologieën bieden, niet mogen resulteren in een algeheel verlies van banen in de culturele en creatieve sectoren, verwaarlozing van het bewaren van originelen of de afzwakking van de traditionele toegang tot het cultureel erfgoed, die juist moet worden aangemoedigd; merkt op dat AI-systemen die in de Unie worden ontwikkeld, uitgerold en gebruikt, een afspiegeling moeten vormen van haar culturele diversiteit en meertaligheid; |
121. |
onderkent het steeds grotere potentieel van AI op het gebied van informatie, media en online-platforms, onder meer als een instrument om desinformatie tegen te gaan, in overeenstemming met het Unierecht; benadrukt dat niet-gereguleerde AI ook ethisch gezien schadelijke effecten kan hebben door het exploiteren van in gegevens en algoritmen vervatte vooringenomenheid, met de verspreiding van desinformatie en het creëren van informatiebubbels als mogelijk gevolg; benadrukt het belang van de transparantie van en de verantwoordingsplicht voor de algoritmen die door videodelingsplatforms (VSP’s) en streamingplatforms worden gebruikt, om de toegang tot cultureel en taalkundig gevarieerde inhoud te waarborgen; |
Nationale toezichthoudende autoriteiten
122. |
wijst op de toegevoegde waarde van een aangewezen nationale toezichthoudende autoriteit in elke lidstaat die verantwoordelijk is voor het waarborgen, beoordelen en monitoren van conformiteit met wettelijke verplichtingen en ethische beginselen bij de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, waarmee wordt bijgedragen aan de naleving van de wettelijke en ethische voorschriften van deze technologieën; |
123. |
is van mening dat van deze autoriteiten vereist wordt dat ze, zonder dubbel werk te leveren, samenwerken met de autoriteiten die verantwoordelijk zijn voor de uitvoering van sectorale wetgeving om in kaart te brengen welke technologieën uit ethisch oogpunt een hoog risico met zich meebrengen en om toezicht uit te oefenen op de uitvoering van de vereiste passende maatregelen indien er sprake is van dergelijke technologieën; |
124. |
wijst erop dat dergelijke autoriteiten niet alleen onderling moeten samenwerken, maar ook met de Europese Commissie en andere relevante instellingen, organen en instanties van de Unie teneinde een samenhangend grensoverschrijdend optreden te garanderen; |
125. |
stelt voor dat er in het kader van een dergelijke samenwerking gemeenschappelijke criteria en een aanvraagprocedure worden ontwikkeld voor de toekenning van een Europees certificaat van ethische conformiteit, waaronder naar aanleiding van een aanvraag van een ontwikkelaar, exploitant of gebruiker van niet als risicovol beschouwde technologieën, die zijn conformiteit na een positieve beoordeling door de respectieve nationale toezichthoudende autoriteit wenst te certificeren; |
126. |
dringt erop aan deze autoriteiten te belasten met de taak om regelmatige uitwisselingen met het maatschappelijk middenveld en innovatie in de Unie te bevorderen door onderzoekers, ontwikkelaars en andere belanghebbenden, evenals bedrijven met een lager niveau van digitale rijpheid, in het bijzonder kleine en middelgrote ondernemingen of start-ups, bijstand te verlenen, in het bijzonder op het vlak van bewustmaking ten aanzien van en steun voor ontwikkeling, uitrol, opleiding en het aantrekken van talent om een doeltreffende technologieoverdracht en toegang tot technologieën, projecten, resultaten en netwerken te waarborgen; |
127. |
dringt aan op voldoende financiering door alle lidstaten van hun aangewezen nationale toezichthoudende autoriteit en benadrukt dat de nationale markttoezichtautoriteiten moeten worden versterkt wat betreft capaciteit, vaardigheden en competenties, alsook kennis over de specifieke risico’s van artificiële intelligentie, robotica en aanverwante technologieën; |
Coördinatie op Unieniveau
128. |
onderstreept het belang van coördinatie op het niveau van de Unie, zoals uitgevoerd door de Commissie en/of relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen, teneinde versnippering te voorkomen en te zorgen voor een geharmoniseerde aanpak in de hele Unie; is van mening dat de coördinatie gericht moet zijn op de mandaten en acties van de nationale toezichthoudende autoriteiten in elke lidstaat als bedoeld in het vorige onderdeel, alsook op het delen van beste praktijken tussen die autoriteiten en het bijdragen aan de samenwerking op het gebied van onderzoek en ontwikkeling in de hele Unie; verzoekt de Commissie de meest geschikte oplossing voor het structureren van deze coördinatie te beoordelen en te hanteren; geeft aan dat voorbeelden van bestaande instellingen, organen en instanties van de Unie Enisa, de EDPS en de Europese Ombudsman zijn; |
129. |
is ervan overtuigd dat een dergelijke coördinatie en een Europees certificaat van ethische conformiteit in dat kader niet alleen gunstig zouden zijn voor de ontwikkeling van het bedrijfsleven en van innovatie in de Unie, maar burgers ook bewuster zou maken van de kansen en risico’s die met deze technologieën gemoeid zijn; |
130. |
stelt voor om een kenniscentrum op te richten, waarin de academische wereld, onderzoeksinstellingen, het bedrijfsleven en individuele deskundigen op Unieniveau bijeen worden gebracht, om de uitwisseling van kennis en technische expertise te bevorderen en samenwerking binnen en buiten de Unie te faciliteren; dringt er verder op aan dat bij dit kenniscentrum organisaties van belanghebbenden worden betrokken, zoals organisaties voor consumentenbescherming, om brede consumentenvertegenwoordiging te waarborgen; is van mening dat vanwege de mogelijk onevenredige impact van algoritmische systemen op vrouwen en minderheden, de besluitvormingsniveaus van een dergelijke structuur divers moeten zijn en gendergelijkheid moeten waarborgen; benadrukt dat de lidstaten in het kader van hun nationale strategieën voor markttoezicht risicobeheerstrategieën voor AI moeten ontwikkelen; |
131. |
stelt voor dat de Commissie en/of relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen, de nationale toezichthoudende autoriteiten alle nodige bijstand verlenen met betrekking tot hun rol als eerste aanspreekpunt in geval van vermoede schendingen van de wettelijke verplichtingen en ethische beginselen die zijn vastgelegd in het regelgevingskader van de Unie voor AI, met inbegrip van het non-discriminatiebeginsel; is van mening dat zij ook de nodige bijstand moet verlenen aan nationale toezichthoudende autoriteiten in gevallen waarin deze conformiteitsbeoordelingen uitvoeren ter ondersteuning van het recht van burgers om bezwaar aan te tekenen en verhaal te halen, en wel door zich, indien van toepassing, te scharen achter de raadpleging van andere bevoegde autoriteiten in de Unie, met name het netwerk voor samenwerking op het gebied van consumentenbescherming en nationale instanties voor consumentenbescherming, maatschappelijke organisaties en sociale partners in andere lidstaten; |
132. |
onderkent de waardevolle resultaten van de deskundigengroep op hoog niveau inzake artificiële intelligentie, bestaande uit vertegenwoordigers van de academische wereld, het maatschappelijk middenveld en de industrie, alsook van de Europese AI-alliantie, met name de “Ethische richtsnoeren voor betrouwbare artificiële intelligentie”, en stelt voor dat deze groep expertise kan verstrekken aan de Commissie en/of relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen; |
133. |
neemt kennis van de opname van aan AI gerelateerde projecten in het industrieel ontwikkelingsprogramma voor de Europese defensie (EDIDP); is van mening dat het toekomstige Europees Defensiefonds (EDF) en de permanente gestructureerde samenwerking (PESCO) ook kaders voor toekomstige aan AI gerelateerde projecten kunnen bieden die niet alleen kunnen bijdragen aan een betere stroomlijning van de inspanningen van de Unie op dit gebied, maar ook aan de doelstelling van de Unie om de mensenrechten, het internationaal recht en multilaterale oplossingen te versterken; beklemtoont dat aan AI gerelateerde projecten moeten worden gesynchroniseerd met de bredere civiele programma’s van de Unie die aan AI gewijd zijn; merkt op dat er, overeenkomstig het witboek van de Europese Commissie over artificiële intelligentie van 19 februari 2020, excellentie- en testcentra moeten worden opgericht die zich bezighouden met onderzoek naar en ontwikkeling van AI op het gebied van veiligheid en defensie, en dat voor die oprichting gedetailleerde specificaties moeten gelden die de deelname van en investeringen door particuliere belanghebbenden ondersteunen; |
134. |
neemt kennis van het witboek van de Commissie over artificiële intelligentie van 19 februari 2020 en betreurt het dat militaire aspecten daarin niet aan de orde zijn gekomen; dringt er bij de Commissie en de VV/HV op aan om, ook als onderdeel van een algemene aanpak, een sectorale AI-strategie voor defensiegerelateerde activiteiten binnen het kader van de Unie voor te stellen, waarin zowel rekening wordt gehouden met de rechten van de burgers als met de strategische belangen van de Unie en die gebaseerd is op een consistente aanpak, gaande van de ontwikkeling van op AI gebaseerde systemen tot het militair gebruik ervan; dringt er tevens bij de Commissie op aan binnen de deskundigengroep op hoog niveau inzake artificiële intelligentie een werkgroep inzake veiligheid en defensie op te richten die zich specifiek moet bezighouden met beleids- en investeringsvraagstukken, alsook met ethische aspecten van AI op het gebied van veiligheid en defensie; verzoekt de Raad, de Commissie en de VV/HV om daartoe een gestructureerde dialoog met het Parlement aan te gaan; |
Europees certificaat van ethische conformiteit
135. |
stelt voor dat er in het kader van coördinatie op het niveau van de Unie gemeenschappelijke criteria en een aanvraagprocedure voor de toekenning van een Europees certificaat van ethische conformiteit worden ontwikkeld, waaronder naar aanleiding van een aanvraag van een ontwikkelaar, exploitant of gebruiker van niet als risicovol beschouwde technologieën, die zijn conformiteit na een positieve beoordeling door de respectieve nationale toezichthoudende autoriteit wenst te certificeren; |
136. |
is van mening dat een dergelijk Europees certificaat van ethische conformiteit bevorderlijk zou zijn voor ethisch ontwerp in de hele toeleveringsketen van AI-ecosystemen; stelt daarom voor dat deze certificering, in het geval van technologieën met een hoog risico, een verplichte voorwaarde kan zijn om in aanmerking te komen voor openbare aanbestedingsprocedures voor artificiële intelligentie, robotica en aanverwante technologieën; |
Internationale samenwerking
137. |
is van mening dat doeltreffende samenwerking en ethische normen over de grenzen heen alleen kunnen worden bereikt als alle belanghebbenden zich ertoe verbinden te zorgen voor menselijke controle en menselijk toezicht, technische robuustheid en veiligheid, transparantie en verantwoordingsplicht, diversiteit, non-discriminatie en billijkheid, maatschappelijk en ecologisch welzijn en eerbiediging van de gevestigde beginselen van privacy, gegevensbeheer en gegevensbescherming — met name de beginselen die zijn vastgelegd in Verordening (EU) 2016/679; |
138. |
benadrukt dat de wettelijke verplichtingen en ethische beginselen van de Unie voor de ontwikkeling, de uitrol en het gebruik van deze technologieën van Europa een wereldleider kunnen maken in de sector artificiële intelligentie en dat deze verplichtingen en beginselen dan ook wereldwijd moeten worden bevorderd door middel van samenwerking met internationale partners, terwijl de kritische en op ethiek gebaseerde dialoog wordt voortgezet met derde landen die beschikken over alternatieve modellen voor de regulering, de ontwikkeling en de uitrol van artificiële intelligentie; |
139. |
herinnert eraan dat de kansen en risico’s die inherent zijn aan deze technologieën een mondiale dimensie hebben, aangezien de software en de gegevens die voor deze systemen worden gebruikt vaak worden geïmporteerd in en geëxporteerd uit de Unie, en dat er daarom behoefte is aan een consistente benadering van de samenwerking op internationaal niveau; verzoekt de Commissie het initiatief te nemen om te beoordelen welke bilaterale en multilaterale verdragen en overeenkomsten moeten worden aangepast om een consequente aanpak te waarborgen en het Europese model van ethische conformiteit wereldwijd te bevorderen; |
140. |
wijst op de toegevoegde waarde van coördinatie op Unieniveau, waarnaar hierboven al werd verwezen; |
141. |
dringt erop aan synergieën en netwerken tot stand te brengen tussen de verschillende Europese onderzoekscentra die zich bezighouden met AI en tussen andere multilaterale fora zoals de Raad van Europa, de Organisatie van de Verenigde Naties voor Onderwijs, Wetenschap en Cultuur (Unesco), de Organisatie voor Economische Samenwerking en Ontwikkeling (OESO), de Wereldhandelsorganisatie en de Internationale Telecommunicatie-unie (ITU), om hun inspanningen op elkaar af te stemmen en de ontwikkeling van artificiële intelligentie, robotica en aanverwante technologieën beter te coördineren; |
142. |
benadrukt dat de Unie het voortouw moet nemen bij de ondersteuning van multilaterale inspanningen, in het kader van de Groep van regeringsdeskundigen inzake het CWV van de VN en andere relevante fora, om een doeltreffend internationaal regelgevingskader te bespreken dat zinvolle menselijke controle over autonome wapensystemen waarborgt teneinde deze technologieën te beheersen door goed gedefinieerde, op benchmarks gebaseerde processen en regelgeving voor het ethisch gebruik ervan vast te stellen, in overleg met belanghebbenden uit de strijdkrachten, de industrie, de wetshandhaving, de academische wereld en het maatschappelijk middenveld, om inzicht te verwerven in de desbetreffende ethische aspecten, om de inherente risico’s van deze technologieën te beheersen en om het gebruik ervan voor kwaadaardige doeleinden te voorkomen; |
143. |
erkent de rol van de NAVO bij de bevordering van de Euro-Atlantische veiligheid en dringt aan op samenwerking binnen de NAVO voor het vaststellen van gemeenschappelijke normen en interoperabiliteit van defensiegerelateerde AI-systemen; beklemtoont dat de trans-Atlantische relatie van belang is voor het behoud van gedeelde waarden en het afwenden van toekomstige en nieuwe bedreigingen; |
144. |
beklemtoont dat er een ethische gedragscode moet worden opgesteld voor de uitrol van op AI gebaseerde systemen als wapen in militaire operaties, te vergelijken met het bestaande regelgevingskader dat het gebruik van chemische en biologische wapens verbiedt; is van mening dat de Commissie het initiatief moet nemen voor de opstelling van normen voor het gebruik van op AI gebaseerde wapensystemen bij oorlogsvoering in overeenstemming met het internationaal humanitair recht, en dat de Unie moet ijveren voor de internationale goedkeuring van deze normen; is van mening dat de Unie op internationale fora aan AI-diplomatie moet doen met gelijkgezinde partners zoals de G7, de G20 en de OESO; |
Overige aspecten
145. |
concludeert naar aanleiding van bovenstaande beschouwingen over aspecten met betrekking tot de ethische dimensie van artificiële intelligentie, robotica en aanverwante technologieën, dat de juridische en ethische dimensie moet worden opgenomen in een doeltreffend, toekomstgericht en alomvattend regelgevingskader op Unieniveau, dat de steun geniet van nationale bevoegde autoriteiten, dat wordt gecoördineerd en versterkt door de Commissie en/of relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen, dat regelmatig wordt ondersteund door het eerder genoemde expertisecentrum en dat binnen de interne markt naar behoren wordt geëerbiedigd en gecertificeerd; |
146. |
verzoekt de Commissie overeenkomstig de procedure van artikel 225 van het Verdrag betreffende de werking van de Europese Unie een voorstel in te dienen voor een verordening betreffende ethische beginselen voor de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën op basis van artikel 114 van het Verdrag betreffende de werking van de Europese Unie en op basis van de gedetailleerde aanbevelingen die zijn opgenomen in de bijlage; wijst erop dat het voorstel geen afbreuk mag doen aan sectorspecifieke wetgeving, maar alleen betrekking mag hebben op vastgestelde lacunes; |
147. |
beveelt de Europese Commissie aan, na raadpleging van alle betrokken belanghebbenden en in overeenstemming met de aanbevelingen die zijn opgenomen in de bijlage bij dit verslag de bestaande Uniewetgeving die van toepassing is op artificiële intelligentie, robotica en aanverwante technologieën indien noodzakelijk te herzien om ervoor te zorgen dat naar behoren rekening wordt gehouden met de snelheid waarmee deze technologieën worden ontwikkeld, maar daarbij overregulering te voorkomen, waaronder voor kmo’s; |
148. |
is van mening dat een periodieke beoordeling en, indien nodig, herziening van het regelgevingskader van de Unie in verband met artificiële intelligentie, robotica en aanverwante technologieën van het allergrootste belang zijn om ervoor te zorgen dat de toepasselijke wetgeving gelijke tred houdt met de snelle vooruitgang van de technologie; |
149. |
is van mening dat het verlangde wetgevingsvoorstel financiële gevolgen zal hebben als een Europees orgaan zou belast worden met de hierboven genoemde coördinatietaken en de technische en personele middelen die het nodig heeft om de nieuwe toegewezen taken te vervullen; |
o
o o
150. |
verzoekt zijn Voorzitter deze resolutie en bijgaande gedetailleerde aanbevelingen te doen toekomen aan de Commissie en de Raad. |
(1) PB L 252 van 8.10.2018, blz. 1.
(2) PB L 180 van 19.7.2000, blz. 22.
(3) PB L 303 van 2.12.2000, blz. 16.
(4) PB L 119 van 4.5.2016, blz. 1.
(5) PB L 119 van 4.5.2016, blz. 89.
(6) PB L 123 van 12.5.2016, blz. 1.
(7) PB C 252 van 18.7.2018, blz. 239.
(8) PB C 307 van 30.8.2018, blz. 163.
(9) PB C 433 van 23.12.2019, blz. 86.
(10) Aangenomen teksten, P8_TA(2018)0332.
(11) Aangenomen teksten, P8_TA(2019)0081.
(12) https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654179
(13) Richtlijn (EU) 2019/882 van het Europees Parlement en de Raad van 17 april 2019 betreffende de toegankelijkheidsvoorschriften voor producten en diensten (PB L 151 van 7.6.2019, blz. 70).
(14) Besluit nr. 768/2008/EG van het Europees Parlement en de Raad van 9 juli 2008 betreffende een gemeenschappelijk kader voor het verhandelen van producten en tot intrekking van Besluit 93/465/EEG van de Raad (PB L 218 van 13.8.2008, blz. 82).
BIJLAGE
GEDETAILLEERDE AANBEVELINGEN BETREFFENDE DE INHOUD VAN HET VERLANGDE VOORSTEL
A. BEGINSELEN EN DOELSTELLINGEN VAN HET VERLANGDE VOORSTEL
I. |
De belangrijkste beginselen en doelstellingen van het voorstel zijn:
|
II. |
Het voorstel bestaat uit de volgende elementen:
|
III. |
De verordening betreffende ethische beginselen voor de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën is gebaseerd op de volgende beginselen:
|
IV. |
Met het oog op de coördinatie op het niveau van de Unie moet(en) de Commissie en/of relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen de volgende hoofdtaken uitvoeren:
|
V. |
Daarnaast moet de Commissie de volgende taken uitvoeren:
|
VI. |
De “toezichthoudende autoriteit” in elke lidstaat moet de volgende hoofdtaken uitvoeren:
|
VII. |
De voornaamste rol van de belanghebbenden moet zijn om in contact te treden met de Commissie en/of relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen en de “toezichthoudende autoriteit” in elke lidstaat. |
B. TEKST VAN HET VERLANGDE WETGEVINGSVOORSTEL
Voorstel voor een
VERORDENING VAN HET EUROPEES PARLEMENT EN DE RAAD
betreffende ethische beginselen voor de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën
HET EUROPEES PARLEMENT EN DE RAAD VAN DE EUROPESE UNIE,
Gezien het Verdrag betreffende de werking van de Europese Unie, en met name artikel 114,
Gezien het voorstel van de Europese Commissie,
Na toezending van het ontwerp van wetgevingshandeling aan de nationale parlementen,
Gezien het advies van het Europees Economisch en Sociaal Comité,
Handelend volgens de gewone wetgevingsprocedure,
Overwegende hetgeen volgt:
(1) |
De ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, dienen gebaseerd te zijn op een streven om de maatschappij te dienen. Er kunnen kansen en risico’s met deze technologieën gemoeid zijn waaraan aandacht moet worden besteed en die moeten worden gereguleerd aan de hand van een alomvattend regelgevingskader op het niveau van de Unie dat een afspiegeling vormt van de ethische beginselen waaraan moet worden voldaan vanaf het moment dat dergelijke technologieën worden ontwikkeld en uitgerold tot aan hun gebruik. |
(2) |
Conformiteit met een dergelijk regelgevingskader bij de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën, in de Unie worden gebruikt of geproduceerd, moet in alle lidstaten van een gelijkwaardig niveau zijn teneinde de kansen doeltreffend te benutten en de risico’s van dergelijke technologieën consequent aan te pakken, alsmede versnippering van de regelgeving te voorkomen. Er moet een homogene toepassing in de hele Unie worden gegarandeerd van de voorschriften uit deze verordening. |
(3) |
In dit kader vormt de huidige waaier aan regels en werkwijzen die in de Unie moeten worden gevolgd een aanzienlijk risico op versnippering van de interne markt en voor de bescherming van het welzijn en de welvaart van zowel personen als de maatschappij en voor een samenhangende analyse van het volledige potentieel dat artificiële intelligentie, robotica en aanverwante technologieën hebben met betrekking tot de bevordering van innovatie en de instandhouding van dat welzijn en die welvaart. Verschillen in de mate waarin ontwikkelaars, exploitanten en gebruikers rekening houden met de ethische dimensie die inherent is aan deze technologieën kunnen beletten dat ze vrij in de Unie worden ontwikkeld, uitgerold of gebruikt, en dergelijke verschillen kunnen een obstakel vormen voor een gelijk speelveld, het streven naar technologische vooruitgang en de uitoefening van economische activiteiten op Unieniveau, de mededinging verstoren en het voor autoriteiten moeilijk maken hun verplichtingen op grond van de Uniewetgeving na te komen. Daarnaast resulteert de afwezigheid van een gemeenschappelijk regelgevingskader, waarin ook ethische beginselen worden weerspiegeld, voor de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën in rechtsonzekerheid voor alle betrokkenen, met name ontwikkelaars, exploitanten en gebruikers. |
(4) |
Deze verordening draagt weliswaar bij aan een coherente aanpak op Unieniveau binnen de daar geldende limieten, maar desalniettemin moet in die verordening een zekere uitvoeringsvrijheid worden geboden aan de lidstaten, onder meer met betrekking tot de manier waarop het mandaat van de respectieve nationale toezichthoudende autoriteit moet worden uitgevoerd met het oog op de in de verordening vastgelegde doelstelling die deze moet nastreven. |
(5) |
Deze verordening laat bestaande of toekomstige sectorale wetgeving onverlet. De verordening moet in verhouding staan tot de doelstelling ervan om innovatie in de Unie niet onnodig te belemmeren en moet in overeenstemming zijn met een op risico’s gebaseerde aanpak. |
(6) |
Het geografische toepassingsgebied van een dergelijk kader moet alle componenten van artificiële intelligentie, robotica en aanverwante technologieën bestrijken tijdens de ontwikkeling, de uitrol en het gebruik daarvan in de Unie, ook in gevallen waarin een deel van deze technologieën zich mogelijk buiten de Unie bevindt of niet één specifieke locatie heeft, zoals bij cloudcomputingdiensten. |
(7) |
Een gemeenschappelijke interpretatie in de Unie van begrippen als “artificiële intelligentie”, “robotica”, “aanverwante technologieën” en “biometrische herkenning” is vereist teneinde een geharmoniseerde regelgevingsbenadering mogelijk te maken en daarmee rechtszekerheid te verschaffen voor burgers en bedrijven. Ze moeten technologisch neutraal zijn en zo nodig opnieuw worden bezien. |
(8) |
Daarnaast moet er aandacht worden besteed aan het feit dat er technologieën bestaan in verband met artificiële intelligentie en robotica die het mogelijk maken met behulp van software fysieke of virtuele processen te besturen, waarbij de mate van autonomie verschilt (1). Voor geautomatiseerde voertuigen zijn er bijvoorbeeld zes niveaus van geautomatiseerd rijden voorgesteld in de internationale SAE-norm J3016. |
(9) |
De ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, moeten menselijke capaciteiten aanvullen in plaats van vervangen en moeten op dusdanige wijze worden uitgevoerd dat het algemeen belang van de burgers niet wordt geschaad en dat er wordt voldaan aan de Uniewetgeving, de grondrechten die zijn opgenomen in het Handvest van de grondrechten van de Europese Unie (het “Handvest”), de vaste rechtspraak van het Hof van Justitie van de Europese Unie en andere Europese en internationale instrumenten die in de Unie gelden. |
(10) |
Beslissingen die worden genomen met behulp van of door artificiële intelligentie, robotica en aanverwante technologieën dienen nog steeds te worden onderworpen aan zinvolle evaluaties, beoordelingen, interventies en controles door mensen. De technische en operationele complexiteit van dergelijke technologieën mag nooit tot gevolg hebben dat de exploitant of gebruiker niet op zijn minst in staat is de technologieën op een faalveilige manier af te sluiten, de werking ervan te wijzigen of stop te zetten, of terug te keren naar een vorige toestand waarbij de veilige functies worden hersteld in gevallen waarin de conformiteit met het Unierecht en met de ethische beginselen en wettelijke verplichtingen die worden beschreven in deze verordening in het gedrang komt. |
(11) |
Artificiële intelligentie, robotica en aanverwante technologieën waarvan de ontwikkeling, de uitrol en het gebruik een aanzienlijk risico inhouden op het veroorzaken van letsel of schade voor personen of de samenleving, wat in strijd is met de grondrechten en veiligheidsvoorschriften zoals vastgelegd in het recht van de Unie, moeten als technologieën met een hoog risico worden beschouwd. Met het oog op de beoordeling van deze technologieën als risicovol, moet rekening worden gehouden met de sector waarin zij worden ontwikkeld, uitgerold of gebruikt, het specifieke gebruik of het specifieke doel ervan en de ernst van het letsel of de schade die naar verwachting optreedt. De ernst van de schade moet worden bepaald op basis van de omvang van het potentiële letsel of de potentiële schade, het aantal betrokken personen, de totale waarde van de veroorzaakte schade en de schade voor de samenleving als geheel. Ernstige soorten letsel en schade zijn bijvoorbeeld schendingen van de rechten van kinderen, consumenten of werknemers die, vanwege de omvang ervan, het aantal getroffen kinderen, consumenten of werknemers of de gevolgen ervan voor de samenleving als geheel, een aanzienlijk risico inhouden op schending van de grondrechten en veiligheidsvoorschriften zoals vastgelegd in het recht van de Unie. Deze verordening moet voorzien in een volledige en cumulatieve lijst van sectoren, toepassingen en doeleinden met een hoog risico. |
(12) |
De verplichtingen die zijn vastgelegd in deze verordening, vooral met betrekking tot technologieën met een hoog risico, mogen alleen van toepassing zijn op in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd en die, na de in deze verordening bedoelde risicobeoordeling, als risicovol worden beschouwd. Deze verplichtingen moeten worden nagekomen onverminderd de algemene verplichting dat alle artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, in de Unie op mensgerichte wijze moeten worden ontwikkeld, uitgerold en gebruikt op basis van de beginselen van menselijke autonomie en menselijke veiligheid en in overeenstemming van het recht van de Unie en met volledige eerbiediging van de grondrechten zoals de menselijke waardigheid, het recht op vrijheid en veiligheid en het recht op persoonlijke integriteit. |
(13) |
Technologieën met een hoog risico moeten voldoen aan de beginselen van veiligheid, transparantie, verantwoordingsplicht, geen vooringenomenheid of discriminatie, sociale verantwoordelijkheid en gendergelijkheid, recht op verhaal, milieuduurzaamheid, privacy en goed bestuur, na een onpartijdige, objectieve en externe risicobeoordeling door de nationale toezichthoudende autoriteit in overeenstemming met de criteria van deze verordening en de lijst in de bijlage daarbij. Bij deze beoordeling moet rekening worden gehouden met de standpunten en eventuele zelfbeoordelingen van de ontwikkelaar of exploitant. |
(14) |
De Commissie en/of relevante instellingen, organen en instanties van de Unie die voor dit doel zijn aangewezen, moeten niet-bindende uitvoeringsrichtsnoeren opstellen voor ontwikkelaars, exploitanten en gebruikers over de methodologie die moet worden gehanteerd om te voldoen aan deze verordening. Daarbij dienen zij de betrokken belanghebbenden te raadplegen. |
(15) |
Er moet binnen de Unie samenhang zijn wat betreft de risicobeoordeling van deze technologieën, met name indien zij worden beoordeeld in het licht van deze verordening en in overeenstemming met eventuele toepasselijke sectorspecifieke wetgeving. Dienovereenkomstig moeten de nationale toezichthoudende autoriteiten andere autoriteiten die risicobeoordelingen uitvoeren in overeenstemming met sectorspecifieke wetgeving informeren wanneer deze technologieën op grond van de risicobeoordeling waarin deze verordening voorziet, als risicovol worden beoordeeld. |
(16) |
Met het oog op de betrouwbaarheid moeten artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, op een veilige, transparante en verantwoorde manier worden ontwikkeld, uitgerold en gebruikt in overeenstemming met de veiligheidskenmerken van robuustheid, veerkracht, veiligheid, nauwkeurigheid en foutidentificatie, verklaarbaarheid, interpreteerbaarheid, controleerbaarheid, transparantie en identificeerbaarheid, en op een manier die het mogelijk maakt de functies in kwestie tijdelijk uit te zetten of terug te keren naar een vorige toestand waarbij de veilige functies worden hersteld in gevallen waarin niet wordt voldaan aan die kenmerken. Transparantie moet worden gewaarborgd, en wel door overheidsinstanties, indien dit strikt noodzakelijk is, toegang te verlenen tot technologie, gegevens en computersystemen die aan dergelijke technologieën ten grondslag liggen. |
(17) |
Ontwikkelaars, exploitanten en gebruikers van artificiële intelligentie, robotica en aanverwante technologieën, vooral technologieën met een hoog risico zijn in uiteenlopende mate verantwoordelijk voor de naleving van de beginselen van veiligheid, transparantie en verantwoordingsplicht in de mate dat zij betrokken zijn bij de technologieën in kwestie, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd. Ontwikkelaars moeten garanderen dat de technologieën in kwestie worden ontworpen en vervaardigd in overeenstemming met de in deze verordening beschreven veiligheidskenmerken, en exploitanten en gebruikers moeten de technologieën in kwestie uitrollen en gebruiken met volledige inachtneming van die kenmerken. Hiertoe dienen de ontwikkelaars van technologieën met een hoog risico de risico’s op misbruik die redelijkerwijs te verwachten zijn bij de technologieën die zij ontwikkelen, te evalueren en daarop in te spelen. Zij moeten er ook voor zorgen dat de systemen die zij ontwikkelen, voor zover mogelijk en met passende middelen, zoals disclaimerberichten, de kans op fouten of onnauwkeurigheden aangeven. |
(18) |
Ontwikkelaars en exploitanten moeten daaropvolgende updates van de technologieën in kwestie beschikbaar stellen aan de gebruikers, met name op softwaregebied, in overeenstemming met de verplichtingen die zijn vastgesteld in de overeenkomst of in de Unie- of nationale wetgeving. Indien uit de risicobeoordeling blijkt dat dit gunstig is, moeten ontwikkelaars en exploitanten overheidsinstanties de relevante documentatie over het gebruik van de betrokken technologieën en veiligheidsinstructies op dit gebied verschaffen, met inbegrip van — indien echt nodig en met volledige inachtneming van de EU-wetgeving inzake gegevensbescherming, privacy, intellectuele-eigendomsrechten en bedrijfsgeheimen — de broncode, ontwikkelingsinstrumenten en de door het systeem gebruikte gegevens. |
(19) |
Personen moeten er met recht van kunnen uitgaan dat de technologie die zij gebruiken naar behoren werkt en hun vertrouwen niet beschaamt. Het vertrouwen van burgers in artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, is afhankelijk van de mate waarin zij de technische processen begrijpen. De mate waarin dergelijke processen verklaarbaar zijn, moet in lijn zijn met de context van deze technische processen en de ernst van de consequenties van een foute of niet-nauwkeurige output, en moet voldoende zijn om bezwaar te maken en beroep aan te tekenen. Met controleerbaarheid, traceerbaarheid en transparantie moet worden voorkomen dat dergelijke technologieën mogelijk onbegrijpelijk zijn. |
(20) |
Het vertrouwen van de samenleving in artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, is afhankelijk van de mate waarin deze technologieën kunnen worden beoordeeld, gecontroleerd en getraceerd. Indien hun mate van betrokkenheid dit vereist, moeten ontwikkelaars garanderen dat dergelijke technologieën zo zijn ontworpen en gebouwd dat ze kunnen worden beoordeeld, gecontroleerd en getraceerd. Binnen de grenzen van wat technisch mogelijk is, moeten ontwikkelaars, exploitanten en gebruikers garanderen dat bij de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën de transparantievereisten volledig worden geëerbiedigd en dat deze technologieën kunnen worden gecontroleerd en getraceerd. |
(21) |
Om transparantie en verantwoordingsplicht te waarborgen dienen burgers erop te worden gewezen wanneer in een systeem artificiële intelligentie wordt gebruikt, wanneer artificiële-intelligentiesystemen een product of dienst aan de persoonlijke voorkeuren van gebruikers aanpassen, of zij deze personalisering kunnen uitschakelen of beperken en wanneer zij te maken hebben met geautomatiseerde besluitvormingstechnologie. Voorts moeten transparantiemaatregelen voor zover dit technisch mogelijk is samengaan met duidelijke en begrijpelijke uitleg over de gebruikte gegevens, het algoritme, het doel, de uitkomsten en de potentiële gevaren. |
(22) |
Vooringenomenheid in en discriminatie door software, algoritmen en gegevens zijn onwettig en moeten worden aangepakt door het proces aan de hand waarvan ze worden ontworpen en uitgerold te reguleren. Vooringenomenheid kan voortvloeien uit zowel beslissingen die worden genomen met behulp van of door een geautomatiseerd systeem als de datasets op basis waarvan deze besluitvorming geschiedt of het systeem wordt getraind. |
(23) |
De software, algoritmen en gegevens die door artificiële intelligentie, robotica en aanverwante technologieën worden gebruikt of geproduceerd, moeten bijvoorbeeld worden beschouwd als vooringenomen als ze suboptimale resultaten opleveren voor een bepaalde persoon of groep personen op basis van een bevooroordeelde persoonlijke, sociale perceptie en de daaropvolgende verwerking van gegevens met betrekking tot hun eigenschappen. |
(24) |
In overeenstemming met de Uniewetgeving moeten de software, algoritmen en gegevens die door artificiële intelligentie, robotica en aanverwante technologieën worden gebruikt of geproduceerd, worden beschouwd als discriminerend wanneer zij uitkomsten opleveren die buitensporige negatieve gevolgen hebben en ertoe leiden dat een persoon of groep personen anders wordt behandeld, bijvoorbeeld door hen te benadelen ten opzichte van anderen, op grond van bijvoorbeeld hun persoonlijke eigenschappen, zonder objectieve of redelijke rechtvaardiging, en ongeacht beweringen dat de technologieën neutraal zouden zijn. |
(25) |
In overeenstemming met de Uniewetgeving zijn legitieme doelen die uit hoofde van deze verordening een afwijkende behandeling van groepen of personen objectief kunnen rechtvaardigen, de bescherming van de openbare orde, veiligheid en volksgezondheid, het voorkomen van strafbare feiten, de bescherming van fundamentele rechten en vrijheden, eerlijke vertegenwoordiging en objectieve vereisten om een beroep te mogen uitoefenen. |
(26) |
Artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, moeten bijdragen aan duurzame vooruitgang. Dergelijke technologieën mogen niet ten koste gaan van de bescherming van het milieu of de groene transitie. Ze kunnen een belangrijke rol vervullen bij het verwezenlijken van de duurzameontwikkelingsdoelstellingen van de Verenigde Naties teneinde toekomstige generaties in staat te stellen te floreren. Dergelijke technologieën kunnen bijdragen aan de bewaking van toereikende vorderingen op basis van indicatoren van duurzaamheid en sociale cohesie en door gebruik te maken van verantwoorde instrumenten van onderzoek en innovatie waarvoor de Unie en haar lidstaten middelen beschikbaar moeten stellen teneinde projecten te ondersteunen die aan deze doelstellingen bijdragen en hierin te investeren. |
(27) |
De ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, mogen op geen enkele manier doelbewust schade of letsel berokkenen aan personen of de maatschappij of in het ontwerp bewust aanvaarden dat dit het geval kan zijn. Derhalve moeten met name technologieën met een hoog risico op een maatschappelijk verantwoorde manier worden ontwikkeld, uitgerold en gebruikt. |
(28) |
Daarom moeten ontwikkelaars, exploitanten en gebruikers in de mate van hun betrokkenheid bij de artificiële intelligentie, robotica en aanverwante technologieën in kwestie en in overeenstemming met de aansprakelijkheidsregels van de Unie en de lidstaten, verantwoordelijk worden gehouden voor aan personen of de maatschappij berokkend(e) schade of letsel. |
(29) |
Met name de ontwikkelaars die beslissingen nemen die de koers of de wijze van ontwikkeling van artificiële intelligentie, robotica en aanverwante technologieën bepalen en beheersen en exploitanten die betrokken zijn bij hun uitrol door beslissingen te nemen over die uitrol en door controle uit te oefenen op de daarmee verband houdende risico’s, of die baat hebben bij die uitrol en een controle- of beheerfunctie vervullen, moeten over het algemeen verantwoordelijk worden gesteld voor het voorkomen van dergelijke schade of dergelijk letsel en zij moeten tijdens het ontwikkelingsproces adequate maatregelen vaststellen en dergelijke maatregelen tijdens de fase van uitrol volledig eerbiedigen. |
(30) |
Maatschappelijk verantwoorde artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, kunnen worden gedefinieerd als technologieën die bijdragen tot het vinden van oplossingen die verschillende maatschappelijke aspecten beschermen en bevorderen, in het bijzonder democratie, gezondheid en economische welvaart, gelijke kansen, arbeids- en sociale rechten, diverse en onafhankelijke media en objectieve en vrij beschikbare informatie, zodat een publiek debat mogelijk wordt, kwalitatief hoogwaardig onderwijs, culturele en linguïstische diversiteit, genderevenwicht, digitale geletterdheid, innovatie en creativiteit. Het zijn ook technologieën die zijn ontwikkeld, uitgerold en gebruikt met gedegen inachtneming van hun uiteindelijke effecten op het fysieke en mentale welzijn van burgers en die haatzaaiende taal of geweld niet promoten. Dergelijke doelstellingen moeten met name door technologieën met een hoog risico worden verwezenlijkt. |
(31) |
Artificiële intelligentie, robotica en aanverwante technologieën moeten ook worden ontwikkeld, uitgerold en gebruikt met het oog op de bevordering van sociale inclusie, democratie, pluraliteit, solidariteit, eerlijkheid, gelijkheid en samenwerking, en hun potentieel in dat kader moet worden gemaximaliseerd en geanalyseerd door middel van onderzoeks- en innovatieprojecten. De Unie en haar lidstaten moeten derhalve communicatie-, administratieve en financiële middelen beschikbaar stellen om dergelijke projecten te ondersteunen en erin te investeren. |
(32) |
Projecten die verband houden met het potentieel dat artificiële intelligentie, robotica en aanverwante technologieën hebben om bij te dragen aan het maatschappelijk welzijn moeten worden uitgevoerd aan de hand van verantwoorde instrumenten van onderzoek en innovatie teneinde te garanderen dat deze projecten vanaf het prille begin in overeenstemming zijn met ethische beginselen. |
(33) |
Bij de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, moet rekening worden gehouden met hun ecologische voetafdruk. Overeenkomstig de verplichtingen uit hoofde van de Uniewetgeving mogen dergelijke technologieën tijdens hun levenscyclus en in hun hele toeleveringsketen geen schade aan het milieu veroorzaken en moeten ze op een manier worden ontwikkeld, uitgerold en gebruikt die het milieu in stand houdt, hun ecologische voetafdruk minimaliseert en corrigeert, bijdraagt aan de groene transitie en aan de verwezenlijking van de doelstellingen op het gebied van klimaatneutraliteit en de circulaire economie. |
(34) |
Voor de toepassing van deze verordening moeten ontwikkelaars, exploitanten en gebruikers in de mate van hun respectieve betrokkenheid bij de ontwikkeling, de uitrol of het gebruik van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico verantwoordelijk worden gehouden voor alle schade die wordt berokkend aan het milieu, overeenkomstig de toepasselijke voorschriften voor milieuaansprakelijkheid. |
(35) |
Deze technologieën moeten ook zo worden ontwikkeld, uitgerold en gebruikt dat ze een bijdrage kunnen leveren aan de verwezenlijking van milieudoelstellingen in overeenstemming met de in de toepasselijke Uniewetgeving vastgestelde verplichtingen, zoals het verminderen van de afvalproductie, het verkleinen van de koolstofvoetafdruk, het bestrijden van de klimaatverandering en het beschermen van het milieu, en hun potentieel in dat kader moet worden gemaximaliseerd en geanalyseerd door middel van onderzoeks- en innovatieprojecten. De Unie en de lidstaten moeten derhalve communicatie-, administratieve en financiële middelen beschikbaar stellen om dergelijke projecten te ondersteunen en erin te investeren. |
(36) |
Projecten die verband houden met het potentieel dat artificiële intelligentie, robotica en aanverwante technologieën hebben om iets te doen aan punten van zorg op milieugebied, moeten worden uitgevoerd aan de hand van verantwoorde instrumenten van onderzoek en innovatie teneinde te garanderen dat deze projecten vanaf het prille begin in overeenstemming zijn met ethische beginselen. |
(37) |
Alle in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, moeten het recht van de burgers van de Unie op privacy en op de bescherming van hun persoonsgegevens volledig eerbiedigen. Hun ontwikkeling, uitrol en gebruik moeten in het bijzonder in overeenstemming zijn met Verordening (EU) 2016/679 van het Europees Parlement en de Raad (2) en Richtlijn 2002/58/EG van het Europees Parlement en de Raad (3). |
(38) |
In het bijzonder moet naar behoren rekening worden gehouden met de ethische grenzen van het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, wanneer gebruikt wordt gemaakt van technologieën voor herkenning op afstand, zoals herkenning van biometrische kenmerken, met name gezichtsherkenning, om de identiteit van personen automatisch vast te stellen. Wanneer deze technologieën worden gebruikt door overheidsinstanties om redenen van zwaarwegend algemeen belang, namelijk om de veiligheid van personen te waarborgen en om nationale noodsituaties aan te pakken, en niet om de veiligheid van eigendommen te waarborgen, moet het gebruik altijd openbaar worden gemaakt, evenredig zijn, gericht zijn op en beperkt blijven tot specifieke doelstellingen, in de tijd worden beperkt overeenkomstig de EU-wetgeving en met inachtneming van de menselijke waardigheid en autonomie en de in het Handvest opgenomen grondrechten plaatsvinden. De criteria en limieten van dergelijke systemen moeten worden onderworpen aan een toetsing door de rechter, democratisch toezicht en debat met het maatschappelijk middenveld. |
(39) |
Governance die is gebaseerd op relevante normen draagt positief bij aan de veiligheid en bevordert het vertrouwen van burgers in de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd. |
(40) |
De overheid dient een effectbeoordeling met betrekking tot de grondrechten uit te voeren alvorens technologieën met een hoog risico in te zetten die overheidsbesluiten kunnen ondersteunen en die een rechtstreeks en significant effect hebben op de rechten en plichten van de burgers. |
(41) |
Voorbeelden van bestaande relevante governancenormen zijn bijvoorbeeld de “Ethische richtsnoeren voor betrouwbare KI”, opgesteld door de deskundigengroep op hoog niveau inzake artificiële intelligentie die is opgericht door de Europese Commissie, en andere technische normen zoals die zijn vastgesteld door het Europees Comité voor Normalisatie (CEN), het Europees Comité voor elektrotechnische normalisatie (CENELEC) en het Europees Instituut voor telecommunicatienormen (ETSI) op Europees niveau en de Internationale Organisatie voor normalisatie (ISO) en het Institute of Electrical and Electronics Engineers (IEEE) op internationaal niveau. |
(42) |
Het delen en gebruiken van gegevens door meerdere deelnemers is gevoelig en derhalve moet de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën worden geregeld door relevante regels, normen en protocollen die een afspiegeling vormen van de vereisten van kwaliteit, integriteit, veiligheid, betrouwbaarheid, privacy en controle. De strategie voor gegevensbeheer moet zijn gericht op het verwerken en delen van en de toegang tot dergelijke gegevens, met inbegrip van gedegen beheer, controleerbaarheid en traceerbaarheid, en een adequate bescherming garanderen van gegevens die toebehoren aan kwetsbare groepen, waaronder mensen met een handicap, patiënten, kinderen, minderheden en migranten of andere groepen die het risico op uitsluiting lopen. Daarnaast moeten ontwikkelaars, exploitanten en gebruikers in voorkomend geval gebruik kunnen maken van kernprestatie-indicatoren bij de beoordeling van de datasets die zij gebruiken om de betrouwbaarheid te vergroten van de technologieën die zij ontwikkelen, uitrollen en gebruiken. |
(43) |
De lidstaten moeten een onafhankelijke administratieve instantie aanwijzen die als toezichthoudende autoriteit zal fungeren. Elke nationale toezichthoudende autoriteit moet met name verantwoordelijk zijn voor het identificeren van artificiële intelligentie, robotica en aanverwante technologieën die als risicovol worden aangemerkt in het licht van de in deze verordening vastgestelde risicobeoordelingscriteria, en voor het beoordelen en bewaken van de conformiteit van deze technologieën met de in deze verordening vastgestelde verplichtingen. |
(44) |
Elke nationale toezichthoudende autoriteit draagt ook de verantwoordelijkheid voor de goede governance van deze technologieën onder coördinatie van de Commissie en/of relevante instellingen, organen en instanties van de Unie die voor dit doel zijn aangewezen. Zij hebben daarom een belangrijke rol te spelen in de bevordering van het vertrouwen en de veiligheid van de burgers in de Unie en de totstandbrenging van een democratische, pluralistische en rechtvaardige maatschappij. |
(45) |
Om technologieën met een hoog risico overeenkomstig deze verordening te beoordelen en toezicht te houden op de naleving van deze verordening, moeten de nationale toezichthoudende autoriteiten, indien van toepassing, samenwerken met de autoriteiten die verantwoordelijk zijn voor de beoordeling van en het toezicht op deze technologieën en de handhaving van de naleving van de sectorale wetgeving. |
(46) |
Nationale toezichthoudende autoriteiten moeten ook regelmatig nauw samenwerken met elkaar en met de Europese Commissie en andere relevante instellingen, organen en instanties van de Unie teneinde een samenhangend grensoverschrijdend optreden te waarborgen, en zij moeten ervoor zorgen dat deze technologieën in de Unie op consequente wijze kunnen worden ontwikkeld, uitgerold en gebruikt, met inachtneming van de ethische beginselen en wettelijke verplichtingen die in deze verordening zijn opgenomen. |
(47) |
In de context van een dergelijke samenwerking en met het oog op volledige harmonisatie op EU-niveau, moeten de nationale toezichthoudende autoriteiten de Commissie bijstaan bij het opstellen van een gemeenschappelijke en uitputtende lijst van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico in overeenstemming met de criteria die in deze verordening en de bijlage daarbij zijn vastgesteld. Bovendien moet een procedure worden ontwikkeld voor de toekenning van een Europees certificaat van ethische conformiteit, met inbegrip van een vrijwillige aanvraagprocedure voor ontwikkelaars, exploitanten of gebruikers van niet als risicovol beschouwde technologieën, die hun conformiteit met deze verordening wensen te certificeren. |
(48) |
Nationale toezichthoudende autoriteiten moeten garanderen dat er zo veel mogelijk belanghebbenden, zoals industriële partners, ondernemingen, sociale partners, onderzoekers, consumenten en organisaties van het maatschappelijk middenveld, worden samengebracht en een pluralistisch forum bieden voor reflectie en het uitwisselen van standpunten om begrijpelijke en nauwkeurige conclusies te trekken die de reglementering van de governance kunnen sturen. |
(49) |
Nationale toezichthoudende autoriteiten moeten garanderen dat er zo veel mogelijk belanghebbenden, zoals industriële partners, ondernemingen, sociale partners, onderzoekers, consumenten en organisaties van het maatschappelijk middenveld, worden samengebracht en een pluralistisch forum bieden voor reflectie en het uitwisselen van standpunten om samenwerking te vergemakkelijken tussen belanghebbenden, met name uit de academische wereld, de onderzoeks- en industriesector, het maatschappelijk middenveld en individuele deskundigen, om begrijpelijke en nauwkeurige conclusies te trekken die de reglementering van de governance kunnen sturen. |
(50) |
Daarnaast moeten deze nationale toezichthoudende autoriteiten professionele administratieve richtsnoeren bieden en ontwikkelaars, exploitanten en gebruikers, met name kleine en middelgrote bedrijven of start-ups, helpen uitdagingen die verband houden met de eerbiediging van de in deze verordening opgenomen ethische beginselen en wettelijke verplichtingen het hoofd te bieden. |
(51) |
De Commissie en/of relevante instellingen, organen en instanties van de Unie die voor dit doel zijn aangewezen moeten bindende richtsnoeren opstellen over de methodologie die de nationale toezichthoudende autoriteiten moeten gebruiken wanneer ze hun conformiteitsbeoordelingen uitvoeren. |
(52) |
Klokkenluiders brengen potentiële en daadwerkelijke schendingen van de Uniewetgeving onder de aandacht van onze autoriteiten zodat letsel of schade kan worden voorkomen. Daarnaast verbeteren meldingsprocedures de informatiestroom binnen bedrijven en organisaties, zodat het risico dat er gebrekkige of foutieve producten of diensten worden ontwikkeld kan worden beheerst. Bedrijven en organisaties die artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de gegevens die door deze technologieën worden gebruikt of geproduceerd, ontwikkelen, uitrollen of gebruiken, moeten meldingskanalen opzetten en personen die inbreuken melden moeten tegen vergelding worden beschermd. |
(53) |
De snelle ontwikkeling van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, en van technische machine learning, redeneringsprocessen en andere technologieën die aan deze ontwikkeling ten grondslag liggen, is onvoorspelbaar van aard. Als zodanig is het zowel gepast als noodzakelijk om een evaluatiemechanisme op te zetten op basis waarvan de Commissie regelmatig een verslag moet indienen met betrekking tot een mogelijke wijziging van het toepassingsgebied van deze verordening, in aanvulling op de rapporten die zij opstelt over de toepassing ervan. |
(54) |
Aangezien de doelstelling van deze verordening, namelijk het vaststellen van een gemeenschappelijk regelgevingskader van ethische beginselen en wettelijke verplichtingen voor de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën, niet voldoende door de lidstaten kan worden verwezenlijkt en derhalve, vanwege de omvang en de gevolgen ervan, beter op het niveau van de Unie kan worden verwezenlijkt, kan de Unie maatregelen vaststellen, overeenkomstig het subsidiariteitsbeginsel als bedoeld in artikel 5 van het Verdrag betreffende de Europese Unie. Overeenkomstig het in datzelfde artikel neergelegde evenredigheidsbeginsel gaat deze verordening niet verder dan nodig is om deze doelstellingen te verwezenlijken. |
(55) |
Coördinatie op het niveau van de Unie, zoals uiteengezet in deze verordening, wordt het best uitgevoerd door de Commissie en/of relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen, teneinde versnippering te voorkomen en te zorgen voor de consistente tenuitvoerlegging van deze verordening. Daarom moet de Commissie de bevoegdheid krijgen om een passende oplossing te vinden om deze coördinatie op Unieniveau te structureren, teneinde de mandaten en activiteiten van de nationale toezichthoudende autoriteiten in alle lidstaten te coördineren, in het bijzonder met betrekking tot de risicobeoordeling van artificiële intelligentie, robotica en aanverwante technologieën, een gemeenschappelijk kader vast te stellen voor de governance van de ontwikkeling, de uitrol en het gebruik van deze technologieën, een certificaat van conformiteit met de in deze verordening opgenomen ethische beginselen en wettelijke verplichtingen te ontwikkelen en uit te geven, regelmatige uitwisselingen met betrokken belanghebbenden en het maatschappelijk middenveld te stimuleren, op Europees niveau een expertisecentrum op te zetten, waarin de academische wereld, de onderzoeks- en industriesector, en individuele deskundigen samenkomen om kennis en technische expertise uit te wisselen, en de Uniebenadering door internationale samenwerking te bevorderen en een consistente wereldwijde reactie te waarborgen op de kansen en risico’s die inherent zijn aan deze technologieën. |
HEBBEN DE VOLGENDE VERORDENING VASTGESTELD:
Hoofdstuk I
Algemene bepalingen
Artikel 1
Doel
Met deze verordening wordt beoogd een alomvattend en toekomstbestendig juridisch EU-kader vast te stellen van ethische beginselen en wettelijke verplichtingen voor de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën in de Unie.
Artikel 2
Toepassingsgebied
Deze verordening is van toepassing op in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd.
Artikel 3
Geografisch toepassingsgebied
Deze verordening is van toepassing op artificiële intelligentie, robotica en aanverwante technologieën indien ten minste een deel daarvan wordt ontwikkeld, uitgerold of gebruikt in de Unie, ook indien de software, algoritmen of gegevens die door dergelijke technologieën worden gebruikt of geproduceerd zich buiten de Unie bevinden of geen specifieke geografische locatie hebben.
Artikel 4
Definities
Voor de toepassing van deze verordening wordt verstaan onder:
a) |
“artificiële intelligentie”: een door software gestuurd of een in hardware geïntegreerd systeem dat intelligent gedrag vertoont, onder meer door het verzamelen en verwerken van gegevens, het analyseren en interpreteren van zijn omgeving, en het — met een zekere mate van autonomie — ondernemen van actie om specifieke doelstellingen te verwezenlijken (4); |
b) |
“autonomie”: een AI-systeem dat werkt door bepaalde input te interpreteren en door een reeks vooraf vastgestelde instructies te gebruiken, zonder tot deze instructies beperkt te zijn, hoewel het gedrag van het systeem wordt beperkt door en gericht is op het verwezenlijken van de opgedragen doelstelling en andere relevante door zijn ontwikkelaar gemaakte ontwerpkeuzen; |
c) |
“robotica”: technologieën die automatisch geregelde, herprogrammeerbare multifunctionele machines (5) in staat stellen in de fysieke wereld handelingen uit te voeren die traditioneel werden uitgevoerd of geïnitieerd door mensen, onder meer aan de hand van artificiële intelligentie of aanverwante technologieën; |
d) |
“aanverwante technologieën”: technologieën die software in staat stellen met gedeeltelijke of volledige autonomie een fysiek of virtueel proces te beheersen, technologieën die in staat zijn biometrische, genetische of andere gegevens te detecteren, en technologieën die menselijke eigenschappen kopiëren of er anderszins gebruik van maken; |
e) |
“hoog risico”: een aanzienlijk risico dat verbonden is aan de ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën dat schade of letsel wordt berokkend aan personen of de maatschappij, in strijd met de grondrechten en veiligheidsvoorschriften zoals vastgelegd in het recht van de Unie, rekening houdend met het specifieke gebruik of het specifieke doel ervan, de sector waarin zij worden ontwikkeld, uitgerold of gebruikt en de ernst van het letsel of de schade die naar verwachting optreedt; |
f) |
“ontwikkeling”: het bouwen en ontwerpen van algoritmen, het schrijven en ontwikkelen van software of het verzamelen, opslaan en beheren van gegevens om artificiële intelligentie, robotica en aanverwante technologieën tot stand te brengen of te trainen of om een nieuwe toepassing van bestaande artificiële intelligentie, robotica en aanverwante technologieën mogelijk te maken; |
g) |
“ontwikkelaar”: een natuurlijke of rechtspersoon die beslissingen neemt die de koers of de wijze van ontwikkeling van artificiële intelligentie, robotica en aanverwante technologieën bepalen en beheersen; |
h) |
“uitrol”: de exploitatie en het beheer van artificiële intelligentie, robotica en aanverwante technologieën, evenals het op de markt brengen ervan of andere manieren om ze aan gebruikers beschikbaar te stellen; |
i) |
“exploitant”: een natuurlijke of rechtspersoon die betrokken is bij de concrete uitrol van artificiële intelligentie, robotica en aanverwante technologieën, die een controle- of beheerfunctie uitoefent door beslissingen te nemen, de controle over het risico uitoefent en die baat heeft bij de uitrol; |
j) |
“gebruik”: elke actie die verband houdt met artificiële intelligentie, robotica en aanverwante technologieën en geen ontwikkeling of uitrol betreft; |
k) |
“gebruiker”: een natuurlijke of rechtspersoon die gebruikmaakt van artificiële intelligentie, robotica en aanverwante technologieën voor een ander doeleinde dan ontwikkeling of uitrol; |
l) |
“vooringenomenheid”: een bevooroordeelde persoonlijke of sociale perceptie van een persoon of groep personen op basis van hun persoonlijke eigenschappen; |
m) |
“discriminatie”: een afwijkende behandeling van een persoon of groep personen op een grond die niet objectief of redelijkerwijs te rechtvaardigen is en daarom door de Uniewetgeving wordt verboden; |
n) |
“letsel of schade”: onder meer door haatzaaiende uitlatingen, vooringenomenheid, discriminatie of stigmatisering veroorzaakt fysiek of mentaal letsel, materiële of immateriële schade zoals financieel of economisch verlies, mislopen van een kans op werk- of onderwijsgebied, onrechtmatige beperking van de keuzevrijheid of de vrije meningsuiting, verlies van privacy en schending van de Uniewetgeving die/dat nadelig is voor een persoon; |
o) |
“goede governance”: de manier waarop wordt gegarandeerd dat de passende en redelijke normen en protocollen van gedrag worden vastgesteld en in acht worden genomen door ontwikkelaars, exploitanten en gebruikers, op basis van een formele reeks regels, procedures en waarden, zodat zij naar behoren kunnen omgaan met ethische vraagstukken wanneer of voordat deze zich voordoen. |
Artikel 5
Ethische aspecten van artificiële intelligentie, robotica en aanverwante technologieën
1. Alle artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, worden in de Unie ontwikkeld, uitgerold en gebruikt in overeenstemming met het recht van de Unie en met volledige inachtneming van de menselijke waardigheid, autonomie en veiligheid en andere in het Handvest verankerde grondrechten.
2. De verwerking van persoonsgegevens, met inbegrip van persoonsgegevens die zijn afgeleid van niet-persoonsgegevens en biometrische gegevens, in het kader van ontwikkeling, de uitrol en het gebruik van artificiële intelligentie, robotica en aanverwante technologieën wordt uitgevoerd in overeenstemming met Verordening (EU) 2016/679 en Richtlijn 2002/58/EG.
3. De Unie en haar lidstaten moedigen onderzoeksprojecten aan waarmee wordt beoogd oplossingen op basis van artificiële intelligentie, robotica en aanverwante technologieën te verschaffen om sociale inclusie, democratie, pluraliteit, solidariteit, eerlijkheid, gelijkheid en samenwerking te bevorderen.
HOOFDSTUK II
Verplichtingen voor technologieën met een hoog risico
Artikel 6
Verplichtingen voor technologieën met een hoog risico
1. De bepalingen in dit hoofdstuk zijn alleen van toepassing op in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, die als risicovol worden aangemerkt.
2. Alle in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, worden ontwikkeld, uitgerold en gebruikt op een manier die waarborgt dat ze geen van de ethische beginselen uit deze verordening schenden.
Artikel 7
Door de mens gemaakte artificiële intelligentie waarbij de mens centraal staat
1. Alle artificiële technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, worden ontwikkeld, uitgerold en gebruikt op een manier die te allen tijde volledig menselijk toezicht garandeert.
2. De technologieën die worden vermeld in lid 1 worden ontwikkeld, uitgerold en gebruikt op een manier die het mogelijk maakt om indien nodig de volledige menselijke controle te herwinnen, onder meer door deze technologieën aan te passen of stop te zetten.
Artikel 8
Veiligheid, transparantie en verantwoordingsplicht
1. Alle in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, zullen:
a) |
op een veerkrachtige manier worden ontwikkeld, uitgerold en gebruikt zodat een adequaat niveau van veiligheid kan worden gegarandeerd door aan minimale waarden op het gebied van cyberveiligheid te voldoen die in verhouding staan tot het vastgestelde risico, en wordt voorkomen dat technische kwetsbaarheden worden benut voor oneerlijke of onrechtmatige doeleinden; |
b) |
op een veilige manier worden ontwikkeld, uitgerold en gebruikt zodat er gegarandeerde waarborgen zijn, waaronder een uitwijkplan en maatregelen die worden genomen in het geval van een veiligheids- of beveiligingsrisico; |
c) |
zo worden ontwikkeld, uitgerold en gebruikt dat er betrouwbare prestaties worden geleverd zoals redelijkerwijs verwacht door de gebruiker met betrekking tot de verwezenlijking van de doelstellingen en het uitvoeren van de activiteiten waarvoor ze in het leven zijn geroepen, onder meer door te garanderen dat alle verrichtingen kunnen worden gereproduceerd; |
d) |
zo worden ontwikkeld, uitgerold en gebruikt dat de doelstellingen en activiteiten van de specifieke technologieën nauwkeurig worden gerealiseerd en uitgevoerd; indien incidentele onnauwkeurigheden niet kunnen worden voorkomen, brengt het systeem exploitanten en gebruikers op een passende manier, voor zover mogelijk, op de hoogte van de kans dat er zich fouten en onnauwkeurigheden voordoen; |
e) |
op een gemakkelijk verklaarbare manier worden ontwikkeld, uitgerold en gebruikt om te garanderen dat de technische processen van de technologieën kunnen worden gecontroleerd; |
f) |
zo worden ontwikkeld, uitgerold en gebruikt dat ze gebruikers informeren dat ze interactie hebben met systemen van artificiële intelligentie en hierbij hun capaciteiten, nauwkeurigheid en beperkingen gedegen en alomvattend kenbaar maken aan ontwikkelaars, exploitanten en gebruikers van artificiële intelligentie; |
g) |
overeenkomstig artikel 6 zo worden ontwikkeld, uitgerold en gebruikt dat indien niet wordt voldaan aan de veiligheidsvereisten onder a) tot en met g), de functies in kwestie tijdelijk kunnen worden uitgeschakeld en weer kunnen worden teruggezet naar hun vorige toestand waarbij de veilige functies worden hersteld. |
2. In overeenstemming met artikel 6, lid 1, worden de in lid 1 van dit artikel genoemde technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, op een transparante en traceerbare manier ontwikkeld, uitgerold en gebruikt zodat hun elementen, processen en stadia op grond van de hoogst mogelijke toepasselijke normen worden gedocumenteerd en het voor de in artikel 18 bedoelde nationale toezichthoudende autoriteiten mogelijk is te beoordelen of dergelijke technologieën voldoen aan de verplichtingen op grond van deze verordening. De ontwikkelaar, exploitant of gebruiker van deze technologieën is met name verantwoordelijk voor naleving van de in lid 1 beschreven veiligheidsvereisten en kan aantonen dat deze in acht worden genomen.
3. De ontwikkelaar, exploitant of gebruiker van de in lid 1 genoemde technologieën garandeert dat de maatregelen die worden getroffen om te garanderen dat wordt voldaan aan de veiligheidsvereisten uit lid 1, kunnen worden gecontroleerd door de nationale toezichthoudende autoriteiten waarnaar wordt verwezen in artikel 18, of, indien van toepassing, andere nationale en Europese sectorale toezichthoudende organen.
Artikel 9
Geen vooringenomenheid en discriminatie
1. Alle software, algoritmen of gegevens die worden gebruikt of geproduceerd door in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, zijn niet vooringenomen en discrimineren, zonder afbreuk te doen aan lid 2, niet op gronden als ras, geslacht, seksuele geaardheid, zwangerschap, handicap, fysieke of genetische kenmerken, leeftijd, nationale minderheid, etnische of sociale afkomst, taal, religie of overtuiging, politieke standpunten of burgerparticipatie, staatsburgerschap, burgerlijke staat of economische status, onderwijs of strafblad.
2. In afwijking van lid 1, en zonder afbreuk te doen aan de Uniewetgeving inzake onwettige discriminatie, kan een afwijkende behandeling van personen of groepen personen alleen worden gerechtvaardigd wanneer er sprake is van een objectief, redelijk en legitiem doel dat zowel evenredig is als noodzakelijk in de zin dat er geen alternatief is dat het beginsel van gelijke behandeling in minder mate zou schenden.
Artikel 10
Maatschappelijke verantwoordelijkheid en gendergelijkheid
Alle artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico die in de Unie worden ontwikkeld, uitgerold en gebruikt, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, worden in overeenstemming met de relevante Uniewetgeving, -beginselen en -waarden ontwikkeld, uitgerold en gebruikt, op een manier die verkiezingen niet hindert of die niet bijdraagt aan de verspreiding van desinformatie, die de rechten van werknemers eerbiedigt, kwalitatief onderwijs en digitale geletterdheid bevordert, de genderkloof niet vergroot door gelijke kansen voor iedereen te voorkomen en die intellectuele-eigendomsrechten en eventuele beperkingen daarvan of uitzonderingen daarop niet schendt.
Artikel 11
Milieuduurzaamheid
Alle artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, worden beoordeeld op hun milieuduurzaamheid door de in artikel 18 bedoelde nationale toezichthoudende autoriteiten, of, indien van toepassing, door andere nationale of Europese sectorale toezichthoudende organen, waarbij wordt gegarandeerd dat er maatregelen worden getroffen om hun algemene impact op natuurlijke hulpbronnen, energieverbruik, afvalproductie, de koolstofvoetafdruk, de noodtoestand op het gebied van de klimaatverandering en milieuvervuiling te beperken, om ervoor te zorgen dat het toepasselijke Unie- en nationale recht nageleefd wordt, evenals andere internationale milieuverbintenissen van de Unie.
Artikel 12
Eerbiediging van de privacy en bescherming van persoonsgegevens
Het gebruik en de verzameling van biometrische gegevens voor identificatie op afstand in openbare ruimten, zoals biometrische of gezichtsherkenning, houdt specifieke risico’s in voor de grondrechten en wordt alleen uitgerold of gebruikt door de openbare autoriteiten van de lidstaten voor doeleinden van aanzienlijk openbaar belang. Die autoriteiten waarborgen dat een dergelijke uitrol of een dergelijk gebruik openbaar wordt gemaakt, evenredig is, gericht is op en beperkt blijft tot specifieke doelstellingen en in de tijd wordt beperkt, in overeenstemming met de Unie- en nationale wetgeving, met name Verordening (EU) 2016/679 en Richtlijn 2002/58/EG, en met inachtneming van de menselijke waardigheid en autonomie en de in het Handvest opgenomen grondrechten, namelijk het recht op privacy en de bescherming van persoonsgegevens.
Artikel 13
Recht op verhaal
Elke natuurlijke of rechtspersoon heeft het recht om verhaal te halen voor letsel of schade dat/die is berokkend door de ontwikkeling, de uitrol of het gebruik van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, waarbij de Uniewetgeving en de in deze verordening vastgestelde verplichtingen worden geschonden.
Artikel 14
Risicobeoordeling
1. Voor de toepassing van deze verordening worden artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, beschouwd als technologieën met een hoog risico wanneer na een risicobeoordeling op basis van objectieve criteria zoals hun specifieke gebruik of doel, de sector waarin zij worden ontwikkeld, uitgerold of gebruikt en de ernst van de eventuele letsels of schade, blijkt dat de ontwikkeling, de uitrol en het gebruik ervan een aanzienlijk risico inhoudt op schade of letsel aan personen of de maatschappij, in strijd met de grondrechten en de veiligheidsvoorschriften zoals vastgesteld in de Uniewetgeving.
2. Onverminderd de toepasselijke sectorale wetgeving wordt de risicobeoordeling van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, door de in artikel 18 bedoelde nationale toezichthoudende autoriteiten uitgevoerd in overeenstemming met de objectieve criteria waarin is voorzien in lid 1 van dit artikel en in de uitputtende en cumulatieve lijst in de bijlage bij deze verordening en onder coördinatie van de Commissie en/of andere relevante instellingen, organen en instanties van de Unie die in de context van samenwerking voor dit doel zijn aangewezen.
3. In samenwerking met de in lid 2 bedoelde nationale toezichthoudende autoriteiten stelt de Commissie door middel van gedelegeerde handelingen overeenkomstig artikel 20 een gemeenschappelijke lijst op van in de Unie in kaart gebrachte technologieën met een hoog risico en actualiseert zij deze lijst.
4. Ook actualiseert de Commissie door middel van gedelegeerde handelingen overeenkomstig artikel 20 de in de bijlage bij deze verordening opgenomen lijst regelmatig.
Artikel 15
Conformiteitsbeoordeling
1. Artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico worden onderworpen aan een beoordeling van de conformiteit met de in de artikelen 6 tot en met 12 van deze verordening vastgestelde verplichtingen, evenals aan daaropvolgende monitoring, beide door de nationale toezichthoudende autoriteiten zoals bedoeld in artikel 18, onder de coördinatie van de Commissie en/of andere relevante instellingen, organen en instanties van de Unie die voor dit doel zijn aangewezen.
2. De software, algoritmen en gegevens die worden gebruikt of geproduceerd door technologieën met een hoog risico die overeenkomstig lid 1 zijn beoordeeld als conform met de in deze verordening vastgestelde verplichtingen, worden geacht conform met deze verplichtingen te zijn, tenzij de relevante nationale toezichthoudende autoriteit besluit op eigen initiatief of op verzoek van de ontwikkelaar, de exploitant of de gebruiker, een beoordeling uit te voeren.
3. Onverminderd de sectorale wetgeving en uiterlijk op de datum dat deze verordening in werking treedt, stellen de Commissie en/of relevante instellingen, organen en instanties van de Unie die specifiek voor dit doel zijn aangewezen bindende richtsnoeren op over de methodologie die de nationale toezichthoudende autoriteiten moeten gebruiken wanneer ze hun in lid 1 bedoelde conformiteitsbeoordelingen uitvoeren.
Artikel 16
Europees certificaat van ethische conformiteit
1. Wanneer artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, een positieve beoordeling hebben gekregen die is uitgevoerd overeenkomstig artikel 15, geeft de respectieve nationale toezichthoudende autoriteit een Europees certificaat van ethische conformiteit af.
2. Ontwikkelaars, exploitanten of gebruikers van artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, die niet als risicovol worden beschouwd en die bijgevolg niet zijn onderworpen aan de in de artikelen 6 tot en met 12 vastgestelde verplichtingen, noch aan de in de artikelen 14 en 15 bedoelde risico- en conformiteitsbeoordeling, kunnen ook verzoeken om de conformiteit met de in deze verordening vastgestelde verplichtingen te certificeren, of met een deel van de verplichtingen wanneer dat gerechtvaardigd is door de aard van de technologie in kwestie zoals besloten door de nationale toezichthoudende autoriteiten. Een certificaat wordt alleen afgegeven als de relevante nationale toezichthoudende autoriteit een conformiteitsbeoordeling heeft uitgevoerd en die beoordeling positief was.
3. Voor de afgifte van het in lid 2 bedoelde certificaat ontwikkelen de Commissie en/of andere relevante instellingen, organen en instanties van de Unie die voor dit doel zijn aangewezen een aanvraagprocedure.
Hoofdstuk III
Institutioneel toezicht
Artikel 17
Governancenormen en uitvoeringsrichtsnoeren
1. In de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën voldoen aan relevante governancenormen die door de in artikel 18 bedoelde nationale toezichthoudende autoriteiten zijn vastgesteld in overeenstemming met de Uniewetgeving, -beginselen en -waarden, onder de coördinatie van de Commissie en/of relevante instellingen, organen en instanties van de Unie die voor dit doel zijn aangewezen en in overleg met de relevante belanghebbenden.
2. De in lid 1 bedoelde normen omvatten niet-bindende uitvoeringsrichtsnoeren over de methodologie die door ontwikkelaars, exploitanten en gebruikers moet worden gehanteerd om te voldoen aan deze verordening en worden uiterlijk op de datum van inwerkingtreding van deze verordening gepubliceerd.
3. Gegevens die worden gebruikt of geproduceerd door in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën worden door ontwikkelaars, exploitanten en gebruikers beheerd in overeenstemming met de relevante regels en normen van de lidstaten, de Unie en andere Europese en internationale organisaties, evenals met relevante branche- en zakelijke protocollen. Met name ontwikkelaars en exploitanten voeren, indien dit haalbaar is, kwaliteitscontroles uit op de externe bronnen van de gegevens die worden gebruikt door artificiële intelligentie, robotica en aanverwante technologieën, en zetten mechanismen op om toezicht te houden op hun verzameling, opslag, verwerking en gebruik.
4. Zonder afbreuk te doen aan de rechten van overdraagbaarheid en de rechten van personen van wie het gebruik van artificiële intelligentie, robotica en aanverwante technologieën gegevens heeft opgeleverd, voldoen de verzameling, de opslag, de verwerking en het delen van en de toegang tot gegevens die worden gebruikt of geproduceerd door in de Unie ontwikkelde, uitgerolde of gebruikte artificiële intelligentie, robotica en aanverwante technologieën aan de relevante regels en normen van de lidstaten, de Unie en andere Europese en internationale organisaties, evenals aan relevante branche- en zakelijke protocollen. Met name ontwikkelaars en exploitanten garanderen dat die protocollen worden toegepast tijdens de ontwikkeling en uitrol van artificiële intelligentie, robotica en aanverwante technologieën, door de vereisten voor het verwerken van en het bieden van toegang tot gegevens die worden gebruikt of geproduceerd door deze technologieën, evenals het doeleinde, de reikwijdte en de geadresseerden van de verwerking en van de verstrekking van toegang tot dergelijke gegevens — informatie die op elk moment controleerbaar en traceerbaar is — duidelijk te definiëren.
Artikel 18
Toezichthoudende autoriteiten
1. Elke lidstaat wijst een onafhankelijke overheidsinstantie aan die verantwoordelijk is voor het toezicht op de toepassing van deze verordening (de “toezichthoudende autoriteit”) en voor het uitvoeren van de risico- en conformiteitsbeoordeling en de certificering als bedoeld in de artikelen 14, 15 en 16, onverminderd de sectorale wetgeving.
2. Elke nationale toezichthoudende autoriteit draagt bij tot de consequente toepassing van deze verordening in de hele Unie. Daartoe werken de toezichthoudende autoriteiten in alle lidstaten samen met elkaar, de Commissie en/of andere relevante instellingen, organen en instanties van de Unie, die voor dit doel zijn aangewezen.
3. Elke nationale toezichthoudende autoriteit fungeert als eerste contactpunt in gevallen van vermoedelijke schending van de in deze verordening vastgestelde ethische beginselen en wettelijke verplichtingen, met inbegrip van discriminerende behandeling of schending van andere rechten, als gevolg van de ontwikkeling, de uitrol of het gebruik van artificiële intelligentie, robotica en aanverwante technologieën. In dergelijke gevallen voert de nationale toezichthoudende autoriteit een conformiteitsbeoordeling uit met het oog op de ondersteuning van het recht van burgers op bezwaar en verhaal.
4. Elke nationale toezichthoudende autoriteit is verantwoordelijk voor het toezicht op de toepassing van de in artikel 17 bedoelde relevante nationale, Europese en internationale governanceregels en -normen op artificiële intelligentie, robotica en aanverwante technologieën, onder meer door contact te onderhouden met zo veel mogelijk relevante belanghebbenden. Hiertoe verschaffen de toezichthoudende autoriteiten in elke lidstaat een forum voor regelmatige uitwisselingen met en tussen belanghebbenden uit de academische wereld, de onderzoeks- en industriesector en het maatschappelijk middenveld.
5. Elke nationale toezichthoudende autoriteit biedt professionele en administratieve richtsnoeren en ondersteuning inzake de algemene toepassing van de Uniewetgeving die van toepassing is op artificiële intelligentie, robotica en aanverwante technologieën, en de ethische beginselen uit deze verordening, met name aan relevante onderzoeks- en ontwikkelingsorganisaties en kleine en middelgrote ondernemingen en start-ups.
6. Elke lidstaat stelt de Europese Commissie uiterlijk … [PB: Gelieve de datum één jaar na inwerkingtreding in te voegen] in kennis van de wettelijke bepalingen die het op grond van dit artikel vaststelt en, onverwijld, van enige daaropvolgende wijzigingen die gevolgen hebben voor deze bepalingen.
7. De lidstaten treffen alle maatregelen die noodzakelijk zijn om de toepassing van de in deze verordening vastgestelde ethische beginselen en wettelijke verplichtingen te waarborgen. De lidstaten ondersteunen relevante belanghebbenden en het maatschappelijk middenveld, zowel op Unie- als op nationaal niveau, bij hun inspanningen om een tijdige, ethische en goed geïnformeerde reactie te garanderen op de nieuwe kansen en uitdagingen — met name die die grensoverschrijdend van aard zijn — die voortvloeien uit technologische ontwikkelingen met betrekking tot artificiële intelligentie, robotica en aanverwante technologieën.
Artikel 19
Melding van inbreuken en bescherming van personen die melding doen
Richtlijn (EU) 2019/1937 van het Europees Parlement en de Raad (6) is van toepassing op de melding van inbreuken op deze verordening en de bescherming van personen die dergelijke inbreuken melden.
Artikel 20
Coördinatie op Unieniveau
1. De Commissie en/of relevante instellingen, organen en instanties van de Unie die in dit verband kunnen worden aangewezen voeren de volgende taken uit:
— |
waarborgen van een consistente risicobeoordeling van artificiële intelligentie, robotica en aanverwante technologieën zoals bedoeld in artikel 14, die wordt uitgevoerd door de nationale toezichthoudende autoriteiten zoals bedoeld in artikel 18, op basis van de gemeenschappelijke objectieve criteria die zijn vastgesteld in artikel 8, lid 1, en in de lijst van sectoren met een hoog risico en toepassingen of doeleinden met een hoog risico, zoals vastgesteld in de bijlage bij deze verordening; |
— |
kennisnemen van de conformiteitsbeoordeling en daaropvolgende monitoring van artificiële intelligentie, robotica en aanverwante technologieën met een hoog risico zoals bedoeld in artikel 15 die moet worden uitgevoerd door de nationale toezichthoudende autoriteiten zoals bedoeld in artikel 18; |
— |
ontwikkelen van de aanvraagprocedure voor het certificaat zoals bedoeld in artikel 16, dat wordt afgegeven door de nationale toezichthoudende autoriteiten zoals bedoeld in artikel 18; |
— |
voorbereiden van de bindende richtsnoeren zoals bedoeld in artikel 17, lid 4, over de methodologie die nationale toezichthoudende autoriteiten zoals bedoeld in artikel 18 moeten gebruiken; |
— |
coördineren van de vaststelling van de relevante governancenormen zoals bedoeld in artikel 17 door de nationale toezichthoudende autoriteiten zoals bedoeld in artikel 18, met inbegrip van niet-bindende uitvoeringsrichtsnoeren voor ontwikkelaars, exploitanten en gebruikers over de methodologie die moet worden gehanteerd om te voldoen aan deze verordening; |
— |
samenwerken met de nationale toezichthoudende autoriteiten zoals bedoeld in artikel 18 met betrekking tot hun bijdrage aan de consistente toepassing van deze verordening in de hele Unie, overeenkomstig artikel 18, lid 2; |
— |
fungeren als expertisecentrum door de uitwisseling van informatie met betrekking tot artificiële intelligentie, robotica en aanverwante technologieën te bevorderen, de ontwikkeling van een gemeenschappelijk begrip van de eengemaakte markt te ondersteunen, extra richtsnoeren, adviezen en deskundigheid te verstrekken aan de nationale toezichthoudende autoriteiten zoals bedoeld in artikel 18, de tenuitvoerlegging van de relevante Uniewetgeving te monitoren, normen voor beste praktijken vast te stellen en indien van toepassing aanbevelingen te doen voor regelgevingsmaatregelen; daarbij moeten zij met zo veel mogelijk relevante belanghebbenden contact onderhouden en ervoor zorgen dat de samenstelling van hun besluitvormingsniveaus divers is en gendergelijkheid waarborgt; |
— |
organiseren van een werkgroep inzake veiligheid en defensie, die gericht is op het onderzoeken van beleids- en investeringskwesties die specifiek verband houden met het ethisch gebruik van artificiële intelligentie, robotica en aanverwante technologieën op het gebied van veiligheid en defensie. |
Artikel 21
Uitoefening van de bevoegdheidsdelegatie
1. De bevoegdheid om gedelegeerde handelingen vast te stellen, wordt aan de Commissie toegekend onder de in dit artikel neergelegde voorwaarden.
2. De in artikel 14, leden 3 en 4, bedoelde bevoegdheid om gedelegeerde handelingen vast te stellen, wordt aan de Commissie toegekend voor een termijn van vijf jaar met ingang van [datum van inwerkingtreding van deze verordening].
3. De in artikel 14, leden 3 en 4, bedoelde bevoegdheidsdelegatie kan te allen tijde door het Europees Parlement of de Raad worden ingetrokken. Het besluit tot intrekking beëindigt de delegatie van de in dat besluit genoemde bevoegdheid. Deze treedt in werking op de dag na de bekendmaking van het besluit in het Publicatieblad van de Europese Unie of een latere datum die daarin nader wordt bepaald. Het laat de geldigheid van de reeds van kracht zijnde gedelegeerde handelingen onverlet.
4. Vóór de vaststelling van een gedelegeerde handeling raadpleegt de Commissie de door elke lidstaat aangewezen deskundigen overeenkomstig de beginselen die zijn neergelegd in het Interinstitutioneel Akkoord over beter wetgeven van 13 april 2016.
5. Zodra de Commissie een gedelegeerde handeling heeft vastgesteld, doet zij daarvan gelijktijdig kennisgeving aan het Europees Parlement en de Raad.
6. Een overeenkomstig artikel 14, leden 3 en 4, vastgestelde gedelegeerde handeling treedt alleen in werking indien het Europees Parlement noch de Raad binnen een termijn van drie maanden na de kennisgeving van de handeling aan het Europees Parlement en de Raad daartegen bezwaar heeft gemaakt, of indien zowel het Europees Parlement als de Raad voor het verstrijken van die termijn de Commissie hebben medegedeeld dat zij daartegen geen bezwaar zullen maken. Die termijn wordt op initiatief van het Europees Parlement of de Raad met drie maanden verlengd.
Artikel 22
Wijziging van Richtlijn (EU) 2019/1937
Richtlijn (EU) 2019/1937 wordt als volgt gewijzigd:
(1) |
In artikel 2, lid 1, wordt het volgende punt toegevoegd:
|
(2) |
In deel I van de bijlage wordt het volgende punt toegevoegd:
|
Artikel 23
Evaluatie
De Commissie evalueert regelmatig de ontwikkelingen met betrekking tot artificiële intelligentie, robotica en aanverwante technologieën, met inbegrip van de software, algoritmen en gegevens die door dergelijke technologieën worden gebruikt of geproduceerd, en dient uiterlijk op … [PB: Gelieve de datum drie jaar na inwerkingtreding in te voegen], en elke drie jaar daarna, een verslag in bij het Europees Parlement, de Raad en het Europees Economisch en Sociaal Comité over de toepassing van deze verordening, met onder meer een beoordeling van de eventuele wijziging van het toepassingsgebied van de verordening.
Artikel 24
Inwerkingtreding
Deze verordening treedt in werking op de twintigste dag na die van de bekendmaking ervan in het Publicatieblad van de Europese Unie.
Zij is van toepassing met ingang van XX.
Deze verordening is verbindend in al haar onderdelen en is rechtstreeks toepasselijk in elke lidstaat.
Gedaan te …,
Voor het Europees Parlement
De Voorzitter
Voor de Raad
De Voorzitter
BIJLAGE
Uitputtende en cumulatieve lijst van sectoren met een hoog risico en toepassingen of doeleinden met een hoog risico die een risico op schending van grondrechten en veiligheidsvoorschriften inhouden.
Sectoren met een hoog risico |
|
||||||||||||||||||||||||||||
Toepassingen of doeleinden met een hoog risico |
|
(1) Voor geautomatiseerde voertuigen zijn zes niveaus van geautomatiseerd rijden voorgesteld in de internationale SAE-norm J3016, voor het laatst bijgewerkt in 2018: J3016_201806, https://www.sae.org/standards/content/j3016_201806/
(2) Verordening (EU) 2016/679 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens en betreffende het vrije verkeer van die gegevens en tot intrekking van Richtlijn 95/46/EG (algemene verordening gegevensbescherming) (PB L 119 van 4.5.2016, blz. 1).
(3) Richtlijn 2002/58/EG van het Europees Parlement en de Raad van 12 juli 2002 betreffende de verwerking van persoonsgegevens en de bescherming van de persoonlijke levenssfeer in de sector elektronische communicatie (richtlijn betreffende privacy en elektronische communicatie) (PB L 201 van 31.7.2002, blz. 37).
(4) Definitie als in de mededeling van de Europese Commissie, COM(2018)0237 van 25.4.2018, blz. 1, aangepast.
(5) Van de definitie van industriële robots in ISO 8373.
(6) Richtlijn (EU) 2019/1937 van het Europees Parlement en de Raad van 23 oktober 2019 inzake de bescherming van personen die inbreuken op het Unierecht melden (PB L 305 van 26.11.2019, blz. 17).