Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52019AE1830

    Advies van het Europees Economisch en Sociaal Comité over de mededeling van de Commissie aan het Europees Parlement, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio’s — Vertrouwen kweken in mensgerichte kunstmatige intelligentie(COM(2019) 168 final)

    EESC 2019/01830

    PB C 47 van 11.2.2020, p. 64–68 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    11.2.2020   

    NL

    Publicatieblad van de Europese Unie

    C 47/64


    Advies van het Europees Economisch en Sociaal Comité over de mededeling van de Commissie aan het Europees Parlement, de Raad, het Europees Economisch en Sociaal Comité en het Comité van de Regio’s — Vertrouwen kweken in mensgerichte kunstmatige intelligentie

    (COM(2019) 168 final)

    (2020/C 47/09)

    Rapporteur: Franca SALIS-MADINIER

    Raadpleging

    Europese Commissie, 3.6.2019

    Rechtsgrondslag

    Artikel 304 van het Verdrag betreffende de werking van de Europese Unie

    Bevoegde afdeling

    Interne Markt, Productie en Consumptie

    Goedkeuring door de afdeling

    18.10.2019

    Goedkeuring door de voltallige vergadering

    30.10.2019

    Zitting nr.

    547

    Stemuitslag

    (voor/tegen/onthoudingen)

    198/1/4

    1.   Conclusies en aanbevelingen

    1.1.

    Kunstmatige intelligentie (KI) is geen doel op zich, maar een middel dat tot grondige positieve veranderingen kan leiden, doch ook risico’s met zich kan meebrengen. Daarom moet het gebruik ervan in goede banen worden geleid.

    1.2.

    De Commissie zou maatregelen moeten nemen om misbruik van KI en machinaal leren te voorspellen, te voorkomen en te verbieden. Ook zou ze het op de markt brengen van producten die met kwade bedoelingen zijn gemaakt beter moeten reguleren.

    1.3.

    Met name moet de EU bevorderen dat er KI-systemen worden ontwikkeld die gericht zijn op concrete toepassingen waarmee de milieu- en klimaattransitie kan worden bespoedigd.

    1.4.

    Bepaald moet worden welke uitdagingen aangepakt kunnen worden door middel van gedragscodes, zelfregulering en vrijwillige verbintenissen, en welke uitdagingen via wet- en regelgeving dienen te worden aangepakt, waarbij toezicht moet worden gehouden en in geval van niet-naleving een sanctie moet worden opgelegd. Hoe dan ook moeten de KI-systemen stroken met de bestaande wetgeving.

    1.5.

    De aanpak van KI moet niet alleen rekening houden met technische, maar ook met maatschappelijke en ethische aspecten. Het EESC stelt tot zijn genoegen vast dat de EU een mensgerichte benadering van KI wil uitwerken die in overeenstemming is met de waarden waarop de EU berust: eerbied voor de menselijke waardigheid, vrijheid, democratie, gelijkheid en non-discriminatie, de rechtsstaat en eerbiediging van de mensenrechten.

    1.6.

    Het EESC wijst er nog eens op (1) dat werknemers en hun vertegenwoordigers geraadpleegd en geïnformeerd moeten worden over de invoering van KI-systemen die veranderingen teweeg kunnen brengen in de organisatie van werk, het toezicht en de controle daarop en in systemen om werknemers te beoordelen en aan te werven. De Commissie moet de sociale dialoog bevorderen om de werknemers bij het gebruik van KI-systemen te betrekken.

    1.7.

    Het EESC benadrukt (2) dat KI pas vertrouwen kan inboezemen als er menselijke controle is over de machine en als de burgers over het gebruik ervan worden geïnformeerd. KI-systemen moeten verklaarbaar zijn. Is dat niet mogelijk, dan moeten burgers en consumenten informatie krijgen over de beperkingen en risico’s ervan.

    1.8.

    De EU moet de “opkomende risico’s” (3) voor de gezondheid en veiligheid op het werk aanpakken. Er moeten normen worden vastgesteld om te voorkomen dat autonome systemen mensen schade of nadeel berokkenen. Werknemers moeten worden opgeleid om met machines te werken en ze in geval van nood stil te leggen.

    1.9.

    Het EESC pleit voor de ontwikkeling van een solide certificeringssysteem op basis van testprocedures waarmee bedrijven kunnen aantonen dat hun KI-systemen betrouwbaar en veilig zijn. De transparantie, traceerbaarheid en verklaarbaarheid van algoritmische besluitvormingsprocessen vormen een technische uitdaging. Om die aan te gaan moet gebruik worden gemaakt van EU-instrumenten zoals het programma Horizon Europa.

    1.10.

    De inachtneming van de privacy en de bescherming van gegevens zijn bepalend voor de mate waarin burgers en consumenten vertrouwen hebben in KI. De eigendom van gegevens, de controle erop en het gebruik ervan door bedrijven en organisaties zijn kwesties die nog lang niet geregeld zijn (met name waar het gaat om het internet der dingen). Het EESC spoort de Commissie aan om de algemene verordening gegevensbescherming (AVG) (4) en aanverwante regelingen regelmatig te herzien in het licht van de technologische ontwikkelingen.

    1.11.

    Volgens het EESC moet absoluut worden nagedacht over de manier waarop KI-systemen kunnen worden ingezet om de uitstoot van broeikasgassen te verminderen, met name in de industrie, het vervoer, de energiesector, de bouw en de landbouw. Het pleit ervoor om de klimaattransitie en de digitale transitie aan elkaar te koppelen.

    1.12.

    Naar de mening van het EESC is het controleren van KI-systemen mogelijk niet voldoende om de verantwoordelijkheden te bepalen en vertrouwen te wekken. Het EESC raadt aan om prioriteit te verlenen aan het vaststellen van duidelijke regels waarbij in geval van niet-naleving de aansprakelijkheid zou moeten liggen bij de rechtspersoonlijkheden: natuurlijke of rechtspersonen. Voorts zou het EESC graag zien dat de Commissie prioritair de fundamentele kwestie van de verzekerbaarheid van KI-systemen onderzoekt.

    1.13.

    Het EESC stelt voor dat er voor bedrijven die zich aan de normen houden een “Europees certificaat voor betrouwbare KI-ondernemingen” wordt ontwikkeld, aan de hand van o.m. de beoordelingslijst die door de deskundigengroep op hoog niveau (GHN) inzake KI is voorgesteld.

    1.14.

    Door de werkzaamheden ter zake binnen de G-7, de G20 en in bilaterale dialoogbijeenkomsten te bevorderen, moet de EU ervoor proberen te zorgen dat het reguleren van KI de Europese grenzen overstijgt. Er moet toegewerkt worden naar een internationaal akkoord voor betrouwbare kunstmatige intelligentie, zodat er internationale normen kunnen worden ontwikkeld en de relevantie ervan regelmatig kan worden gecontroleerd.

    2.   Inhoud van het Commissievoorstel

    2.1.

    Onderhavige mededeling is gebaseerd op de werkzaamheden van de GHN die de Commissie in juni 2018 heeft ingesteld. In deze mededeling omschrijft de Commissie zeven essentiële vereisten om voor vertrouwen in KI te zorgen (zie paragraaf 4 van dit advies).

    2.2.

    De Commissie heeft het startschot gegeven voor een proeffase waarbij tal van belanghebbenden zijn betrokken. Hierin zal met name worden gefocust op de beoordelingslijst die de GHN voor elk van de essentiële vereisten heeft opgesteld. Begin 2020 zal de GHN de beoordelingslijst evalueren en bijwerken. Eventueel zal de Commissie dan nieuwe maatregelen voorstellen.

    2.3.

    De Commissie wil haar benadering van KI op mondiaal niveau uitdragen en zal een actieve rol blijven spelen, ook in de G-7 en de G20.

    3.   Algemene opmerkingen

    3.1.

    Wil men KI mensgericht benaderen, dan moeten naast de technische ook de maatschappelijke en ethische aspecten onder de loep worden genomen. Het EESC is verheugd dat de EU-instellingen voornemens zijn een mensgerichte benadering van KI uit te werken die in overeenstemming is met de waarden waarop de EU berust: eerbied voor de menselijke waardigheid, vrijheid, democratie, gelijkheid en non-discriminatie, de rechtsstaat en eerbiediging van de mensenrechten. Volgens de Commissie (5) is KI geen doel op zich, maar een middel dat tot grondige positieve veranderingen kan leiden. Net als ieder ander instrument brengt KI zowel mogelijkheden als risico’s met zich mee. Daarom moet de EU het gebruik ervan in goede banen leiden en de verantwoordelijkheden ter zake duidelijk omschrijven.

    3.2.

    Vertrouwen in een mensgerichte KI zal ontstaan als de waarden en beginselen worden benadrukt, een welomschreven regelgevingskader wordt vastgesteld en ethische richtsnoeren worden geformuleerd die essentiële vereisten bevatten.

    3.3.

    Samen met alle belanghebbenden moet worden bepaald welke van de vele uitdagingen die met KI gepaard gaan, via wet- en regelgeving dienen te worden aangepakt, waarbij in follow-upmechanismen moet worden voorzien en in geval van niet-naleving een sanctie moet worden opgelegd, en welke uitdagingen aangepakt kunnen worden door middel van gedragscodes, zelfregulering en vrijwillige verbintenissen. Het EESC juicht het toe dat de Commissie beginselen heeft overgenomen die oorspronkelijk door het EESC zijn voorgesteld, maar betreurt het dat zij in dit stadium geen specifieke maatregelen voorstelt waarmee wordt gereageerd op de gegronde zorgen die er op het gebied van consumentenrechten, systeembeveiliging en aansprakelijkheid bestaan.

    3.4.

    KI-systemen moeten het bestaande regelgevingskader in acht nemen, met name waar het gaat om bescherming van persoonsgegevens, productaansprakelijkheid, consumentenbescherming, non-discriminatie, beroepskwalificaties, alsmede voorlichting en raadpleging van werknemers op de werkplek. Gewaarborgd moet worden dat de wetgeving is afgestemd op de nieuwe uitdagingen die met digitalisering en KI gepaard gaan.

    3.5.

    Zoals de Commissie opmerkt, moet worden voorzien in “processen ter verduidelijking en beoordeling van de mogelijke risico’s door het gebruik van KI-systemen, in diverse toepassingsgebieden” (6). Het EESC hecht zeer veel belang aan de toekomstige regels voor deze beoordeling en aan de vaststelling van indicatoren die bij deze beoordeling kunnen worden gebruikt. De door de GHN voorgestelde beoordelingslijst kan bij dergelijke processen als uitgangspunt dienen.

    3.6.

    Het gaat hierbij ook om een eerlijke verdeling van de verwachte meerwaarde van KI-systemen. Zo vindt het EESC dat de positieve veranderingen waarvoor KI kan helpen zorgen op het gebied van economische ontwikkeling, duurzame productie- en consumptieprocessen (met name op energiegebied) en een beter gebruik van hulpbronnen, ten goede moeten komen aan alle landen en alle burgers.

    4.   Specifieke opmerkingen

    4.1.   Invloed en toezicht door mensen

    4.1.1.

    De Commissie wil de verzekering dat het gebruik van KI-systemen de menselijke autonomie op geen enkele manier kan ondermijnen of schadelijke effecten kan veroorzaken. Het EESC sluit zich aan bij deze benadering van toezicht door mensen op de machine, zoals het reeds in eerdere adviezen heeft aangegeven.

    4.1.2.

    Dit houdt in dat de burger goed geïnformeerd moet worden over het gebruik van deze systemen, dat de systemen verklaarbaar moeten zijn of, wanneer dat niet kan (bijvoorbeeld bij “deep learning”), dat de gebruiker informatie krijgt over de beperkingen en risico’s van het systeem. Burgers moeten hoe dan ook de vrijheid kunnen behouden om een andere beslissing te nemen dan het KI-systeem.

    4.1.3.

    In ondernemingen en overheidsdiensten moeten werknemers en hun vertegenwoordigers terdege geïnformeerd en geraadpleegd worden bij de invoering van KI-systemen die veranderingen in de werkorganisatie teweeg kunnen brengen en die voor hen gevolgen kunnen hebben op het gebied van controle, toezicht, beoordeling en aanwerving. De Commissie moet de sociale dialoog bevorderen om de werknemers bij het gebruik van KI-systemen te betrekken.

    4.1.4.

    Op het gebied van human resources moet bijzondere aandacht worden besteed aan de risico’s die met het misbruik van KI-systemen gepaard gaan, waarbij te denken valt aan onbeperkt toezicht, het verzamelen van persoons- en gezondheidsgegevens en het delen van dergelijke gegevens met derden, en opkomende risico’s inzake gezondheid en veiligheid op het werk (7). Er moeten duidelijke normen worden vastgesteld om te waarborgen dat de samenwerking tussen mens en machine niemand nadeel berokkent. De door de Internationale Organisatie voor normalisatie (ISO) ontwikkelde standaard voor “op samenwerking gerichte robots (8)”, die bedoeld is voor fabrikanten, integratoren en gebruikers, biedt richtsnoeren voor het ontwerp en de organisatie van de werkruimte en het verminderen van de risico’s waaraan mensen kunnen worden blootgesteld. Werknemers moeten worden opgeleid in het gebruik van KI en robotica, om ermee te kunnen werken en in het bijzonder om ze in geval van nood te kunnen stoppen (het “noodrem”-principe).

    4.2.   Technische robuustheid en veiligheid

    4.2.1.

    Het EESC pleit voor de invoering van Europese veiligheidsnormen en voor de ontwikkeling van een solide certificeringssysteem op basis van testprocedures waarmee bedrijven kunnen aantonen dat hun KI-systemen betrouwbaar zijn. Het EESC wijst er ook op dat de verzekerbaarheid van KI-systemen een belangrijke kwestie is.

    4.2.2.

    In de Commissiemededeling is maar weinig aandacht voor het voorspellen, voorkomen en verbieden van misbruik van KI en machinaal leren, terwijl er toch veel onderzoekers zijn die voor misbruik waarschuwen (9). Hun aanbevelingen zouden in aanmerking moeten worden genomen, en dan vooral de aanbevelingen over het tweeërlei gebruik van deze technologieën. Het kan hierbij gaan om digitale veiligheid (toename van cyberaanvallen, uitbuiting van menselijke en KI-kwetsbaarheden, data poisoning), fysieke veiligheid (hacken van autonome systemen, met inbegrip van autonome voertuigen, drones en automatische wapens) en politieke veiligheid (massale verzameling van persoonsgegevens, gerichte propaganda, videomanipulatie enz.). Onderzoekers, ingenieurs en overheden moeten nauw samenwerken om deze risico’s te voorkomen; deskundigen en andere belanghebbenden zoals gebruikers en consumenten moeten bij de discussies over deze uitdagingen worden betrokken.

    4.3.   Privacy en datagovernance

    4.3.1.

    Naar het oordeel van de Commissie moet de toegang tot gegevens “adequaat worden beheerd en gecontroleerd” (10). Het EESC vindt zulke algemene uitspraken te vrijblijvend. De ontwikkeling van KI-systemen zal ook afhangen van het vertrouwen dat de burgers erin hebben. Kwesties rond gegevenseigendom, het toezicht op en het gebruik van gegevens door bedrijven en organisaties moeten nog grotendeels geregeld worden. Zo zitten er nogal wat haken en ogen aan de hoeveelheid gegevens die door auto’s aan autofabrikanten wordt doorgegeven en ook aan het soort gegevens dat wordt doorgegeven (11). Op grond van de AVG moeten aangesloten apparaten in overeenstemming zijn met het concept privacy door ontwerp, maar vastgesteld kan worden dat de consument hierover weinig of geen informatie heeft en geen enkel middel heeft om die gegevens te controleren. Het EESC dringt er bij de Commissie dan ook op aan om de AVG en aanverwante regelingen te herzien in het licht van de technologische ontwikkelingen (12).

    4.4.   Transparantie

    4.4.1.

    Het EESC is van mening dat de verklaarbaarheid van algoritmische besluitvormingsprocessen essentieel is om inzicht te krijgen in niet de mechanismen als zodanig, maar in de logica die ten grondslag ligt aan de besluitvormingsprocessen en de manier waarop deze door KI-systemen worden beïnvloed. De ontwikkeling van standaardtestprocedures voor systemen voor automatisch leren blijft een technische uitdaging en moet worden ondersteund door EU-instrumenten zoals het programma Horizon Europa.

    4.4.2.

    Het EESC is het met de Commissie eens dat KI-systemen als zodanig herkenbaar moeten zijn, “zodat de gebruikers zich ervan bewust zijn dat ze te maken hebben met een KI-systeem” (13), ook in het kader van de relatie patiënt/zorgpersoneel en door professionals verleende diensten op het gebied van de gezondheid en het welzijn van de burgers. Voorts wijst het EESC erop dat de gebruiker of de consument ook moet kunnen worden geïnformeerd over diensten die door mensen worden geleverd. Veel KI-systemen brengen in werkelijkheid heel wat mensenwerk met zich mee, dat voor de eindgebruikers vaak verhuld blijft (14). Een punt van zorg hierbij is dat de transparantie naar de gebruikers en consumenten van diensten tekortschiet, maar ook dat er op een bepaalde manier gebruik wordt gemaakt van verborgen en niet-erkende arbeid.

    4.4.3.

    Daarnaast is het EESC van mening dat consumenten altijd op de hoogte moeten worden gehouden van de integratie van KI-systemen in de producten die zij kopen en dat hun gegevens voor hen altijd toegankelijk en controleerbaar moeten zijn.

    4.5.   Diversiteit, non-discriminatie en billijkheid

    4.5.1.

    Er bestaat een risico op discriminatie bij bepaalde KI-toepassingen waarmee het mogelijk wordt om burgers, gebruikers en consumenten te profileren (bv. voor de aanwerving van personeel, verhuur van onroerend goed, bepaalde persoonsgebonden diensten). De EU beschikt over een corpus aan wetgeving inzake gelijke behandeling en non-discriminatie (15) en de KI-systemen moeten zich hieraan houden. Maar deze wetgeving moet ook worden aangepast en waar nodig worden versterkt (ook wat betreft het toezicht op de naleving) om met nieuwe praktijken om te gaan. Er bestaat een reëel risico dat algoritmische profilering een krachtig nieuw instrument voor discriminatie wordt. De EU moet dit risico voorkomen.

    4.5.2.

    De antiracismerichtlijn (16) en de richtlijn inzake gelijke behandeling van mannen en vrouwen buiten het werk (17) voorzien in de oprichting van speciale organen die bevoegd zijn voor de bevordering van gendergelijkheid. Het EESC zou graag zien dat deze organen een actieve rol spelen bij het toezicht en de controle op KI-systemen waar het gaat om het risico van directe of indirecte discriminatie.

    4.6.   Maatschappelijk en ecologisch welzijn

    4.6.1.

    De Commissie geeft niet precies aan hoe de klimaattransitie en de digitale transformatie, met name bij het gebruik van KI-systemen, aan elkaar kunnen worden gekoppeld. Er moet absoluut worden nagedacht over de manier waarop KI-systemen kunnen worden ingezet om de uitstoot van broeikasgassen te verminderen, met name in de industrie, het vervoer, de energiesector, de bouw en de landbouw.

    4.6.2.

    De Commissie wijst erop dat KI-systemen kunnen worden gebruikt om sociale vaardigheden te versterken, maar dat zij deze ook in gevaar kunnen helpen brengen. Het EESC vindt dat de EU bepaalde maatschappelijke uitdagingen beter in aanmerking moet nemen. Zo is uit onderzoek gebleken dat sommige toepassingen die met KI-systemen werken, ontworpen zijn om de gebruikers van onlinediensten (sociale netwerken, spelletjes, video’s enz.) zo lang mogelijk online te houden. Doel is zo veel mogelijk gegevens over hun gedrag te verzamelen. Daartoe worden strategieën gebruikt zoals eindeloze nieuwe aanbevelingen die op algoritmen zijn gebaseerd, herinneringen en meldingen, spelletjes enz. Er is onderzoek gedaan naar de gevolgen die kinderen kunnen ondervinden wanneer ze te lang online blijven en steeds opnieuw geprikkeld worden (18), en de resultaten wezen op een toename van angst en agressiviteit, slaapgebrek en effecten op onderwijsprestaties, sociale relaties, gezondheid en welzijn. Om vertrouwen in KI te kunnen wekken, moet de EU dergelijke gevolgen in aanmerking nemen en voorkomen.

    4.6.3.

    Tot de factoren die het maatschappelijk welzijn bepalen, behoort tot slot ook een gevoel van veiligheid op het werk. De effecten van de digitalisering kunnen echter aanleiding geven tot onrust en stress (19). Het is dan ook zaak strategieën uit te werken om op veranderingen te anticiperen, d.w.z. voordat er een eventuele herstructurering plaatsvindt, en om alle werknemers voortdurend bij te scholen. In dit verband is het nodig dat er in de bedrijven, tussen werkgevers en werknemersvertegenwoordigers, een hoogwaardige sociale dialoog wordt gevoerd die met name een inclusieve invoering van nieuwe technologieën, in het bijzonder KI en robotica, mogelijk maakt. Om het vertrouwen tussen bedrijfsleiding en werknemers te vergroten, is het zaak dat KI-systemen voor het managen, beoordelen en controleren van werknemers verklaarbaar zijn, dat de parameters ervan bekend zijn en dat ze op transparante wijze functioneren.

    4.7.   Verantwoordingsplicht

    4.7.1.

    De beslissingen die door systemen voor automatisch leren worden genomen, kunnen niet op simpele wijze worden verklaard. Bovendien worden ze regelmatig geüpdatet. Naar de mening van het EESC is het controleren van KI-systemen mogelijk niet voldoende om de verantwoordelijkheden te bepalen en vertrouwen te wekken. Het EESC raadt dan ook aan om regels vast te stellen waarbij in geval van niet-naleving de aansprakelijkheid zou moeten liggen bij de rechtspersoonlijkheden: natuurlijke of rechtspersonen. Het EESC adviseert om zich meer te verlaten op betrouwbare bedrijven of professionals dan op algoritmen, en stelt voor dat er voor bedrijven die alle normen in acht nemen een “Europees certificaat voor betrouwbare KI-ondernemingen” wordt ontwikkeld, aan de hand van o.m. de beoordelingslijst die door de GHN is voorgesteld.

    4.7.2.

    In de richtlijn inzake de aansprakelijkheid voor producten (20) wordt het beginsel van de “aansprakelijkheid buiten schuld” vastgelegd dat van toepassing is op Europese producenten: als een product dat een gebrek vertoont een consument schade berokkent, kan de producent die geen schuld treft noch nalatig heeft gehandeld, toch aansprakelijk worden gesteld. De ontwikkeling, de invoering en het steeds grotere gebruik van KI-systemen vereist dat de EU aangepaste aansprakelijkheidsregels vaststelt voor situaties waarin producten met digitale inhoud en diensten die aan consumenten worden aangeboden gevaarlijk en schadelijk kunnen zijn. De consument moet toegang hebben tot de rechter in geval van schade veroorzaakt door een KI-systeem.

    5.   Noodzaak van regulering buiten Europa

    5.1.

    In een geglobaliseerde wereld moet de regulering van KI verder gaan dan de Europese grenzen. Europa zou binnen de G-7 en de G20 moeten bevorderen dat er een breed akkoord over KI wordt gesloten, en zou moeten doorgaan met bilaterale dialoogbijeenkomsten om ervoor te zorgen dat een meerderheid van de landen aan de KI-normalisatieprocessen kan meedoen en de relevantie ervan regelmatig kan controleren.

    Brussel, 30 oktober 2019.

    De voorzitter

    van het Europees Economisch en Sociaal Comité

    Luca JAHIER


    (1)  PB C 440 van 6.12.2018, blz. 1.

    (2)  PB C 288 van 31.8.2017, blz. 1, PB C 440 van 2.3.2018, blz. 1.

    (3)  https://osha.europa.eu/nl/emerging-risks

    (4)  Verordening (EU) 2016/679 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens en betreffende het vrije verkeer van die gegevens en tot intrekking van Richtlijn 95/46/EG (algemene verordening gegevensbescherming) (PB L 119 van 4.5.2016, blz. 1).

    (5)  COM(2019) 168 final.

    (6)  COM(2019) 168 final, blz. 5.

    (7)  Zie met name “OSH and the future of work: benefits and risks of artificial intelligence tools in workplaces”.

    (8)  ISO/TS 15066, 2016.

    (9)  Zie het rapport The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, februari 2018.

    (10)  COM(2019) 168 final, blz. 6.

    (11)  ”Your car knows when you gain weight”, The New York Times (International Edition), 22.5.2019.

    (12)  PB C 190 van 5.6.2019, blz. 17.

    (13)  COM(2019) 168 final, blz. 6.

    (14)  Zie bijvoorbeeld “A white-collar sweatshop”: Google Assistant contractors allege wage theft, The Guardian, 29.5.2019 en Bot technology impressive, except when it’s not the bot, The New York Times (International Edition), 24.5.2019.

    (15)  PB L 180 van 19.7.2000, blz. 22; PB L 303 van 2.12.2000, blz. 16; PB L 373 van 21.12.2004, blz. 37; PB L 204 van 26.7.2006, blz. 23.

    (16)  Richtlijn 2000/43/EG van de Raad van 29 juni 2000 houdende toepassing van het beginsel van gelijke behandeling van personen ongeacht ras of etnische afstamming (PB L 180 van 19.7.2000, blz. 22).

    (17)  Richtlijn 2004/113/EG van de Raad van 13 december 2004 houdende toepassing van het beginsel van gelijke behandeling van mannen en vrouwen bij de toegang tot en het aanbod van goederen en diensten (PB L 373 van 21.12.2004, blz. 37).

    (18)  Zie met name Kidron, Evans, Afia (2018), Disrupted Childhood — The COST of Persuasive Design, 5Rights Foundation.

    (19)  Rapport van de GHN over “The impact of the digital transformation on EU labour markets”, 2019.

    (20)  Richtlijn 85/374/EEG van de Raad van 25 juli 1985 betreffende de onderlinge aanpassing van de wettelijke en bestuursrechtelijke bepalingen der lidstaten inzake de aansprakelijkheid voor producten met gebreken (PB L 210 van 7.8.1985, blz. 29).


    Top