Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52020AE1110

    Advies van het Europees Economisch en Sociaal Comité over het witboek over kunstmatige intelligentie — Een Europese benadering op basis van excellentie en vertrouwen (COM(2020) 65 final)

    EESC 2020/01110

    PB C 364 van 28.10.2020, p. 87–93 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    28.10.2020   

    NL

    Publicatieblad van de Europese Unie

    C 364/87


    Advies van het Europees Economisch en Sociaal Comité over het witboek over kunstmatige intelligentie — Een Europese benadering op basis van excellentie en vertrouwen

    (COM(2020) 65 final)

    (2020/C 364/12)

    Rapporteur:

    Catelijne MULLER

    Raadpleging

    Commissie, 9.3.2020

    Rechtsgrondslag

    Artikel 304 VWEU

    Bevoegde afdeling

    Interne Markt, Productie en Consumptie

    Goedkeuring door de afdeling

    25.6.2020

    Goedkeuring door de voltallige vergadering

    16.7.2020

    Zitting nr.

    553

    Stemuitslag

    (voor/tegen/onthoudingen)

    207/0/6

    1.   Conclusies en aanbevelingen

    1.1.

    Het EESC feliciteert de Commissie met de strategie die zij heeft uiteengezet in het Witboek over kunstmatige intelligentie (KI) en die erop gericht is de invoering van KI-technologieën te stimuleren en er tegelijkertijd voor te zorgen dat deze in overeenstemming zijn met de Europese ethische normen, wettelijke voorschriften en sociale waarden.

    1.2.

    Het EESC verheugt zich tevens over het streven om de Europese troeven op de industriële en professionele markten optimaal te benutten en benadrukt dat het van belang is om investeringen, infrastructuur, innovatie en vaardigheden te bevorderen zodat het bedrijfsleven, met inbegrip van kleine en middelgrote ondernemingen (kmo’s), en de samenleving als geheel de door KI geboden kansen kunnen aangrijpen. KI-innovatie moet worden gestimuleerd om de voordelen van KI-systemen te maximaliseren en tegelijkertijd de risico's ervan te voorkomen en zoveel mogelijk te beperken.

    1.3.

    Het is echter van mening dat de focus op louter datagestuurde KI te beperkt is om van de EU een echte leider te maken op het gebied van geavanceerde, betrouwbare en concurrerende KI. Het EESC dringt er bij de Commissie op aan om ook een nieuwe generatie KI-systemen te bevorderen die op kennis en redenering zijn gebaseerd en die menselijke waarden en beginselen hoog in het vaandel dragen.

    1.4.

    Het EESC roept de Commissie op om: i) multidisciplinariteit in het onderzoek te bevorderen door andere disciplines zoals recht, ethiek, filosofie, psychologie, arbeidswetenschappen, geesteswetenschappen, economie, enz. bij het onderzoek te betrekken; ii) relevante belanghebbenden (vakbonden, beroeps- en bedrijfsorganisaties, consumentenverenigingen, ngo's) bij het debat over KI en bij door de EU gefinancierde onderzoeks- en andere projecten zoals het publiek-private partnerschap inzake KI, de sectorale dialogen en het programma Adopt AI in de publieke sector en het referentiecentrum als gelijkwaardige partners te betrekken; en iii) het bredere publiek te blijven voorlichten en informeren over de mogelijkheden en uitdagingen van KI.

    1.5.

    Het EESC dringt er bij de Commissie op aan om dieper in te gaan op de gevolgen van KI voor het volledige spectrum van grondrechten en fundamentele vrijheden, met inbegrip van — maar niet beperkt tot — het recht op een eerlijk proces, op eerlijke en open verkiezingen, op vergadering en betoging, alsook het recht om niet te worden gediscrimineerd.

    1.6.

    Het EESC blijft zich verzetten tegen de invoering van elke vorm van rechtspersoonlijkheid voor KI. Dit zou de preventief corrigerende werking van het aansprakelijkheidsrecht uithollen, met een ernstig risico op “moral hazard” bij zowel de ontwikkeling als het gebruik van KI, en vandaar ook op mogelijk misbruik.

    1.7.

    Het EESC pleit ervoor een continue, systematisch sociaal-technische benadering te hanteren, waarbij de technologie vanuit alle perspectieven en door verschillende lenzen wordt bekeken, in plaats van een eenmalige (of zelfs regelmatig herhaalde) voorafgaande conformiteitsbeoordeling van risicovolle KI.

    1.8.

    Het EESC waarschuwt dat de criteria voor identificatie van “risicovolle” sectoren veel KI-gebruik en -toepassingen die intrinsiek risicovol zijn, zouden kunnen uitsluiten, naast biometrische herkenning en KI die bij aanwervingen wordt gebruikt. Het EESC zou graag zien dat de Commissie een lijst opstelt van gemeenschappelijke kenmerken van KI-gebruik of -toepassingen die als intrinsiek risicovol worden beschouwd, ongeacht de sector.

    1.9.

    Het EESC raadt met klem aan alleen gebruik te maken van biometrische herkenning: i) als er een wetenschappelijk bewezen effect is, ii) in een gecontroleerde omgeving, en iii) onder strikte voorwaarden. Wijdverbreid gebruik van KI-gestuurde biometrische herkenning voor bewaking of voor het opsporen, beoordelen of categoriseren van mensen of menselijk gedrag of emoties, moet worden verboden.

    1.10.

    Het EESC pleit voor vroegtijdige en nauwe betrokkenheid van de sociale partners bij de invoering van KI-systemen op de werkplek, in overeenstemming met de toepasselijke nationale regels en praktijken, om ervoor te zorgen dat de systemen bruikbaar zijn alsook de rechten van werknemers en de arbeidsvoorwaarden in acht nemen.

    1.11.

    Het EESC zou ook graag zien dat de werknemers die uiteindelijk met KI-systemen zullen werken, evenals werknemers met juridische, ethische en geesteswetenschappelijke expertise, vroegtijdig en nauw worden betrokken bij de invoering van KI-systemen, om ervoor te zorgen dat de systemen zijn afgestemd op de wetgeving en ethische vereisten maar ook op de behoeften van werknemers, zodat werknemers de autonomie behouden wat betreft hun werk en KI-systemen die hun vaardigheden en arbeidstevredenheid bevorderen.

    1.12.

    KI-technieken en -benaderingen ter bestrijding van de coronaviruspandemie moeten robuust, doeltreffend, transparant en verklaarbaar zijn. Ze moeten ook de mensenrechten, ethische principes en bestaande wetgeving respecteren en billijk, inclusief en vrijwillig zijn.

    1.13.

    Het EESC dringt er bij de Commissie op aan het voortouw te nemen om te zorgen voor een betere coördinatie binnen Europa van de toegepaste KI-oplossingen en -benaderingen voor de bestrijding van de coronapandemie.

    2.   Witboek van de EU over KI

    2.1.

    Het EESC stelt met genoegen vast dat de Europese Commissie veel van de aanbevelingen uit eerdere EESC-adviezen en van de deskundigengroep op hoog niveau voor KI overneemt, de invoering van KI-technologieën aanmoedigt en er tegelijkertijd voor zorgt dat deze stroken met de Europese ethische normen, wettelijke voorschriften en sociale waarden, die worden geschraagd door wat een “ecosysteem van uitmuntendheid en vertrouwen” wordt genoemd.

    2.2.

    Het EESC is ingenomen met de voorstellen om het bedrijfsleven, met inbegrip van kmo’s, en de samenleving als geheel de mogelijkheden van de ontwikkeling en het gebruik van KI te laten benutten. Het benadrukt dat het van belang is investeringen, infrastructuur, innovatie en vaardigheden te bevorderen om het concurrentievermogen van de EU op mondiaal niveau te verbeteren.

    Human-in-command-benadering

    2.3.

    De toon van het witboek is echter ook enigszins “fatalistisch”; er wordt immers gesuggereerd dat KI “ons overvalt”, wat ons geen andere optie laat dan het gebruik ervan te reguleren. Het EESC gelooft echt dat de EU alles in het werk zal stellen om ervoor te zorgen dat Europa alleen betrouwbare KI aanvaardt en vindt daarom dat zij in dit verband een veel krachtiger standpunt moet durven innemen. Het dringt er dan ook bij de Commissie op aan om te allen tijde de mogelijkheid open te houden om een bepaald type KI (-gebruik) helemaal niet te accepteren. Dit is wat het EESC de “human-in-command”-benadering van KI heeft genoemd die we moeten cultiveren.

    KI in Europa optimaal benutten — een toekomstgerichte definitie

    2.4.

    De werkdefinitie van KI in het witboek is “een verzameling technologieën die data, algoritmen en rekenkracht combineren”. Verderop in de tekst worden data en algoritmen gedefinieerd als de belangrijkste elementen van KI. Die definitie zou echter betrekking kunnen hebben op elk stuk software dat ooit is geschreven, en niet alleen op KI. Er is nog steeds geen algemeen aanvaarde definitie van KI, wat een generieke term is voor een aantal computertoepassingen.

    2.5.

    De focus in het witboek op louter datagestuurde KI is te beperkt om van de EU een echte leider te maken op het gebied van geavanceerde, betrouwbare en concurrerende KI. In het witboek worden veel veelbelovende KI-systemen buiten beschouwing gelaten en dus ook uitgesloten van governance en regulering. Het EESC dringt er bij de Commissie op aan om ook een nieuwe generatie KI-systemen te bevorderen die datagestuurde benaderingen integreren met kennisgestuurde, op redenering gebaseerde benaderingen, de zogenaamde hybride systemen. In het witboek wordt wel erkend dat er behoefte is aan hybride systemen met het oog op verklaarbaarheid, maar de voordelen van hybride systemen gaan verder dan verklaarbaarheid: ze kunnen het leren versnellen en/of beperken, en het model voor machinaal leren valideren en verifiëren.

    2.6.

    Het witboek richt zich alleen op vertekeningen in verband met gegevens, maar niet alle vertekeningen zijn het resultaat van laagwaardige of beperkte gegevens. Het ontwerp van elk artefact is op zich de som van een aantal vooringenomen keuzes, gaande van de in aanmerking genomen input tot de doelen die het KI-systeem zo doeltreffend mogelijk zou moeten bereiken. Al deze keuzes worden op een of andere manier aangestuurd door de inherente vooringenomenheid van de persoon of personen die ze maken.

    2.7.

    Het belangrijkste is echter dat KI-systemen meer zijn dan alleen de som van hun softwarecomponenten. KI-systemen omvatten ook het sociaal-technische systeem eromheen. Wanneer wordt gekeken naar KI-governance en -regelgeving moet de focus dus ook liggen op de omringende sociale structuren: de organisaties en ondernemingen, de verschillende beroepen en de mensen en instellingen die KI creëren, ontwikkelen, inzetten, gebruiken en controleren, en de mensen die erdoor worden beïnvloed, zoals burgers in hun relaties met overheden, bedrijven, consumenten, werknemers, en zelfs de samenleving in haar geheel.

    2.8.

    Ook moet worden opgemerkt dat juridische definities (met het oog op governance en regulering) verschillen van zuiver wetenschappelijke definities, daar aan een aantal verschillende eisen moet worden voldaan, zoals inclusiviteit, nauwkeurigheid, duurzaamheid, volledigheid en uitvoerbaarheid. Sommige daarvan zijn juridisch bindende vereisten en andere worden beschouwd als goede regelgevingspraktijken.

    Alle krachten bundelen

    2.9.

    Het EESC is ingenomen met de inspanningen om het versnipperde KI-landschap in Europa aan te pakken door KI-onderzoekers samen te brengen, bijzondere aandacht te schenken aan kleine en middelgrote ondernemingen (kmo’s) en partnerschappen aan te gaan met de particuliere en de openbare sector. Voorts beveelt het EESC aan om: i) multidisciplinariteit in het onderzoek te bevorderen door andere disciplines zoals recht, ethiek, filosofie, psychologie, arbeidswetenschappen, geesteswetenschappen, economie, enz. bij het onderzoek te betrekken; ii) relevante belanghebbenden (vakbonden, bedrijfsorganisaties, consumentenorganisaties, ngo's) bij het debat over KI maar ook bij door de EU gefinancierde onderzoeks- en andere projecten zoals het publiek-private partnerschap inzake KI, de sectorale dialogen, het programma Adopt AI in de publieke sector en het referentiecentrum als gelijkwaardige partners te betrekken; en iii) het bredere publiek te blijven voorlichten en informeren over de mogelijkheden en uitdagingen van KI.

    KI en de wetgeving

    2.10.

    In het witboek wordt erkend dat KI niet in een juridisch vacuüm opereert. Het EESC is met name ingenomen met de nadruk die wordt gelegd op de gevolgen van KI voor de grondrechten en beveelt de Commissie aan om dieper in te gaan op de impact van KI op een breed scala aan grondrechten en fundamentele vrijheden, zoals de vrijheid van mening en meningsuiting en het recht op eerbiediging van het privéleven (dat veel verder gaat dan de bescherming van persoonsgegevens), op een eerlijk proces, op eerlijke en open verkiezingen, op vergadering en betoging, alsook het recht om niet te worden gediscrimineerd.

    2.11.

    Het EESC is ingenomen met het duidelijke standpunt dat in het witboek wordt ingenomen over de toepasselijkheid van bestaande aansprakelijkheidsregelingen op KI en met de inspanningen om op die regelingen voort te bouwen, teneinde de nieuwe risico's die KI kan opleveren, aan te pakken, lacunes in de handhaving aan te vullen waar het moeilijk is vast te stellen welke marktdeelnemer daadwerkelijk verantwoordelijk is, alsook om de regelingen aan te passen aan de veranderende functionaliteit van de KI-systemen.

    2.12.

    De Commissie moet ook erkennen dat KI geen grenzen kent en dat de inspanningen niet kunnen en mogen worden beperkt tot Europa. Er moet een algemene wereldwijde consensus worden bereikt, voortbouwend op discussies en onderzoek van juridisch deskundigen, teneinde een gemeenschappelijk internationaal rechtskader tot stand te brengen.

    2.13.

    Het EESC blijft zich in ieder geval krachtig verzetten tegen de invoering van elke vorm van rechtspersoonlijkheid voor KI. Dit zou de preventief corrigerende werking van het aansprakelijkheidsrecht uithollen, met een ernstig risico op ‘moral hazard’ bij zowel de ontwikkeling als het gebruik van KI, en vandaar ook op mogelijk misbruik.

    Regulering van risicovolle KI

    2.14.

    Het EESC is ingenomen met de risicogebaseerde aanpak van de monitoring van KI-effecten. De Commissie kondigt een regelgevingskader voor “risicovolle KI” aan, dat moet voldoen aan eisen m.b.t. robuustheid, nauwkeurigheid, reproduceerbaarheid, transparantie, menselijk toezicht en gegevensbeheer. Volgens het witboek zorgen twee cumulatieve elementen voor risicovolle KI: (i) een sector met een hoog risico en (ii) risicovol gebruik van een KI-toepassing. Het witboek vermeldt twee voorbeelden van KI-gebruik of -toepassingen die als intrinsiek risicovol kunnen worden beschouwd, d.w.z. ongeacht de sector. Ook biometrische herkenning wordt als een intrinsiek risicovolle toepassing beschouwd. De volledige lijst van potentiële sectoren met een hoog risico (die periodiek wordt herzien) omvat nu de volgende sectoren: gezondheidszorg, vervoer, energie en delen van de overheidssector.

    2.15.

    Het tweede criterium, nl. dat de KI-toepassing op een risicovolle manier wordt gebruikt, is minder strikt, wat suggereert dat verschillende risiconiveaus kunnen worden overwogen. Het EESC stelt voor om de samenleving en het milieu in dit verband als impactgebieden toe te voegen.

    2.16.

    Volgens de logica van het witboek zal een KI-toepassing met een hoog risico die in een sector met een laag risico wordt gebruikt, in principe niet onder het regelgevingskader vallen. Het EESC benadrukt dat ongewenste negatieve effecten van KI met een hoog risico in een sector met een laag risico KI-toepassingen of -gebruik kunnen uitsluiten van de regelgeving, waardoor een mogelijkheid ontstaat om de regels te omzeilen: denk aan gerichte reclame (een sector met een laag risico), waarvan is aangetoond dat deze mogelijk segregerende, discriminerende en verdelende effecten heeft, bijvoorbeeld tijdens verkiezingen, of reclame met een gepersonaliseerde prijsstelling (een gebruik of effect met een hoog risico). Het EESC beveelt aan om gemeenschappelijke kenmerken van KI-gebruik of -toepassingen vast te stellen die als intrinsiek met een hoog risico moeten worden beschouwd, ongeacht de sector waarin ze worden gebruikt.

    2.17.

    Het EESC erkent de noodzaak van conformiteitstests van KI, maar vreest dat een eenmalige (of zelfs regelmatig herhaalde) voorafgaande conformiteitsbeoordeling niet zal volstaan om een betrouwbare en mensgerichte ontwikkeling, toepassing en gebruik van KI op een duurzame manier te garanderen. Betrouwbare KI heeft een continue, systematische sociaal-technische benadering nodig, waarbij de technologie vanuit ieder oogpunt en door verschillende lenzen wordt bekeken. Voor de beleidsvorming vereist dit een multidisciplinaire aanpak waarbij beleidsmakers, academici uit verschillende vakgebieden, de sociale partners, beroepsorganisaties, beroepsbeoefenaren, bedrijven en ngo's voortdurend samenwerken. Vooral als het gaat om diensten van algemeen belang die verband houden met de gezondheid, de veiligheid en het welzijn van mensen en die gebaseerd zijn op vertrouwen, moet worden gegarandeerd dat KI-systemen aan de praktische vereisten zijn aangepast en de menselijke verantwoordelijkheid niet kunnen overrulen.

    Biometrische herkenning

    2.18.

    Het EESC is ingenomen met het verzoek van de Commissie om een openbaar debat te lanceren over het gebruik van KI-gestuurde biometrische herkenning. Biometrische herkenning van micro-expressies, manier van stappen, (stem)toon, hartslag, temperatuur, enz. wordt al gebruikt om gedrag, mentale toestand en emoties te beoordelen of zelfs te voorspellen, ook bij aanwervingsprocedures. Om heel duidelijk te zijn: er bestaat geen deugdelijk wetenschappelijk bewijs dat de emoties of mentale toestand van een persoon nauwkeurig kunnen worden “afgelezen” van zijn gelaatsuitdrukking, manier van stappen, hartslag, stemtoon of temperatuur, laat staan dat toekomstig gedrag erdoor voorspeld zou kunnen worden.

    2.19.

    Ook moet worden opgemerkt dat de algemene verordening gegevensbescherming (AVG) de verwerking van biometrische gegevens slechts tot op zekere hoogte beperkt. De AVG definieert biometrische gegevens als “persoonsgegevens die het resultaat zijn van een specifieke technische verwerking met betrekking tot de fysieke, fysiologische of gedragsgerelateerde kenmerken van een natuurlijke persoon op grond waarvan eenduidige identificatie van die natuurlijke persoon mogelijk is of wordt bevestigd”. Veel biometrische herkenningstechnologieën zijn echter niet bedoeld om een persoon op unieke wijze te identificeren, maar alleen om het gedrag of de emoties van een persoon te beoordelen. Deze toepassingen vallen wellicht niet onder de definitie van biometrische gegevens (verwerking) in het kader van de AVG.

    2.20.

    KI-gestuurde biometrische herkenning beïnvloedt ook ons bredere recht op respect voor het privéleven, identiteit, autonomie en psychologische integriteit door een situatie te creëren waarin we (voortdurend) worden bekeken, gevolgd en geïdentificeerd. Een en ander kan een psychologisch “afschrikkend effect” hebben, waarbij mensen zich geneigd kunnen voelen om hun gedrag aan een bepaalde norm aan te passen. Dit vormt een inbreuk op ons grondrecht op privacy (morele en psychologische integriteit). Bovendien zou KI-gestuurde biometrische herkenning andere grondrechten en fundamentele vrijheden kunnen aantasten, zoals de vrijheid van vergadering en het recht om niet gediscrimineerd te worden.

    2.21.

    Er zou alleen gebruik mogen worden gemaakt van biometrische herkenning als er een wetenschappelijk bewezen effect is, in een gecontroleerde omgeving, en onder strikte voorwaarden. Wijdverbreid gebruik van KI-gestuurde biometrische herkenning voor bewaking of voor het opsporen, beoordelen of categoriseren van mensen of menselijk gedrag of emoties, mag niet worden toegestaan.

    Impact van KI op werk en vaardigheden

    2.22.

    Het EESC stelt vast dat het witboek geen strategie bevat voor de aanpak van de gevolgen van KI voor het werk, terwijl dit een expliciet onderdeel was van de Europese strategie voor kunstmatige intelligentie van 2018.

    2.23.

    Het EESC pleit voor vroegtijdige en nauwe betrokkenheid van alle soorten werknemers en dienstverleners, met inbegrip van freelancers, zelfstandigen en afroepkrachten — niet alleen mensen die KI ontwerpen of ontwikkelen, maar ook mensen die KI-systemen kopen, implementeren, ermee werken of ermee te maken krijgen. De sociale dialoog moet plaatsvinden vóór de invoering van KI-technologieën op de werkplek, overeenkomstig de toepasselijke nationale regels en praktijken. Op de werkplek moeten de toegang tot en het beheer van de gegevens van de werknemers gebaseerd zijn op de beginselen en voorschriften waarover de sociale partners hebben onderhandeld.

    2.24.

    Het EESC vraagt speciale aandacht voor KI die wordt gebruikt bij het aanwerven, ontslaan en beoordelen en evalueren van werknemers. In het witboek wordt KI bij aanwerving genoemd als voorbeeld van een risicovolle toepassing die ongeacht de sector aan regelgeving onderworpen zou worden. Het EESC beveelt aan om dit toepassingsgebied uit te breiden tot KI die wordt gebruikt bij het ontslaan, beoordelen en evalueren van werknemers, maar ook om de gemeenschappelijke kenmerken van KI-toepassingen die een risicovol gebruik op de werkplek met zich meebrengen, ongeacht de sector, te onderzoeken. KI-toepassingen die geen wetenschappelijke grondslag hebben, zoals het opsporen van emoties via biometrische herkenning, mogen niet worden toegestaan op de werkplek.

    2.25.

    Het bijhouden of aanleren van KI-vaardigheden is nodig om mensen de mogelijkheid te geven om zich aan de snelle ontwikkelingen op KI-gebied aan te passen. Beleid en financiële middelen zullen echter ook gericht moeten zijn op onderwijs en ontwikkeling van vaardigheden op gebieden die niet bedreigd zullen worden door KI-systemen (d.w.z. taken waarbij menselijke interactie van vitaal belang is, zoals diensten van algemeen belang die verband houden met de gezondheid, de veiligheid en het welzijn van mensen en die gebaseerd zijn op vertrouwen, waarbij mensen en machines samenwerken, of taken waarvan we willen dat mensen ze blijven doen).

    3.   KI en het coronavirus

    3.1.

    KI kan bijdragen tot een beter inzicht in het coronavirus en COVID-19, en kan mensen beschermen tegen blootstelling, helpen bij het vinden van een vaccin en het onderzoeken van behandelingsmogelijkheden. Het blijft evenwel belangrijk om open en duidelijk te zijn over wat KI wel en niet kan.

    3.2.

    Robuustheid en effectiviteit: datagestuurde KI om de verspreiding van het coronavirus te voorspellen is potentieel problematisch, omdat er te weinig gegevens over het coronavirus zijn om betrouwbare KI-resultaten te behalen. Bovendien zijn de weinige data die beschikbaar zijn gekomen, onvolledig en vertekend. Het gebruik van deze gegevens voor machinaal leren kan leiden tot veel fout-negatieve en fout-positieve resultaten.

    3.3.

    Transparantie over de gebruikte gegevens en modellen, evenals verklaarbaarheid van de uitkomsten, zijn van het grootste belang. Met name op dit moment kan de wereld het zich niet veroorloven om beslissingen te nemen op basis van “zwarte dozen”.

    3.4.

    Bij het gebruik van KI om deze pandemie te bestrijden zijn respect voor de mensenrechten, ethische principes en bestaande wetgeving belangrijker dan ooit. Met name aangezien KI-instrumenten mogelijk inbreuk maken op de mensenrechten, moet er sprake zijn van een legitiem belang voor het gebruik ervan, dat strikt noodzakelijk, evenredig en vooral in de tijd beperkt moet zijn.

    3.5.

    Tot slot moeten eerlijkheid en inclusie worden gegarandeerd. De KI-systemen die worden ontwikkeld om de pandemie te bestrijden, moeten onpartijdig zijn en mogen niet discrimineren. Voort moeten ze voor iedereen beschikbaar zijn en rekening houden met de maatschappelijke en culturele verschillen van de betrokken landen.

    Track- en trace- en gezondheidsmonitoring-apps

    3.6.

    Volgens virologen en epidemiologen vereist het openstellen van de samenleving en de economie na de lockdown een efficiënte tracking, tracing, monitoring en bescherming van de gezondheid van de mensen. Op dit moment worden er veel apps ontwikkeld voor tracking, tracing en het uitvoeren van gezondheidscontroles, activiteiten die gewoonlijk (en in het verleden) door professionals werden uitgevoerd. Wereldwijd hebben veel overheden veel vertrouwen gesteld in track- en trace-apps als middel om samenlevingen weer open te stellen.

    3.7.

    De inzet van dit soort apps is een zeer radicale stap. Het is dan ook belangrijk om het nut, de noodzaak en de doeltreffendheid van de apps kritisch te bekijken, evenals hun maatschappelijke en juridische impact, voordat wordt besloten om ze te gebruiken. De mogelijkheid moet blijven bestaan om de apps niet te gebruiken en er moet prioriteit worden gegeven aan minder invasieve oplossingen.

    3.8.

    De doeltreffendheid en betrouwbaarheid van track- en trace-apps is van groot belang, omdat ineffectiviteit en onbetrouwbaarheid kunnen leiden tot veel fout-positieve en fout-negatieve resultaten, een vals gevoel van veiligheid en dus een groter risico op besmetting. De eerste wetenschappelijke simulaties doen ernstige twijfels rijzen over de vraag of een tracerings-app überhaupt een positief effect zal hebben op de verspreiding van het virus, zelfs bij 80 % of 90 % gebruik ervan. Ook kan een app geen specifieke omstandigheden registreren, zoals de aanwezigheid van plexiglas en ramen of het dragen van persoonlijke beschermingsmiddelen.

    3.9.

    Bovendien leiden deze apps ertoe dat verschillende mensenrechten en vrijheden (gedeeltelijk) terzijde worden geschoven, omdat ze raken aan onze vrijheid van vereniging en onze rechten op veiligheid, op non-discriminatie en op privacy.

    3.10.

    Hoewel privacy zeer belangrijk is, gaat het daarbij om veel meer dan om onze persoonsgegevens en anonimiteit. Privacy gaat ook over het recht om niet te worden gevolgd, getraceerd of bewaakt. Het is wetenschappelijk bewezen dat wanneer mensen weten dat ze gevolgd worden, ze zich anders gaan gedragen. Volgens het Europees Hof voor de rechten van de mens vormt dit “afschrikkend effect” een inbreuk op onze privacy. Hetzelfde brede begrip van privacy zou in het KI-debat moeten worden meegenomen.

    3.11.

    Het risico bestaat dat de verzamelde gegevens (nu of in de toekomst) niet alleen zullen worden gebruikt om de huidige pandemie te bestrijden, maar ook om mensen te profileren, te categoriseren en te beoordelen voor verschillende doeleinden. In de verdere toekomst is het zelfs denkbaar dat “functieverschuiving” kan leiden tot ongewenste vormen van profilering bij toezicht en bewaking, acceptatie voor verzekeringen of sociale voorzieningen, aanwerving of ontslag, enz. De gegevens die met behulp van dergelijke apps worden verzameld, mogen daarom in geen geval worden gebruikt voor profilering, risicobeoordeling, classificatie of voorspelling.

    3.12.

    Bovendien zal elke KI-oplossing die onder deze buitengewone omstandigheden en zelfs met de beste bedoelingen wordt ingezet, een precedent scheppen, of we dat nu leuk vinden of niet. Eerdere crises hebben aangetoond dat dergelijke maatregelen, ondanks alle goede bedoelingen, in de praktijk nooit zullen verdwijnen.

    3.13.

    Het gebruik van KI tijdens deze pandemie moet dus altijd worden gemeten en afgewogen tegen verschillende motieven, zoals: i) is het gebruik doeltreffend en betrouwbaar? ii) bestaan er minder invasieve oplossingen? iii) wegen de voordelen ervan op tegen de bezorgdheid over de maatschappelijke, ethische en fundamentele rechten? en iv) kan een verantwoorde afweging worden gemaakt tussen tegenstrijdige fundamentele rechten en vrijheden? Bovendien mogen dit soort systemen niet worden ingezet onder enige vorm van verplichting of dwang.

    3.14.

    Het EESC dringt er bij de beleidsmakers op aan om er niet te gemakkelijk van uit te gaan dat technologische oplossingen alleenzaligmakend zijn. Gezien de ernst van de situatie zou het EESC graag zien dat apps in het kader van projecten om de pandemie te helpen bestrijden, gebaseerd worden op gedegen onderzoek op het gebied van epidemiologie, sociologie, psychologie, recht, ethiek en systeemwetenschappen. Alvorens een beslissing te nemen over het gebruik van deze systemen, moeten de doeltreffendheid, de noodzaak en de gevoeligheid ervan worden geanalyseerd en moeten er simulaties worden verricht.

    Brussel, 16 juli 2020.

    De voorzitter van het Europees Economisch en Sociaal Comité

    Luca JAHIER


    Top