6.12.2018   

NL

Publicatieblad van de Europese Unie

C 440/1


Advies van het Europees Economisch en Sociaal Comité over kunstmatige intelligentie — Anticiperen op de gevolgen ervan voor werk om een eerlijke transitie te waarborgen

(initiatiefadvies)

(2018/C 440/01)

Rapporteur:

Franca SALIS-MADINIER

Besluit van de voltallige vergadering

15.2.2018

Rechtsgrondslag

Artikel 29, lid 2, van het reglement van orde

Bevoegde afdeling

Afdeling Interne Markt, Productie en Consumptie

Goedkeuring door de afdeling

4.9.2018

Goedkeuring door de voltallige vergadering

19.9.2018

Zitting nr.

537

Stemuitslag

(voor/tegen/onthoudingen)

183/1/2

1.   Conclusies en aanbevelingen

1.1.

Kunstmatige intelligentie (KI) en robotica zullen de gevolgen van de digitalisering van de economie voor de arbeidsmarkt vergroten en versterken (1). Van oudsher heeft technische vooruitgang invloed uitgeoefend op werk en werkgelegenheid, waardoor nieuwe vormen van sociale en maatschappelijke begeleiding vereist zijn geweest. De technologische ontwikkeling zal de economische en sociale vooruitgang zonder twijfel ten goede komen, maar het zou verkeerd zijn om de gevolgen ervan voor de samenleving te negeren of te onderschatten. Door KI zullen banen steeds meer geautomatiseerd worden (2). Daarom wil het Europees Economisch en Sociaal Comité (EESC) door middel van een versterking en vernieuwing van het Europees sociaal model bijdragen aan de voorbereiding op de sociale veranderingen die gepaard zullen gaan met de opkomst van KI en robotica.

1.2.

Het EESC wenst de mogelijkheden van KI en de toepassingen ervan te benadrukken, waarbij het met name gaat om de gezondheidszorg, de veiligheid van vervoer en energie, de strijd tegen de klimaatverandering en het anticiperen op gevaren voor de cyberveiligheid. De Europese Unie, regeringen en maatschappelijke organisaties kunnen een belangrijke bijdrage leveren aan het ten volle benutten van de voordelen die KI kan opleveren, met name voor mensen met een handicap of met beperkte mobiliteit, ouderen en chronisch zieken.

1.3.

Het ontbreekt de EU echter aan gegevens over de digitale economie en de daaruit voortvloeiende sociale transformatie. Het EESC beveelt aan de statistische hulpmiddelen te verbeteren en de onderzoeksactiviteiten op te voeren, met name op het gebied van KI, het gebruik van industriële robots en diensten, het internet der dingen en nieuwe economische modellen (platformeconomie, nieuwe vormen van werk en werkgelegenheid).

1.4.

Het EESC vraagt de Europese Commissie de uitvoering van studies op het niveau van de Europese comités voor sectorale sociale dialoog naar de sectorale gevolgen van KI en robotica en in bredere zin de digitalisering van de economie te bevorderen en ondersteunen.

1.5.

Het staat buiten kijf dat KI en robotica werk zullen verplaatsen en veranderen, sommige banen overbodig zullen maken en weer andere banen zullen creëren. In elk geval moet de EU in overeenstemming met de Europese pijler van sociale rechten waarborgen dat alle werknemers en zelfstandigen of schijnzelfstandigen toegang hebben tot sociale bescherming.

1.6.

De Commissie heeft voorgesteld om het Europees Fonds voor aanpassing aan de globalisering te versterken ter ondersteuning van met name werknemers en zelfstandigen die door de globalisering werkloos worden (3). Dat is een stap in de richting van een volwaardig Europees overgangsfonds dat kan bijdragen aan een maatschappelijk verantwoord beheer van de digitale transformatie.

1.7.

Het EESC beveelt aan dat de beginselen, verbintenissen en verplichtingen die zijn opgenomen in de bestaande teksten over de informatie en de raadpleging van werknemers die door de Europese instellingen en de sociale partners zijn goedgekeurd volledig worden toegepast en versterkt, met name bij de invoering van nieuwe technologieën zoals KI en robotica (4). Het EESC pleit voor een inclusief Europees programma voor KI dat is opgezet op grond van deze teksten en de Europese pijler van sociale rechten waarbij alle belanghebbenden betrokken zijn.

1.8.

De door de Commissie op te stellen ethische richtsnoeren voor KI zouden wat de interactie tussen intelligente werknemers en machines betreft een duidelijke grens moeten aangeven, zodat de mens nooit de uitvoerder van de machine wordt. In de geest van inclusieve AI moeten deze richtsnoeren beginselen omvatten voor participatie, verantwoordelijkheid en eigen inbreng in de productieprocessen zodat, zoals in het statuut van de IAO staat, werkenden in hun baan de voldoening vinden om al hun vaardigheden en kennis aan te spreken en zo goed mogelijk bij te dragen aan het algemeen belang.

1.9.

Het EESC beveelt tevens aan dat in deze richtsnoeren transparantiebeginselen worden opgenomen met betrekking tot het gebruik van KI-systemen voor het in dienst nemen en evalueren van en leiding geven aan werknemers, alsmede beginselen voor gezondheid en veiligheid en voor de verbetering van de arbeidsvoorwaarden. Tot slot moeten zij de bescherming van de rechten en vrijheden bij de verwerking van werknemersgegevens waarborgen, met inachtneming van het non-discriminatiebeginsel.

1.10.

Er zal toezicht moeten worden gehouden op de toepassing van de ethische richtsnoeren op het gebied van KI. Een Europese waarnemingspost voor ethiek in KI-systemen zou deze rol van toezichthouder of bewaker toegewezen kunnen krijgen, ook voor het bedrijfsleven.

1.11.

Het EESC beveelt tevens aan ingenieurs en ontwikkelaars van intelligente apparaten te onderwijzen over ethische kwesties om nieuwe vormen van digitaal taylorisme — waarbij de mens alleen nog maar instructies van slimme machines volgt — te voorkomen. De verspreiding van goede praktijken en de uitwisseling van ervaringen op dit gebied moeten worden bevorderd.

1.12.

Het EESC vraagt om verduidelijking van het beginsel van de wettelijke aansprakelijkheid. In het licht van de richtlijn inzake productaansprakelijkheid vereisen de nieuwe gezondheids- en veiligheidsrisico’s in de interactie tussen mens en machine een ambitieuzere aanpak (5).

1.13.

Gezien het gevaar dat de digitalisering leidt tot sociale polarisatie roept het EESC de instellingen van de EU op een debat aan te zwengelen over de financiering van begrotingsmiddelen en socialebeschermingsstelsels in een economie waar de roboticadichtheid toeneemt (6), aangezien de belasting op arbeid nog altijd de voornaamste bron van belastinginkomsten in Europa is. Met het oog op het billijkheidsbeginsel zou dit debat ook de herverdeling van de winst van de digitalisering moeten behelzen.

2.   Inleiding

2.1.

KI heeft een ongekende ontwikkeling doorgemaakt sinds de opkomst van dit concept in 1956, en gedurende de hele tweede helft van de twintigste eeuw. Ze heeft tot hooggespannen verwachtingen maar ook tot grote desillusies geleid. Sinds enkele jaren maakt zij echter opnieuw een grote bloei door dankzij de verzameling, ordening en opslag van een hoeveelheid gegevens („big data”) die ongekend is in de geschiedenis van de mensheid en dankzij de exponentiële toename van de computercapaciteit en de mogelijkheden van algoritmen.

2.2.

Het EESC heeft in 2017 een advies (7) over KI opgesteld waarin tal van uitdagingen worden aangekaart. Zoals in dit advies wordt benadrukt, bestaat er geen exacte definitie van KI. In het kader van dit advies vatten wij KI op als een discipline die digitale technologieën beoogt te gebruiken voor het creëren van systemen die zelfstandig menselijke cognitieve functies kunnen reproduceren — inclusief met name het begrijpen van gegevens, een vorm van begrip en van aanpassing (oplossen van problemen, automatisch redeneren en leren).

2.3.

KI-systemen zijn tegenwoordig in staat complexe problemen op te lossen, die soms buiten het bereik van menselijke intelligentie liggen. De toepassingen zijn schijnbaar ontelbaar, zowel op het gebied van het bankwezen, verzekeringen, vervoer, gezondheidszorg, onderwijs, energie, marketing, defensie als op dat van onder meer de bouw, de landbouw en het ambacht (8). Van KI wordt verwacht dat zij de productie van goederen en diensten efficiënter maakt, het rendement van ondernemingen vergroot en aan de economische groei bijdraagt.

2.4.

Deze nieuwe bloei van KI doet ook opnieuw tal van vragen rijzen ten aanzien van haar mogelijke rol in de samenleving, haar mate van autonomie en haar interactie met de mens. Zoals in het in 2017 goedgekeurde advies van het EESC over KI (9) is benadrukt, gaan deze vragen voornamelijk over ethiek, veiligheid, transparantie, privacy en arbeidsnormen, onderwijs, toegankelijkheid, wet- en regelgeving, governance en democratie.

2.5.

Een wederzijdse beïnvloeding van de verschillende benaderingen in de discussie over KI is nodig om dit debat uit de economische sfeer te halen waarin die soms verstrikt raakt. Een dergelijk multidisciplinair kader zou nuttig zijn bij de analyse van de gevolgen van KI voor de arbeidsmarkt, aangezien die een van de voornaamste plaatsen van interactie is tussen mens en machine. Van oudsher is werk door techniek beïnvloed. De gevolgen van KI voor werkgelegenheid en werk vragen nu om bijzondere aandacht op politiek vlak, aangezien de instellingen met name de taak hebben om de processen van economische transformatie sociaal duurzaam te maken (10).

2.6.

Dit initiatiefadvies heeft tot doel de uitdagingen van KI voor werk, inclusief voor de aard ervan, arbeidsomstandigheden en arbeidsorganisatie, naar voren te brengen. Zoals reeds door het EESC is benadrukt (11), moeten de statistische hulpmiddelen worden verbeterd en de onderzoeksactiviteiten worden opgevoerd om precieze ramingen te kunnen maken ten aanzien van de ontwikkeling van de arbeidsmarkt, alsook duidelijke indicatoren te kunnen opstellen voor bepaalde tendensen met betrekking tot met name de kwaliteit van het werk, de polarisatie van arbeid en inkomsten en de arbeidsomstandigheden in de digitale transformatie. De EU beschikt niet over voldoende gegevens over de zogenaamde „deeleconomie”, platforms voor werk op verzoek, nieuwe modellen voor onlineonderaanneming of het gebruik van industriële robots persoonsgebonden diensten, het internet der dingen en het gebruik en de verspreiding van KI-systemen.

3.   KI en de ontwikkeling van de werkgelegenheid

3.1.

Over de vraag in hoeverre de invoering van KI en robotica in productieprocessen ten koste zal gaan van de werkgelegenheid zijn de meningen verdeeld. Talrijke studies hebben getracht antwoord te geven op deze vraag zonder echter tot een wetenschappelijke consensus te komen. Hun uiteenlopende resultaten (het aantal banen dat in gevaar is loopt uiteen van 9 % tot 54 % (12)) weerspiegelen de complexiteit van de methodologische keuzen en de doorslaggevende gevolgen ervan voor de onderzoeksresultaten.

3.2.

De prognoses zijn onzeker, omdat andere factoren dan het technisch automatiseringspotentieel ook een rol spelen: politieke, regelgevende, economische en demografische ontwikkelingen alsook de maatschappelijke aanvaardbaarheid. Dat de technologie voorhanden is, volstaat niet om het gebruik en de verspreiding ervan te garanderen.

3.3.

Het blijft dus onmogelijk voor elke sector een netto-aantal van automatiseerbare banen te voorspellen zonder rekening te houden met de verandering van beroepen en het tempo waarmee nieuwe banen worden gecreëerd. De ontwikkeling van KI-systemen zal namelijk nopen tot nieuwe arbeidsplaatsen in engineering, informatica en telecommunicatie (ingenieurs, technici en operators) en op het gebied van megagegevens („big data”): gegevensfunctionarissen („data officers”), gegevensanalisten („data analysts”), gegevensonderzoekers („data miners”) enz.

3.4.

Overheidsinstellingen moeten zorgen voor de sociale duurzaamheid van deze digitalisering, die van invloed zal kunnen zijn op zowel de kwantiteit als de kwaliteit van banen (13). Deskundigen wijzen in dit verband onder meer op het risico van polarisatie van banen tussen enerzijds „winnaars”, die over de kwalificaties beschikken die van nut zijn voor de digitale economie, en anderzijds „verliezers”, van wie de kwalificaties, ervaring en kennis geleidelijk achterhaald zullen raken door deze transformatie. In haar recente mededeling (14) stelt de Europese Commissie een oplossing voor deze uitdaging voor die voornamelijk betrekking heeft op inspanningen op het gebied van onderwijs, opleiding, verbetering van de basisvaardigheden in schrijven, lezen en rekenen en van de digitale vaardigheden. Deze oplossing verdient de steun van economische en sociale actoren, met name in het kader van de nationale, Europese, bedrijfstakoverkoepelende en sectorale sociale dialoog (15).

3.5.

Het EESC is echter van mening dat dergelijke inspanningen niet zullen volstaan om tegemoet te komen aan alle uitdagingen, met name aan de onzekerheid in de ontwikkeling van banen. Drie aanvullende opties zijn het waard te worden ontwikkeld: een „inclusieve” KI, de anticipatie op veranderingen en tot slot — wanneer sociale plannen onvermijdelijk zijn geworden — maatschappelijk verantwoorde en afgebakende herstructureringen.

4.   Inclusieve en slimme KI en robotisering

4.1.

Het EESC steunt het beginsel van een programma voor inclusieve KI en robotisering. Bij de invoering in bedrijven van nieuwe processen die gebruikmaken van nieuwe technologieën zou het conform dat beginsel nuttig zijn om werknemers inspraak te geven in de werking van deze processen. Zoals de WRR opmerkt (16), kan de „inclusieve en slimme” invoering van nieuwe technologieën — waarbij werknemers centraal blijven staan in de processen en bijdragen aan de verbetering ervan — helpen de verbetering van productieprocessen te bevorderen (17).

4.2.

Gezien de rol die algoritmen spelen bij de manier waarop mensen worden gerekruteerd, werken en worden beoordeeld, staat het EESC achter algoritmische transparantie. Dat betekent niet dat codes openbaar worden gemaakt, maar dat de parameters en criteria van beslissingen begrijpelijk worden gemaakt. Er moet altijd een beroep op mensen kunnen worden gedaan.

4.3.

Een KI-systeem dat de werknemer centraal stelt, houdt rekening met de standpunten van de personen die in nieuwe technologische processen werkzaam zullen zijn, stelt duidelijk de taken en verantwoordelijkheden vast die in handen van de werknemers zullen blijven en handhaaft vormen van eigen inbreng in het werk door werknemers om te voorkomen dat zij louter uitvoerders worden.

4.4.

Het beginsel van wettelijke aansprakelijkheid moet worden verduidelijkt. Industriële of dienstenrobots werken steeds meer samen met de mens. KI zorgt ervoor dat robots „uit hun kooi komen”, en hierbij kunnen zich ongevallen voordoen (18). Daarom moet de aansprakelijkheid van autonome systemen bij ongevallen duidelijk worden vastgesteld; de risico’s op het gebied van gezondheid en veiligheid die werknemers lopen, moeten kunnen worden gedekt. Tegen de achtergrond van de richtlijn inzake productaansprakelijkheid (19) is de Europese Commissie een discussie begonnen over deze nieuwe risico’s. Wat de veiligheid op het werk betreft zou deze aanpak een stuk ambitieuzer moeten zijn.

4.5.

Het op de arbeidsmarkt toegepaste beginsel van billijkheid bestaat erin de werknemer zijn werk niet te ontnemen. Sommige deskundigen wijzen op het risico dat werknemers door KI vaardigheden kwijtraken. Conform het statuut van de IAO moeten werkenden daarom in hun baan de voldoening vinden om al hun vaardigheden en kennis aan te spreken en zo goed mogelijk bij te dragen aan het algemeen belang. Vanuit het oogpunt van het management is het ook een manier om werknemers gemotiveerd te houden.

5.   Anticiperen op veranderingen

5.1.

In tal van studies wordt erop gewezen dat de sociale dialoog op Europees niveau, en soms op nationaal niveau, in de afgelopen jaren is uitgehold, en dit ondanks de bereidheid van de Commissie en de Europese Raad om deze dialoog te „hervatten”. Deze sociale dialoog is desalniettemin een van de meest geschikte hulpmiddelen om het hoofd te bieden aan de sociale uitdagingen van de digitalisering. Daarom pleit het EESC er ten zeerste voor dat deze dialoog een vaste praktijk wordt in bedrijven en op alle relevante niveaus teneinde de veranderingen op een maatschappelijk aanvaardbare wijze voor te bereiden. Het EESC herinnert eraan dat de sociale dialoog een van de beste garanties vormt voor sociale vrede en vermindering van de ongelijkheid. Naast politieke verklaringen om de sociaal dialoog te hervatten, hebben de instellingen van de EU een grote verantwoordelijkheid om deze te stimuleren en te ondersteunen.

5.2.

Met name ten aanzien van de invoering van deze technologieën moet deze dialoog er enerzijds voor zorgen dat de vooruitzichten van de verandering van de productieprocessen op het niveau van ondernemingen en sectoren bekend zijn en dat de nieuwe behoeften op het gebied van kwalificaties en opleiding in kaart worden gebracht. Anderzijds moet ook alvast worden nagedacht over het gebruik van KI om organisatorische en productieprocessen te verbeteren, de kwalificaties van werknemers te vergroten en de door KI vrijgemaakte middelen te optimaliseren voor de ontwikkeling van nieuwe producten en diensten of voor de verbetering van de kwaliteit van de klantendienst.

5.3.

Maatschappelijk verantwoorde herstructureringen

5.4.

Indien sociale plannen onvermijdelijk worden geacht, hebben de uitdagingen te maken met het sociaal beheer van deze herstructureringen. Zoals de Europese sociale partners in hun „Richtsnoeren voor het beheer van veranderingen en de sociale gevolgen ervan” (20) hebben benadrukt, wijzen tal van casestudy’s op het belang van onderzoek naar alle mogelijke alternatieven voor ontslagen, zoals opleiding, omscholing en steun voor de oprichting van bedrijven.

5.5.

In geval van herstructureringen moet de informatie en de raadpleging van de werknemers, overeenkomstig de toepasselijke Europese richtlijnen (21) het mogelijk maken om het anticiperen op risico’s te bevorderen, de toegang van werknemers tot opleidingsmogelijkheden binnen de onderneming te verbeteren, de organisatie van het werk flexibeler te maken in een kader van zekerheid, en de betrokkenheid van de werknemers bij de plannen voor de toekomst van de onderneming te bevorderen.

5.6.

Zoals de Europese Commissie zeer terecht benadrukt, moet de EU overeenkomstig de Europese pijler van sociale rechten (22) dus waarborgen dat alle burgers, waaronder werknemers en zelfstandigen of schijnzelfstandigen, toegang hebben tot sociale bescherming, „ongeacht de aard en de duur van hun arbeidsrelatie”.

6.   KI en verbetering van de arbeidsomstandigheden

6.1.

Op 25 april 2018 heeft de Europese Commissie een „Europese benadering” voorgesteld ter bevordering van beleid voor investering in de ontwikkeling van KI en voor het instellen van richtsnoeren op het gebied van ethiek. Zij wijst op het transformatiepotentieel van onze samenleving dat met KI-technologieën gepaard gaat, met name in de sectoren vervoer, gezondheidszorg en in de verwerkende industrie.

6.2.

Dit transformatiepotentieel komt tot uiting in de productieprocessen en heeft ook een impact op de inhoud van werk. Deze impact kan positief uitdraaien, met name wat betreft de wijze waarop KI deze processen en de kwaliteit van werk kan verbeteren. Dezelfde positieve gevolgen kunnen afstralen op „flexibele” arbeidsorganisaties waar meer sprake is van gedeelde besluitvorming, alsook autonomie van de teams, ruime inzetbaarheid, horizontale organisatie en innovatieve en participatieve praktijken (23).

6.3.

Zoals het EESC (24) en de Commissie zelf benadrukken, kan KI werknemers helpen bij terugkerende, moeilijke of zelfs gevaarlijke taken en kunnen bepaalde toepassingen van KI het welzijn van werknemers verbeteren en hun dagelijkse werkzaamheden vergemakkelijken.

6.4.

Deze visie gaat echter gepaard met nieuwe vragen, met name ten aanzien van de interactie tussen KI en de werknemer, en de ontwikkeling van de inhoud van het werk. In hoeverre zullen slimme machines in fabrieken, ondernemingen en kantoren autonoom zijn en welke vormen van complementariteit met menselijke arbeid zullen er zijn? Het EESC benadrukt dat de definitie van de relatie tussen mens en machine in de nieuwe arbeidswereld van het grootste belang is. Het is essentieel dat de mens te allen tijde de controle over de machine behoudt (25).

6.5.

Het is a priori ethisch niet aanvaardbaar dat een mens door KI in zijn doen en laten wordt beperkt, of wordt gezien als een uitvoerder van een machine die hem vertelt welke taken hij moet vervullen, op welke manier en binnen welke termijn. Toch lijkt deze ethische grens soms te worden overschreden (26). Daarom moet deze ethische grens duidelijk worden verwoord in de ethische richtlijnen van de AI.

6.6.

Het moet een prioriteit zijn voor de EU om te voorkomen dat heden ten dage door ontwikkelaars van slimme machines nieuwe vormen worden gecreëerd van digitaal taylorisme. Zoals het EESC onlangs heeft bevestigd, moeten Europese onderzoekers, ontwikkelaars, ingenieurs en ondernemers die een bijdrage leveren aan het ontwerpen, ontwikkelen en op de markt brengen van KI-systemen daarom op ethisch en maatschappelijk verantwoorde wijze handelen. In dat verband is het wellicht een goed idee om binnen het opleidingsprogramma van ingenieurs ook aandacht aan ethische kwesties en geesteswetenschappen te besteden (27).

6.7.

Een ander vraagstuk betreft toezicht en controle op managementniveau. Iedereen is het eens over de noodzaak van verstandig toezicht op de productieprocessen en dus op het verrichte werk. Tegenwoordig kunnen dankzij nieuwe technologische hulpmiddelen mogelijkerwijs slimme systemen voor volledige controle in real-time van werknemers worden opgezet, met het risico echter dat toezicht en controle buitensporig worden.

6.8.

De vraag of de controle van de uitvoering van het werk, de prestatie-indicatoren en de vertrouwensrelatie tussen manager en medewerker redelijk en evenredig zijn, zou eveneens op de agenda van de nationale, Europese, bedrijfstakoverkoepelende en sectorale sociale dialoog moeten staan.

6.9.

Het vraagstuk of algoritmen en trainingsgegevens „bevooroordeeld” zijn en mogelijk negatieve discriminerende effecten teweegbrengen, blijft omstreden. Volgens sommigen zouden algoritmen en andere voorspellende aanwervingssoftware discriminatie bij indienstneming kunnen verminderen en „slimmere” aanwervingen kunnen bevorderen. Volgens anderen bestaat altijd het risico dat aanwervingssoftware, zelfs ongewild, de standpunten van de programmeurs van deze aanwervingsrobots weerspiegelt. Volgens sommige deskundigen zijn algoritmische modellen niet meer dan met wiskunde opgetuigde standpunten (28). Daarom moet er niet alleen voor worden gezorgd dat menselijk ingrijpen mogelijk is (in samenhang met het hierboven uiteengezette beginsel van transparantie: recht om besluitvormingscriteria op te vragen) maar ook dat de verzameling en verwerking van gegevens aan de beginselen van evenredigheid en doelbinding beantwoorden. In elk geval mogen gegevens niet worden gebruikt voor andere doeleinden dan die waarvoor zij zijn verzameld (29).

6.10.

De door de algemene verordening gegevensbescherming aan de lidstaten geboden mogelijkheid om, wettelijk of middels collectieve overeenkomsten, te voorzien in specifiekere regels ter bescherming van de rechten en vrijheden met betrekking tot de verwerking van de persoonsgegevens van werknemers in het kader van de arbeidsverhouding, vormt een waar hefboommechanisme waarover de lidstaten en de sociale partners zich moeten buigen (30).

6.11.

Er zij op gewezen dat de risico’s niet alleen betrekking hebben op werknemers. De ontwikkeling van onlineonderaanneming, werk op platforms en verschillende vormen van participatief werk gaat ook vergezeld van nieuwe systemen voor geautomatiseerd beheer van prestaties en stiptheid, waarvan de ethische grenzen soms lijken te worden overschreden (inwerkingstelling van de webcam van de werknemer door het platform, schermafdrukken maken op afstand enz.).

6.12.

De algoritmen van deze platforms, die onder meer de vergoeding van de zelfstandige medewerker diens digitale reputatie en mogelijkheden voor toegang tot opdrachten bepalen, zijn vaak ondoorzichtig. Hun werkingswijze wordt niet uitgelegd aan de medewerkers die geen toegang hebben tot de toegepaste werkingscriteria.

7.   Een eerlijke overgang voorbereiden

7.1.

Op de middellange termijn vraagt het door tal van deskundigen benadrukte risico van sociale polarisatie om een grondige beschouwing van de toekomst van onze sociale modellen, inclusief de financiering ervan. Het EESC verzoekt de Commissie een debat op te starten over de kwestie van de belastingheffing en de financiering van begrotingsmiddelen en collectieve socialebeschermingsstelsels in een economie waar de roboticadichtheid snel toeneemt (31), aangezien de belasting op arbeid de voornaamste bron van belastinginkomsten in Europa blijft. Dit debat zou de kwestie van de herverdeling van dividenden van de digitalisering moeten behelzen.

7.2.

De Commissie stelt voor om het Europees Fonds voor aanpassing aan de globalisering (EFG) te versterken en onder meer open te stellen voor werknemers die hun baan zien verdwijnen en zelfstandigen die door de digitalisering van de economie (automatisering) werkloos worden (32). Dat is een stap in de richting van een volwaardig Europees overgangsfonds dat mede kan zorgen voor een goede voorbereiding op en een maatschappelijk verantwoord beheer van de digitalisering en de herstructureringen die daaruit voortvloeien.

7.3.

De sociale en, meer in het algemeen, maatschappelijke aspecten van KI vormen steeds meer het voorwerp van nationale debatten. Tijdens recente discussies in het Britse parlement (33) en de Franse Senaat is gewezen op de noodzaak om een ethische benadering van KI te bevorderen die gestoeld is op een aantal beginselen zoals loyaliteit, transparantie en begrijpelijkheid van algoritmische systemen, ethiek en aansprakelijkheid van KI-toepassingen en bewustmaking van onderzoekers, deskundigen en specialisten omtrent het potentieel verkeerde gebruik van hun onderzoeksresultaten. In Frankrijk wordt in het Villani-verslag getracht „invulling te geven” aan KI (34). Tal van deskundigen aan de universiteiten van Yale, Stanford, Cambridge en Oxford waarschuwen voor „onopgeloste kwetsbaarheden” van KI en wijzen erop dat deze absoluut moeten worden voorzien, voorkomen en verminderd (35). Ook de Québec Research Funds (FRQ) buigen zich sinds enkele maanden, in samenwerking met de Universiteit van Montreal, over een project voor een mondiale waarnemingspost voor de maatschappelijke gevolgen van KI en digitalisering (36).

7.4.

Al deze initiatieven tonen aan dat het debat over KI uit de economische en technische sfeer moet worden gehaald en dat de openbare besprekingen moeten worden uitgebreid naar de rol die KI volgens de maatschappij dient te vervullen, ook op de arbeidsmarkt. Dergelijke besprekingen zullen ervoor zorgen dat men ontsnapt aan de val van de „valse tweedeling” tussen een geheel naïeve en optimistische visie op KI en de gevolgen ervan en een rampzalige visie (37). Het feit deze debatten op nationaal niveau worden aangevangen, vormt een nuttige eerste stap, maar de EU heeft ook een rol te vervullen, met name door richtsnoeren inzake ethiek vast te stellen, waar de Commissie inmiddels mee begonnen is.

7.5.

De kwestie van de tenuitvoerlegging van deze richtsnoeren zal moeten worden overgelaten aan een waarnemingspost voor het ethische gehalte van KI-systemen. Het gaat erom KI en de toepassingen ervan ten dienste te stellen van het welzijn en de emancipatie van burgers en werknemers — met eerbiediging van de grondrechten — en te voorkomen dat zij direct of indirect ertoe bijdragen dat eigen inbreng en autonomie verloren gaan en dat werknemers vaardigheden verleren en onder hun niveau werken. Het beginsel van „de mens aan het roer” in elke mogelijke context, waaronder in de context van werk, moet zijn beslag krijgen in concrete toepassingen.

7.6.

Dit beginsel moet ook worden toegepast op andere activiteitensectoren, zoals zorgprofessionals, die diensten verlenen die nauw samenhangen met het leven, de gezondheid, de veiligheid en de levenskwaliteit van mensen. Alleen strikte ethische regels kunnen waarborgen dat niet alleen werknemers, maar ook consumenten, patiënten, klanten en dienstverleners, ten volle profijt kunnen trekken van de nieuwe KI-toepassingen.

Brussel, 19 september 2018.

De voorzitter van het Europees Economisch en Sociaal Comité

Luca JAHIER


(1)  Acemoglu, D., Restrepo, P. (2018), „Artificial Intelligence, Automation and Work”, NBER Working Paper 24196, januari 2018. Zie ook: Conseil d’orientation pour l’emploi (2017), Automatisation, numérisation et emploi. (Deel 1) (www.coe.gouv.fr).

(2)  Acemoglu, D., op.cit.; Conseil d’orientation pour l’emploi (2017), op. cit.

(3)  COM(2018) 380 final.

(4)  Richtlijn 2002/14/EG; memorandum van overeenstemming Unice-EVV-CEEP over sociale dialoog en nieuwe technologieën, 1985; Gemeenschappelijk Standpunt van de sociale partners over nieuwe technologieën, arbeidsorganisatie en het aanpassingsvermogen van de arbeidsmarkt, 1991; Richtsnoeren voor het omgaan met veranderingen en de sociale gevolgen daarvan, 2003.

(5)  COM(2018) 246 final.

(6)  https://ifr.org/ifr-press-releases/news/robots-double-worldwide-by-2020

(7)  PB C 288 van 31.8.2017, blz. 1.

(8)  Zie met name: https://www.techemergence.com

(9)  PB C 288 van 31.8.2017, blz. 1.

(10)  Eurofound (2018), Automation, digitalisation and platforms: Implications for work and employment, Bureau voor publicaties van de Europese Unie, Luxemburg.

(11)  PB C 13 van 15.1.2016, blz. 161.

(12)  Frey et Osborne, 2013; Bowles, 2014; Arntz, Gregory et Zierahn, 2016; Le Ru, 2016; McKinsey, 2016; OCDE, 2017; zie ook verkennend advies CCMI/136 (PB C 13 van 15.1.2016, blz. 161).

(13)  http://www.oecd.org/employment/future-of-work/

(14)  COM(2018) 237 final.

(15)  PB C 367, 11.4.2018, blz. 15.

(16)  Nederlandse Wetenschappelijke Raad voor het Regeringsbeleid.

(17)  https://www.wrr.nl/actueel/nieuws/2015/12/08/wrr-bepleit-inclusieve-robotagenda

(18)  Zie de werkzaamheden in verband met „nieuwe risico’s” van het Europees Agentschap voor de veiligheid en de gezondheid op het werk (https://osha.europa.eu/nl/emerging-risks). Het agentschap schrijft: „In voorbereiding op deze ontwikkelingen moeten de huidige benaderingen en technische normen, gericht op het beschermen van werknemers tegen de risico’s van samenwerken met samenwerkende robots, worden herzien.”.

(19)  COM(2018) 246 final.

(20)  Gezamenlijke tekst Unice, CEEP, UEAPME en EVV, 16.10.2003.

(21)  Richtlijn 2002/14/EG tot vaststelling van een algemeen kader betreffende de informatie en de raadpleging van de werknemers in de EU.

(22)  PB C 303 van 19.8.2016, blz. 54; PB C 173 van 31.5.2017, blz. 15; PB C 129 van 11.4.2018, blz. 7; PB C 434 van 15.12.2017, blz. 30.

(23)  PB C 434 van 15.12.2017, blz. 30.

(24)  PB C 367 van 11.4.2018, blz. 15.

(25)  PB C 288 van 31.8.2017, blz. 1; PB C 367 van 10.10.2018, blz. 15.

(26)  In verschillende Europese media is gewag gemaakt van de arbeidsomstandigheden in bepaalde logistieke centra waar werknemers volledig afhankelijk zijn van algoritmen voor de te vervullen taken en de bijbehorende termijnen, en waar hun prestaties in realtime worden gemeten.

(27)  PB C 367, 11.4.2018, blz. 15.

(28)  Cathy O’Neil, Harvard PhD and data scientist, „models are opinions embedded in mathematics” (https://www.theguardian.com/books/2016/oct/27/cathy-oneil-weapons-of-math-destruction-algorithms-big-data).

(29)  Zie bijvoorbeeld publicaties van de Franse CNIL („Comment permettre à l’homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle”),

https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf).

(30)  Verordening (EU) 2016/679 (artikel 88).

(31)  https://ifr.org/ifr-press-releases/news/robots-double-worldwide-by-2020

(32)  COM(2018) 380 final.

(33)  https://www.parliament.uk/ai-committee

(34)  http://www.enseignementsup-recherche.gouv.fr/cid128577/rapport-de-cedric-villani-donner-un-sens-a-l-intelligence-artificielle-ia.html

(35)  https://www.eff.org/files/2018/02/20/malicious_ai_report_final.pdf

(36)  http://nouvelles.umontreal.ca/article/2018/03/29/le-quebec-jette-les-bases-d-un-observatoire-mondial-sur-les-impacts-societaux-de-l-ia/

(37)  Acemoglu, D., op.cit. Zie ook Eurofound 2018, Automation, digitalisation and platforms: Implications for work and employment, Bureau voor publicaties van de Europese Unie, Luxemburg, blz. 23: „The risks comprise unwarranted optimism, undue pessimism and mistargeted insights”.