Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52018IE1473

Parere del Comitato economico e sociale europeo su «L’intelligenza artificiale: anticipare i suoi effetti sul lavoro per assicurare una transizione equa» (parere d’iniziativa)

EESC 2018/01473

GU C 440 del 6.12.2018, p. 1–7 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

6.12.2018   

IT

Gazzetta ufficiale dell’Unione europea

C 440/1


Parere del Comitato economico e sociale europeo su «L’intelligenza artificiale: anticipare i suoi effetti sul lavoro per assicurare una transizione equa»

(parere d’iniziativa)

(2018/C 440/01)

Relatrice:

Franca SALIS-MADINIER

Decisione dell’Assemblea plenaria

15.2.2018

Base giuridica

Articolo 29, paragrafo 2, del Regolamento interno

Sezione competente

Mercato unico, produzione e consumo

Adozione in sezione

4.9.2018

Adozione in sessione plenaria

19.9.2018

Sessione plenaria n.

537

Esito della votazione

(favorevoli/contrari/astenuti)

183/1/2

1.   Conclusioni e raccomandazioni

1.1.

L’intelligenza artificiale (IA) e la robotica estenderanno e amplificheranno gli effetti della digitalizzazione dell’economia sui mercati del lavoro (1). Da sempre il progresso tecnico ha avuto un impatto sul lavoro e l’occupazione, e queste ricadute hanno richiesto nuove forme di inquadramento sociale e socioculturale. Il Comitato economico e sociale europeo (CESE) è convinto che lo sviluppo tecnologico possa contribuire al progresso economico e sociale, ma considera sbagliato ignorarne gli effetti globali sulla società. Nel contesto lavorativo, l’IA estenderà e amplierà la portata dell’automazione dei posti di lavoro (2). Per questo motivo il CESE intende contribuire alla preparazione delle trasformazioni sociali che accompagneranno lo sviluppo dell’intelligenza artificiale e della robotica mediante un rafforzamento e un rinnovamento del modello sociale europeo.

1.2.

Il CESE desidera sottolineare le potenzialità dell’IA e delle sue applicazioni, in particolare nei settori dell’assistenza sanitaria, della sicurezza nei trasporti, dell’energia e della lotta contro i cambiamenti climatici, nonché per la previsione delle minacce in materia di sicurezza informatica. L’Unione europea, i governi e le organizzazioni della società civile hanno un ruolo importante da svolgere per trarre pieno vantaggio dai benefici che l’IA può apportare, in particolare alle persone con disabilità e/o a mobilità ridotta, nonché agli anziani e ai malati cronici.

1.3.

Tuttavia, l’UE non dispone di dati sufficienti sull’economia digitale e sulla conseguente trasformazione sociale. Il CESE raccomanda di migliorare gli strumenti statistici e la ricerca, in particolare sull’IA, l’uso dei robot industriali e di servizio, l’Internet degli oggetti e i nuovi modelli economici (l’economia delle piattaforme, le nuove forme di occupazione e lavoro).

1.4.

Il CESE chiede che la Commissione europea promuova e sostenga la realizzazione di studi (a livello dei comitati europei di dialogo sociale settoriale) sugli impatti settoriali dell’intelligenza artificiale e della robotica e, più in generale, della digitalizzazione dell’economia.

1.5.

È generalmente riconosciuto che l’IA e la robotica porteranno alla delocalizzazione e trasformazione dei posti di lavoro, alla scomparsa di certe professioni/occupazioni e alla nascita di altre. In ogni caso, l’UE deve garantire l’accesso di tutti i lavoratori — siano essi dipendenti o autonomi (compresi quelli fittizi) — alla protezione sociale, in linea con il pilastro europeo dei diritti sociali.

1.6.

La Commissione ha proposto di rafforzare il Fondo europeo di adeguamento alla globalizzazione in modo che ne possano beneficiare sia i lavoratori dipendenti che quelli autonomi la cui attività lavorativa è cessata a causa della digitalizzazione dell’economia (3). Il CESE ritiene che si tratti di un passo verso l’istituzione di un autentico Fondo europeo di transizione che contribuirebbe a una gestione socialmente responsabile della trasformazione digitale.

1.7.

Il CESE raccomanda di applicare e rafforzare i principi, gli impegni e gli obblighi enunciati nei testi vigenti, adottati dalle istituzioni europee e dalle parti sociali, sull’informazione e la consultazione dei lavoratori, in particolare quando vengono introdotte nuove tecnologie, tra cui l’IA e la robotica (4). Il CESE auspica la creazione di un programma europeo comprendente la questione dell’IA che sia basato su questi testi e sul pilastro europeo dei diritti sociali, e che coinvolga tutte le parti interessate.

1.8.

Il CESE raccomanda che negli orientamenti etici per l’IA che la Commissione elaborerà venga chiaramente indicato un limite nell’interazione tra lavoratori e macchine intelligenti, in modo che l’essere umano non sia mai l’esecutore della macchina. Nell’ottica di un’IA inclusiva, questi orientamenti devono stabilire principi di partecipazione, responsabilità e titolarità dei processi di produzione affinché, come sottolineato nella Costituzione dell’OIL, l’attività lavorativa conferisca a coloro che la esercitano la soddisfazione di mostrare tutte le loro capacità e conoscenze e di contribuire meglio possibile al benessere comune.

1.9.

Il CESE raccomanda inoltre che questi orientamenti comprendano principi di trasparenza nell’utilizzo dei sistemi di IA per quel che concerne l’assunzione, la valutazione e il controllo manageriale dei lavoratori, nonché principi in materia di salute, sicurezza e miglioramento delle condizioni di lavoro. Infine, essi devono garantire la protezione dei diritti e delle libertà riguardanti il trattamento dei dati dei lavoratori, nel rispetto dei principi di non discriminazione.

1.10.

L’attuazione degli orientamenti etici nel settore dell’IA deve essere oggetto di monitoraggio. Questo ruolo di vigilanza o di controllo (anche in contesti aziendali) potrebbe essere attribuito a un Osservatorio europeo per l’etica nei sistemi di IA.

1.11.

Il CESE raccomanda una formazione in materia di etica per gli ingegneri e i progettisti di macchine intelligenti, per evitare che vengano introdotte nuove forme di «taylorismo digitale» in cui l’essere umano viene relegato all’esecuzione delle istruzioni impartite dalle macchine. Bisogna promuovere la diffusione delle buone pratiche e lo scambio di esperienze in questo settore.

1.12.

Il CESE chiede che venga chiarito il principio di responsabilità giuridica. Nel rapporto tra l’uomo e la macchina, i rischi che si profilano in materia di salute e sicurezza devono essere oggetto di un approccio più ambizioso nel quadro della direttiva sulla responsabilità per danno da prodotti difettosi (5).

1.13.

Di fronte al rischio di una polarizzazione sociale nel quadro della trasformazione digitale, il CESE chiede alle istituzioni dell’UE di avviare un dibattito sulla questione del finanziamento dei bilanci pubblici e dei sistemi di protezione sociale, in un contesto economico in cui, a fronte di un’automazione che va assumendo una maggiore densità, l’imposta sul reddito da lavoro rimane tuttora la principale fonte di gettito fiscale in Europa (6). Per applicare il principio di equità, sarebbe utile che questo dibattito affrontasse anche la questione della ridistribuzione dei benefici della digitalizzazione.

2.   Introduzione

2.1.

Sin dalla sua apparizione nel 1956, il concetto di IA ha registrato sviluppi disomogenei, osservabili anche durante tutta la seconda metà del XX secolo. L’IA ha suscitato, di volta in volta, grandi speranze e amare disillusioni. Da alcuni anni, tuttavia, essa sta attraversando una nuova fase di grande sviluppo reso possibile dalla raccolta, l’organizzazione e la memorizzazione di una quantità di dati senza precedenti (i cosiddetti megadati o big data) nella storia dell’umanità, nonché dall’aumento esponenziale della potenza di calcolo degli elaboratori elettronici e delle capacità degli algoritmi.

2.2.

Nel 2017 il CESE ha elaborato un parere sull’IA (7) in cui vengono affrontate numerose questioni importanti. Come sottolineato nel presente parere, non esiste una definizione precisa di «intelligenza artificiale». Ai fini del presente parere, per intelligenza artificiale si intende una disciplina che punta a utilizzare le tecnologie digitali per creare sistemi capaci di riprodurre in piena autonomia le funzioni cognitive degli esseri umani, tra cui — in particolare — l’acquisizione di dati e una forma di comprensione e di adattamento (risoluzione di problemi, ragionamenti e apprendimento automatici).

2.3.

I sistemi di IA sono oggi in grado di risolvere problemi complessi, talvolta al di fuori della portata dell’intelligenza umana. Le applicazioni sembrano potenzialmente innumerevoli, sia nei settori bancario, assicurativo, dei trasporti, dell’assistenza sanitaria, dell’istruzione, dell’energia, del marketing e della difesa, che nei settori dell’industria, delle costruzioni, dell’agricoltura, dell’artigianato ecc. (8). Ci si attende che l’IA migliori l’efficienza dei processi di produzione di beni e servizi, stimoli la redditività delle imprese e contribuisca alla crescita economica.

2.4.

Questo nuovo sviluppo dell’IA solleva inoltre numerosi interrogativi circa il suo ruolo potenziale nella società, il suo grado di autonomia e la sua interazione con l’essere umano. Come sottolineato nel parere del CESE sull’IA adottato nel 2017 (9), questi interrogativi vertono in particolare sull’etica, la sicurezza, la trasparenza, la vita privata e le norme in materia di lavoro, l’istruzione, l’accessibilità, la legislazione e la regolamentazione, la governance e la democrazia.

2.5.

È opportuno confrontare le differenti impostazioni nella discussione sull’IA, allo scopo di inquadrare questo dibattito al di fuori dello scenario economico in cui resta talvolta impaniato. Un quadro multidisciplinare di questo tipo sarebbe utile nell’analisi degli effetti dell’IA sul mondo del lavoro, perché l’ambiente lavorativo è uno dei principali luoghi di interazione tra l’uomo e la macchina. Da sempre il lavoro è stato influenzato dalla tecnica. Gli effetti dell’intelligenza artificiale sull’occupazione e il lavoro richiedono pertanto un’attenzione particolare a livello politico, in quanto le istituzioni hanno in particolare il compito di rendere i processi di trasformazione economica sostenibili dal punto di vista sociale (10).

2.6.

L’obiettivo del presente parere di iniziativa è mettere in evidenza le sfide dell’IA in rapporto all’occupazione, anche per quel che concerne la natura, le condizioni e l’organizzazione del lavoro. Come già sottolineato dal CESE (11), è opportuno migliorare le statistiche e la ricerca per poter elaborare non solo previsioni precise sull’evoluzione dei mercati del lavoro, ma anche indicatori chiari riguardanti alcune tendenze connesse in particolare alla qualità del lavoro, alla polarizzazione dei posti di lavoro e dei redditi, nonché alle condizioni di lavoro nella trasformazione digitale. L’UE non dispone di dati sufficienti sulla cosiddetta «economia collaborativa», sulle piattaforme di lavoro a chiamata, sui nuovi modelli di subappalto online, sull’impiego di robot industriali e di servizio alla persona, sull’Internet degli oggetti, nonché sull’uso e la diffusione dei sistemi di IA.

3.   IA ed evoluzione del volume dell’occupazione

3.1.

La questione dell’effetto esercitato sul volume dell’occupazione dall’introduzione dell’IA e della robotica nei processi di produzione è molto dibattuta. Numerosi studi hanno cercato di fornire una risposta a tale questione senza tuttavia giungere a un consenso nella comunità scientifica. La diversità dei risultati (la percentuale dei posti di lavoro minacciati oscilla tra il 9 % e il 54 % (12)) rispecchia la complessità delle scelte metodologiche e il loro impatto determinante sui risultati stessi della ricerca.

3.2.

Le previsioni sono incerte perché entrano in gioco altri fattori oltre al potenziale tecnico di automazione, ossia gli sviluppi politici, normativi, economici e demografici, nonché l’accettabilità sociale. Non è sufficiente che la tecnologia sia disponibile per garantirne l’utilizzo e la diffusione.

3.3.

Infine, è tuttora impossibile stilare un bilancio previsionale chiaro dei posti di lavoro automatizzabili in ogni settore senza tenere conto della trasformazione delle professioni e del ritmo con cui vengono creati nuovi posti di lavoro. Lo sviluppo dei sistemi di IA richiederà infatti nuovi posti di lavoro nei settori dell’ingegneria, dell’informatica, delle telecomunicazioni (ingegneri, tecnici e operatori), nonché nel settore dei megadati (big data), posti che saranno occupati da responsabili dei dati, analisti dei dati, esploratori dei dati ecc.

3.4.

Il ruolo delle istituzioni pubbliche consisterà nell’assicurare la sostenibilità sociale di questa trasformazione digitale, che potrà riguardare sia la quantità che la qualità dei posti di lavoro (13). Uno dei rischi evidenziati dagli esperti è quello di una polarizzazione dei posti di lavoro fra (da un lato) i «vincenti», che possiedono le qualifiche utili per l’economia digitale, e (dall’altro) i «perdenti», le cui qualifiche, esperienze e competenze saranno progressivamente rese obsolete da questa trasformazione. La risposta a questa sfida che la Commissione europea ha proposto in una sua recente comunicazione (14) è essenzialmente imperniata su interventi in materia di istruzione, formazione, nonché miglioramento delle competenze di base (leggere, scrivere e fare di conto) e di quelle digitali. Questa risposta merita il sostegno degli attori economici e sociali, specialmente nel quadro del dialogo sociale a livello nazionale, europeo, interprofessionale e settoriale (15).

3.5.

Secondo il CESE, tuttavia, questi interventi non saranno sufficienti a rispondere all’insieme dei problemi, in particolare all’incertezza nell’evoluzione dei posti di lavoro. Meritano un approfondimento tre assi d’intervento complementari: quello di un’IA «inclusiva», quello dell’anticipazione dei cambiamenti e, infine, quello delle ristrutturazioni socialmente responsabili e regolate quando sono inevitabili accordi in materia di licenziamenti collettivi.

4.   IA e automazione inclusive e intelligenti

4.1.

Il CESE appoggia il principio di un programma in materia di IA e di automazione inclusive. Questo significa che, al momento di introdurre nelle imprese nuovi processi che si avvalgono delle nuove tecnologie, sarebbe utile coinvolgere i lavoratori nelle modalità di funzionamento di tali processi. Come osserva il WRR (16), l’adozione «inclusiva e intelligente» di nuove tecnologie, in modo tale che i lavoratori rimangano al centro dei processi e contribuiscano a migliorarli, può servire a favorire il miglioramento dei processi produttivi (17).

4.2.

Tenuto conto della funzione svolta dagli algoritmi per quel che concerne le condizioni di assunzione, lavoro e valutazione professionale, il CESE sostiene il principio della trasparenza dell’algoritmo, che non consiste nel divulgare i codici ma nel rendere comprensibili i parametri e i criteri utilizzati per prendere delle decisioni. L’intervento umano deve essere sempre possibile.

4.3.

Un’IA che ponga al centro il lavoratore prende in considerazione i punti di vista delle persone chiamate a lavorare nell’ambito dei nuovi processi tecnologici, definisce chiaramente i compiti e le responsabilità che continueranno ad essere affidati ai lavoratori, e preserva delle forme di titolarità del lavoro da parte dei lavoratori, affinché questi non si trasformino in semplici esecutori.

4.4.

Occorre chiarire il principio di responsabilità giuridica. I robot industriali o di servizio collaborano in misura crescente con l’essere umano. L’IA consente ai robot di «uscire dalla gabbia» (ossia dai limiti loro imposti finora) e possono quindi verificarsi degli incidenti (18). Per questo motivo è necessario che, in caso di incidente, le responsabilità dei sistemi autonomi siano chiaramente definite e che sia possibile disporre di una copertura per i rischi incorsi dai lavoratori in materia di salute e di sicurezza. La Commissione europea ha avviato una riflessione su questi rischi emergenti nel quadro della direttiva sulla responsabilità per danno da prodotti difettosi (19). Per quanto concerne la sicurezza sul lavoro, questo approccio deve essere più ambizioso.

4.5.

Il principio di equità applicato al mondo del lavoro consiste nel non privare il lavoratore del suo lavoro. Alcuni esperti sottolineano il rischio che l’IA contribuisca a una forma di dequalificazione dei lavoratori. È per questo motivo che bisogna adoperarsi affinché, come indicato nella Costituzione dell’OIL, l’attività lavorativa conferisca a coloro che la esercitano la soddisfazione di mostrare tutte le loro capacità e conoscenze e di contribuire meglio possibile al benessere comune Da una prospettiva manageriale, è anche un modo per mantenere la motivazione al lavoro.

5.   Anticipare il cambiamento

5.1.

Numerosi studi hanno messo in luce negli ultimi anni un indebolimento del dialogo sociale europeo, e talvolta anche di quello a livello nazionale, e questo a dispetto della volontà di «rilanciare» tale dialogo espressa sia dalla Commissione che dal Consiglio europeo. Eppure, il dialogo sociale è uno degli strumenti che meglio si presta ad affrontare le sfide sociali della digitalizzazione. Ecco perché il CESE raccomanda fortemente che nelle imprese, e a tutti i livelli pertinenti, tale dialogo sia praticato costantemente al fine di preparare le trasformazioni in modo socialmente sostenibile. Il CESE ricorda che il dialogo sociale è tra le migliori garanzie della pace sociale e della riduzione delle disuguaglianze. Al di là delle dichiarazioni politiche su un suo rilancio, le istituzioni dell’UE devono imperativamente farsi carico di incoraggiare e alimentare tale dialogo sociale.

5.2.

In particolare, nel momento in cui vengono adottate le tecnologie dell’IA, il dialogo sociale deve consentire di conoscere le prospettive di trasformazione dei processi produttivi nelle imprese e nei vari settori economici, oltre che di valutare i nuovi fabbisogni in termini di qualifiche e di formazione. Esso deve anche permettere di riflettere anticipatamente circa il ricorso all’IA per migliorare i processi organizzativi e di produzione, rafforzare le qualifiche dei lavoratori e ottimizzare le risorse che l’IA rende disponibili per lo sviluppo di nuovi prodotti e servizi o per migliorare la qualità del servizio al cliente.

5.3.

Ristrutturazioni socialmente responsabili

5.4.

Quando il ricorso ad accordi in materia di licenziamenti collettivi è considerato inevitabile, la posta in gioco consiste nella gestione di questi piani di ristrutturazione. Come sottolineato dalle parti sociali europee nel documento Orientamenti di riferimento per la gestione del cambiamento e delle sue conseguenze sociali (20), numerosi studi di casi specifici mettono in luce l’importanza di esplorare tutte le possibili alternative al licenziamento, come la formazione, la riconversione o il sostegno alla creazione di imprese.

5.5.

In caso di ristrutturazione, l’informazione e la consultazione dei lavoratori devono consentire, conformemente alle direttive europee in materia (21), di favorire l’anticipazione dei rischi, agevolare l’accesso dei lavoratori alla formazione nell’ambito dell’impresa, rendere più flessibile l’organizzazione del lavoro in un quadro di sicurezza, nonché promuovere il coinvolgimento dei lavoratori nella conduzione dell’impresa e nella determinazione del suo futuro.

5.6.

Infine, come evidenziato molto giustamente dalla Commissione europea, l’UE deve garantire l’accesso di tutti i cittadini, compresi i lavoratori dipendenti e i lavoratori autonomi (anche quelli che svolgono un lavoro autonomo fittizio), alla protezione sociale«indipendentemente dal tipo e dalla durata del rapporto di lavoro», in linea con il pilastro europeo dei diritti sociali (22).

6.   IA e i cambiamenti delle condizioni di lavoro

6.1.

Il 25 aprile 2018 la Commissione europea ha presentato una proposta relativa a un «approccio europeo» volto a promuovere politiche di investimento nello sviluppo dell’IA e ad adottare orientamenti etici in materia. La Commissione mette l’accento sulle potenzialità di trasformazione delle nostre società insite nelle tecnologie dell’IA, soprattutto nei settori dei trasporti, dell’assistenza sanitaria e dell’industria manifatturiera.

6.2.

Questo potenziale di trasformazione si manifesta nei processi produttivi e ha anche un impatto sul contenuto del lavoro, impatto che può risultare positivo, in particolare nel modo in cui l’IA può migliorare i processi di produzione e la qualità del lavoro. Ricadute altrettanto positive possono verificarsi per le organizzazioni del lavoro «flessibili», nelle quali assumono maggiore importanza la condivisione del potere decisionale, l’autonomia delle équipe di lavoro, la polivalenza, l’organizzazione orizzontale e le pratiche innovative e partecipative (23).

6.3.

Come sottolineano sia il CESE (24) che la stessa Commissione, l’IA può aiutare i lavoratori nell’esecuzione di mansioni ripetitive, faticose e perfino pericolose, mentre talune applicazioni dell’IA possono migliorare il benessere dei lavoratori dipendenti e facilitare la loro vita quotidiana.

6.4.

Tuttavia, una tale prospettiva solleva nuovi interrogativi, soprattutto per quel che riguarda l’interazione tra l’IA e il lavoratore, nonché in merito all’evoluzione del contenuto del lavoro. Fino a che punto le macchine intelligenti presenti nelle fabbriche, nelle aziende e negli uffici saranno autonome e quali forme di complementarità si svilupperanno tra esse e il lavoro umano? Il CESE sottolinea che, nel nuovo mondo del lavoro, è essenziale definire il rapporto dell’uomo con la macchina. Un approccio incentrato sul controllo dell’uomo sulla macchina assume quindi un rilievo fondamentale (25).

6.5.

In linea di principio, non è eticamente ammissibile che un essere umano sia sottoposto a costrizione da parte di un’IA o che sia considerato un esecutore della macchina, la quale gli imporrebbe non solo le mansioni da svolgere, ma anche come svolgerle ed entro quali scadenze. Eppure, sembra che a volte questo limite etico venga violato (26). È per questo motivo che è opportuno indicare con chiarezza tale limite negli orientamenti etici per l’IA.

6.6.

L’UE deve ritenere una priorità impedire che emergano oggi nuove forme di «taylorismo digitale» organizzato dai progettisti di macchine intelligenti. Per questo motivo, come dichiara il CESE in un suo recente parere, i ricercatori, gli ingegneri, i progettisti e gli imprenditori europei che contribuiscono allo sviluppo e alla commercializzazione di sistemi di IA devono operare secondo criteri di responsabilità etica e sociale. L’inclusione di materie quali l’etica e le scienze umane nei programmi di formazione degli ingegneri può essere una valida risposta a tale imperativo (27).

6.7.

Un’altra questione è quella della sorveglianza e del controllo manageriale. Vi è un consenso generale sulla necessità di esercitare un controllo ragionevole sui processi di produzione e, quindi, anche sul lavoro effettuato. I nuovi strumenti tecnologici oggi disponibili offrono la possibilità di installare sistemi intelligenti per un controllo totale dei lavoratori in tempo reale, ma comportano anche il rischio che la sorveglianza e il controllo diventino sproporzionati.

6.8.

Il tema del carattere ragionevole e proporzionato del controllo dell’esecuzione del lavoro e degli indicatori di prestazione, e quello del rapporto di fiducia tra il manager e il subordinato, sono argomenti che andrebbero anch’essi affrontati nel quadro del dialogo sociale a livello nazionale, europeo, interprofessionale e settoriale.

6.9.

La questione degli errori sistematici negli algoritmi e nei dati di addestramento, e i potenziali effetti negativi in termini di discriminazione, rimangono oggetto di dibattito. Alcuni ritengono che gli algoritmi e altri software previsionali utilizzati per le assunzioni possano ridurre le discriminazioni al momento di ingaggiare nuovi lavoratori e favorire assunzioni più «intelligenti». Secondo altri, invece, il rischio è che i software di assunzione riflettano in ogni caso, anche involontariamente, i condizionamenti e le preferenze dei programmatori di questi «robot responsabili delle assunzioni». Alcuni esperti sostengono che i modelli basati su algoritmi non siano nient’altro che opinioni «incastonate» in formule matematiche (28). Ecco perché occorre al tempo stesso garantire la possibilità di ricorrere all’intervento umano (in relazione al principio di trasparenza delineato sopra: il diritto di conoscere i criteri alla base delle decisioni) e assicurare che la raccolta e il trattamento dei dati siano conformi ai principi di proporzionalità e di finalità. In ogni caso, i dati non possono essere utilizzati per scopi diversi da quelli per cui sono stati raccolti (29).

6.10.

La possibilità offerta agli Stati membri dal regolamento generale sulla protezione dei dati di «prevedere, con legge o tramite contratti collettivi, norme più specifiche per assicurare la protezione dei diritti e delle libertà con riguardo al trattamento dei dati personali dei dipendenti nell’ambito dei rapporti di lavoro» rappresenta un effettivo strumento a cui gli Stati membri dell’UE e le parti sociali devono fare ricorso (30).

6.11.

È opportuno sottolineare in questo contesto che i rischi non riguardano i soli lavoratori dipendenti. Man mano che si vanno diffondendo il lavoro in subappalto online o quello tramite piattaforma, come pure le varie forme di lavoro collettivo (crowdworking), si sviluppano sempre più anche nuovi sistemi di gestione automatizzata delle prestazioni e della «presenza» al lavoro, i cui limiti etici talvolta vengono apparentemente superati (attivazione della webcam del lavoratore da parte della piattaforma, schermata del PC registrata a distanza ecc.).

6.12.

In molti casi gli algoritmi su cui si basano queste piattaforme — e che determinano, tra l’altro, la retribuzione del lavoratore autonomo, la sua reputazione digitale e le sue possibilità di accesso alle mansioni impartite — mancano di trasparenza. I lavoratori non ricevono spiegazioni sulle modalità di funzionamento di questi algoritmi e, quindi, non hanno accesso ai criteri di funzionamento che vengono loro applicati.

7.   Preparare una transizione equa

7.1.

Nel medio periodo, il rischio di polarizzazione sociale messo in luce da numerosi esperti impone una riflessione di fondo sul futuro dei nostri modelli sociali, compreso il loro finanziamento. Il CESE chiede alla Commissione di avviare un dibattito sui temi dell’imposizione fiscale e del finanziamento dei bilanci pubblici e dei sistemi collettivi di protezione sociale in un contesto economico in cui l’automazione va assumendo rapidamente una sempre maggiore densità (31), mentre invece l’imposta sul reddito da lavoro rimane tuttora la principale fonte di gettito fiscale in Europa. Il dibattito dovrebbe affrontare anche la questione della ridistribuzione dei dividendi della digitalizzazione.

7.2.

La Commissione propone di rafforzare il Fondo europeo di adeguamento alla globalizzazione (FEG) e, tra le altre proposte, di fare in modo che possano beneficiarne sia i lavoratori dipendenti che quelli autonomi la cui attività lavorativa scompaia o cessi a causa della digitalizzazione dell’economia (robotica, automazione) (32). Il CESE ritiene che si tratti di un passo verso l’istituzione di un autentico Fondo europeo di transizione che contribuirebbe ad anticipare e a gestire in modo socialmente responsabile la trasformazione digitale e le conseguenti ristrutturazioni.

7.3.

Gli aspetti sociali e, più in generale, socioculturali dell’IA sono sempre più spesso oggetto di dibattiti in ambito nazionale. Le recenti discussioni tenutesi al Parlamento britannico (33) e al Senato francese hanno evidenziato la necessità di promuovere un approccio etico all’IA, che sia fondato su una serie di principi quali la correttezza, la trasparenza e la comprensibilità dei sistemi algoritmici, l’etica e la responsabilità delle applicazioni dell’IA, nonché la sensibilizzazione di ricercatori, esperti e specialisti circa il potenziale uso improprio dei risultati delle loro ricerche. In Francia, la relazione Villani dichiara di voler «dare un senso» all’IA (34). Numerosi esperti delle università di Yale, Stanford, Cambridge e Oxford mettono in guardia quanto ai «punti deboli non risolti» dell’IA e insistono sull’assoluta necessità di prevederli, prevenirli e attenuarli (35). Analogamente, il Fondo per la ricerca del Québec (Fonds de recherche du Québec, FRQ), in collaborazione con l’Università di Montréal, sta elaborando da qualche mese un progetto relativo a un Osservatorio mondiale sull’impatto socioculturale dell’IA e del digitale (36).

7.4.

Questo fervore di iniziative dimostra che il dibattito sull’IA deve uscire dal recinto chiuso del mero ambito economico e tecnico, e che occorre ampliare la portata delle deliberazioni pubbliche sul ruolo che la società vuole affidare all’IA, anche nel mondo del lavoro. Queste deliberazioni pubbliche consentiranno di non cadere nella trappola della «falsa dicotomia» tra una visione totalmente ingenua e ottimistica, da un lato, e una prospettiva apocalittica, dall’altro, dell’IA e del suo impatto (37). L’avvio di queste discussioni negli Stati membri è già un primo passo utile, ma anche l’UE ha un ruolo da svolgere nel dibattito, in particolare attraverso l’elaborazione di orientamenti etici per l’IA, un tema su cui la Commissione ha già preso l’iniziativa.

7.5.

Il compito di attuare questi orientamenti dovrebbe essere affidato a uno specifico Osservatorio per l’etica dei sistemi di IA. Il punto essenziale consiste nel mettere l’IA e le sue applicazioni al servizio del benessere e dell’emancipazione dei cittadini e dei lavoratori, nel rispetto dei diritti fondamentali, evitando al tempo stesso che dette tecnologie contribuiscano, direttamente o indirettamente, a processi di dequalificazione e di perdita di titolarità, di competenze e di autonomia. Il principio secondo cui «l’essere umano è ai comandi» in tutte le circostanze, anche in ambito lavorativo, deve trovare concreta applicazione.

7.6.

Tale principio va applicato anche in altri settori di attività, ad esempio quelle svolte da operatori sanitari che forniscono servizi strettamente legati alla vita, alla salute, alla sicurezza e alla qualità della vita dei cittadini. Solo l’adozione di rigorose norme etiche potrà garantire tutti i vantaggi che le nuove applicazioni dell’IA apportano non solo ai lavoratori, ma anche ai consumatori, ai pazienti, ai clienti e ad altri prestatori di servizi.

Bruxelles, 19 settembre 2018

Il presidente del Comitato economico e sociale europeo

Luca JAHIER


(1)  Acemoglu, D., Restrepo, P. (2018), Artificial Intelligence, Automation and Work («Intelligenza artificiale, automazione e lavoro»), NBER Working Paper 24196, gennaio 2018. Cfr. anche: Consiglio francese di orientamento per l’occupazione (2017), Automatisation, numérisation et emploi («Automazione, digitalizzazione e occupazione»). (Tomo 1) (www.coe.gouv.fr).

(2)  Acemoglu, D., op.cit.; Consiglio francese di orientamento per l’occupazione (2017), op. cit.

(3)  COM(2018) 380 final.

(4)  Direttiva 2002/14/CE; Dichiarazione comune d’intenti UNICE-CES-CEEP sul dialogo sociale e le nuove tecnologie, 1985; Parere comune delle parti sociali sulle nuove tecnologie, l’organizzazione del lavoro e l’adattabilità del mercato del lavoro, 1991; Orientamenti di riferimento per la gestione del cambiamento e delle sue conseguenze sociali, 2003.

(5)  COM(2018) 246 final.

(6)  https://ifr.org/ifr-press-releases/news/robots-double-worldwide-by-2020.

(7)  GU C 288 del 31.8.2017, pag.1.

(8)  Cfr. in particolare https://www.techemergence.com.

(9)  GU C 288 del 31.8.2017, pag. 1.

(10)  Eurofound 2018, Automation, digitalisation and platforms: Implications for work and employment («Automazione, digitalizzazione e piattaforme: le implicazioni per il lavoro e l’occupazione»), Ufficio delle pubblicazioni dell’Unione europea, Lussemburgo.

(11)  GU C 13 del 15.1.2016, pag. 161.

(12)  Frey e Osborne, 2013; Bowles, 2014; Arntz, Gregory e Zierahn, 2016; Le Ru, 2016; McKinsey, 2016; OCSE, 2017; cfr. anche il parere esplorativo CCMI/136, (GU C 13 del 15.1.2016, pag. 161).

(13)  http://www.oecd.org/fr/emploi/avenir-du-travail/.

(14)  COM(2018) 237 final.

(15)  GU C 367 del 10.10.2018, pag. 15.

(16)  Nederlandse Wetenschappelijke Raad voor het Regeringsbeleid = Consiglio scientifico dei Paesi Bassi per la politica di governo.

(17)  https://english.wrr.nl/latest/news/2015/12/08/wrr-calls-for-inclusive-robot-agenda.

(18)  Cfr. i lavori sui «rischi emergenti» dell’Agenzia europea per la sicurezza e la salute sul lavoro (https://osha.europa.eu/it/emerging-risks). Secondo l’Agenzia, «gli approcci attuali e gli standard tecnici finalizzati a proteggere i dipendenti dai rischi derivanti dall’affiancamento a robot collaborativi dovranno essere rivisti in preparazione di questi sviluppi».

(19)  COM(2018) 246 final.

(20)  Testo firmato congiuntamente da UNICE (Confederazione delle imprese europee, oggi BusinessEurope), CEEP (Centro europeo dei datori di lavoro e delle imprese o organizzazioni che offrono servizi di interesse generale), UEAPMI (Unione europea dell’artigianato e delle piccole e medie imprese) e CES/ETUC (Confederazione europea dei sindacati), 16 ottobre 2003.

(21)  Direttiva 2002/14/CE che istituisce un quadro generale relativo all’informazione e alla consultazione dei lavoratori.

(22)  GU C 303 del 19.8.2016, pag. 54; GU C 173 del 31.5.2017, pag. 15; GU C 129 dell’11.4.2018, pag. 7; GU C 434 del 15.12.2017, pag. 30.

(23)  GU C 434 del 15.12.2017, pag. 30.

(24)  GU C 367 del 10.10.2018, pag. 15

(25)  GU C 288 del 31.8.2017, pag. 1; GU C 367 del 10.10.2018, pag. 15.

(26)  Diversi mezzi d’informazione europei hanno pubblicato resoconti sulle condizioni di lavoro che vigono in alcuni centri logistici, dove i lavoratori sono sotto il totale controllo di algoritmi che indicano loro i compiti da eseguire in tempi stabiliti, e dove le loro prestazioni vengono misurate in tempo reale.

(27)  GU C 367 del 10.10.2018, pag. 15.

(28)  Cathy O’Neil, titolare di un dottorato dell’Università di Harvard e scienziata dei dati: «Models are opinions embedded in mathematics» (https://www.theguardian.com/books/2016/oct/27/cathy-oneil-weapons-of-math-destruction-algorithms-big-data).

(29)  Cfr. in particolare i lavori della Commissione nazionale dell’informatica e delle libertà (CNIL) in Francia (Comment permettre à l’homme de garder la main? Les enjeux éthiques des algorithmes et de l’intelligence artificielle — «Come permettere all’uomo di mantenere il controllo? Algoritmi, intelligenza artificiale e posta in gioco sul piano etico»).

https://www.cnil.fr/sites/default/files/atoms/files/cnil_rapport_garder_la_main_web.pdf).

(30)  Cfr. l’articolo 88 del regolamento (UE) 2016/679.

(31)  https://ifr.org/ifr-press-releases/news/robots-double-worldwide-by-2020.

(32)  COM(2018) 380 final.

(33)  https://www.parliament.uk/ai-committee.

(34)  http://www.enseignementsup-recherche.gouv.fr/cid128577/rapport-de-cedric-villani-donner-un-sens-a-l-intelligence-artificielle-ia.html.

(35)  https://www.eff.org/files/2018/02/20/malicious_ai_report_final.pdf.

(36)  http://nouvelles.umontreal.ca/article/2018/03/29/le-quebec-jette-les-bases-d-un-observatoire-mondial-sur-les-impacts-societaux-de-l-ia/.

(37)  Acemoglu, D., cit. Cfr. anche Eurofound 2018, Automation, digitalisation and platforms: Implications for work and employment («Automazione, digitalizzazione e piattaforme: le implicazioni per il lavoro e l’occupazione»), Ufficio delle pubblicazioni dell’Unione europea, Lussemburgo, pag. 23: «The risks comprise unwarranted optimism, undue pessimism and mistargeted insights» («tra i rischi da segnalare, un ottimismo ingiustificato, un indebito pessimismo e capacità di comprensione mirate ad obiettivi sbagliati»).


Top