31.8.2017   

IT

Gazzetta ufficiale dell’Unione europea

C 288/1


Parere del Comitato economico e sociale europeo su «L'intelligenza artificiale — Le ricadute dell'intelligenza artificiale sul mercato unico (digitale), sulla produzione, sul consumo, sull'occupazione e sulla società»

(parere d'iniziativa)

(2017/C 288/01)

Relatrice:

Catelijne MULLER

Decisione dell'Assemblea plenaria

22.9.2016

Base giuridica

Articolo 29, paragrafo 2, del Regolamento interno

 

Parere d'iniziativa

 

 

Sezione competente

Mercato unico, produzione e consumo

Adozione in sezione

4.5.2017

Adozione in sessione plenaria

31.5.2017

Sessione plenaria n.

526

Esito della votazione

(favorevoli/contrari/astenuti)

159/3/14

1.   Conclusioni e raccomandazioni

1.1.

L'intelligenza artificiale (IA) attraversa attualmente una serie di importanti sviluppi e sta trovando applicazioni in tempi rapidi nella società. Il mercato dell'IA fa registrare cifre di circa 664 milioni di USD, che, secondo le stime, saliranno a 38,8 miliardi di USD entro il 2025. Poiché l'IA può avere un impatto sia positivo che negativo sulla società, il CESE si è impegnato a monitorare con attenzione gli sviluppi in materia di IA, non soltanto dal punto di vista tecnico ma espressamente anche sotto il profilo etico, sociale e della sicurezza.

1.2.

Nei prossimi anni, il CESE, nella sua qualità di rappresentante della società civile organizzata europea, intende definire, centralizzare e stimolare il dibattito nella società attorno al tema dell'IA, coinvolgendo tutte le parti interessate: i decisori politici, l'industria, le parti sociali, i consumatori, le ONG, gli istituti di insegnamento, le strutture di assistenza sanitaria, gli esperti e i docenti universitari di diverse discipline (tra cui IA, sicurezza, etica, economia, scienze del lavoro, giurisprudenza, scienze del comportamento, psicologia e filosofia).

1.3.

In questo momento, il tema dominante del dibattito è quello della superintelligenza, il quale è certamente importante ma fa passare in secondo piano quello sull'impatto delle applicazioni attuali dell'IA. Questo processo avrà quindi, in particolare, il compito e l'obiettivo di migliorare e ampliare le conoscenze sull'IA e di contribuire così a generare un dibattito informato ed equilibrato senza scenari apocalittici o eccessiva relativizzazione. Il CESE si adopererà per promuovere lo sviluppo dell'IA al servizio del genere umano. Tuttavia, questo processo avrà anche il compito e l'obiettivo importanti di individuare, denominare e monitorare le evoluzioni dirompenti collegate direttamente o indirettamente allo sviluppo dell'IA, in modo da poterle affrontare adeguatamente e in tempo utile. Tutto questo contribuirà a migliorare il coinvolgimento, la fiducia e il consenso a livello della società nei confronti dell'ulteriore sviluppo sostenibile dell'IA e del suo impiego.

1.4.

L'impatto dell'IA è transfrontaliero, per cui occorre definire dei quadri strategici sovrannazionali. Il CESE raccomanda all'UE di assumere un ruolo di leader mondiale nell'adozione di quadri strategici uniformi e di valenza universale per l'IA, in linea con i valori e i diritti fondamentali europei. Il CESE può e intende dare il suo contributo in questo senso.

1.5.

Al momento attuale, il CESE individua 11 settori nei quali l'IA pone sfide per la società: l'etica; la sicurezza; la privacy; la trasparenza e la rendicontabilità; il lavoro; l'istruzione e le competenze; la (dis)uguaglianza e l'inclusività; le disposizioni legislative e regolamentari; la governance e la democrazia; la guerra; la superintelligenza. Il CESE formula le raccomandazioni che seguono.

1.6.

Il CESE raccomanda di adottare, nei confronti dell'IA, l'approccio « human-in-command », con la condizione essenziale che l'IA sia sviluppata in maniera responsabile, sicura e utile, e che la macchina rimanga macchina e l'uomo ne mantenga il controllo in ogni momento.

1.7.

Il CESE chiede di introdurre un codice etico per lo sviluppo, la diffusione e l'utilizzo dell'IA, in modo tale che questi sistemi siano compatibili durante tutto il loro ciclo operativo con i principi della dignità umana, dell'integrità, della libertà, della privacy e della diversità culturale e di genere, nonché con i diritti umani fondamentali.

1.8.

Il CESE auspica che venga definito un dispositivo di normazione per la verifica, la convalida e il controllo dei sistemi di IA, sulla base di un'ampia serie di norme in materia di sicurezza, trasparenza, comprensibilità, rendicontabilità e valori etici.

1.9.

Il CESE chiede che sia sviluppata un'infrastruttura di IA europea, costituita da ambienti di apprendimento a codice sorgente aperto (open source) e rispettosi della privacy, ambienti di collaudo in condizioni reali (real life) e serie di dati di elevata qualità per lo sviluppo e l'addestramento dei sistemi di IA. Il CESE richiama l'attenzione sul vantaggio (concorrenziale) che l'UE può acquisire sul mercato mondiale grazie allo sviluppo e alla promozione di «sistemi di IA responsabili europei», provvisti di certificazione ed etichettatura europee.

1.10.

L'UE, i governi degli Stati membri e le parti sociali devono individuare insieme i settori del mercato del lavoro che saranno influenzati dall'IA, valutando la misura e i tempi di tale impatto, e cercare soluzioni per alleviare le conseguenze sull'occupazione, sui contenuti lavorativi, sui sistemi sociali e sulla (dis)uguaglianza. Occorre inoltre investire nei settori del mercato del lavoro nei quali l'IA ha un'influenza scarsa o nulla.

1.11.

Il CESE raccomanda a queste parti interessate di cooperare per lo sviluppo di sistemi di IA complementari e la loro creazione congiunta sul posto di lavoro, quali squadre uomo-macchina, in cui l'IA integri e migliori le prestazioni umane. Le parti interessate devono inoltre investire nell'apprendimento formale e informale, nell'istruzione e nella formazione per tutti, affinché le persone possano lavorare con l'IA, ma anche per consentire loro di sviluppare le competenze che non saranno o non potranno essere acquisite dall'IA.

1.12.

Occorre, fin da ora, valutare concretamente le norme e i regolamenti dell'UE nei sei settori critici, indicati dall'unità di valutazione delle opzioni scientifiche e tecnologiche (STOA) del Parlamento europeo, che potrebbero necessitare un riesame o un adeguamento. Il CESE può e intende svolgere un ruolo in questo processo di valutazione. Il CESE è contrario a introdurre una forma di personalità giuridica per i robot o per l'IA. In tal modo verrebbe infatti compromesso l'effetto di correzione preventiva della nozione di responsabilità giuridica, con possibilità di azzardo morale, sia nello sviluppo che nell'impiego dell'IA, e conseguentemente di abusi.

1.13.

Occorre promuovere e incentivare attivamente, sia a livello pubblico che privato, lo sviluppo delle applicazioni di IA che sono utili alla società, promuovono l'inclusione e migliorano la vita delle persone. La Commissione europea dovrebbe finanziare, nell'ambito dei suoi programmi, la ricerca in merito all'impatto sociale dell'IA e delle innovazioni in materia di IA finanziate dall'UE.

1.14.

Il CESE appoggia l'appello rivolto da Human Rights Watch e altre organizzazioni a mettere al bando i sistemi d'arma autonomi. Il CESE accoglie con favore l'annuncio di una consultazione sul tema in seno alle Nazioni Unite, ma ritiene che essa dovrebbe riguardare anche le applicazioni di IA nel settore della guerra cibernetica.

2.   Intelligenza artificiale

2.1.

Non esiste una definizione precisa e univoca di IA. Si tratta di una nozione generica che abbraccia una vasta serie di (sotto)branche quali l'informatica cognitiva (cognitive computing: algoritmi capaci di ragionamento e comprensione a un livello superiore, ossia più simile alla mente umana), apprendimento automatico (machine learning: algoritmi in grado di apprendere autonomamente determinate mansioni), intelligenza aumentata (augmented intelligence: collaborazione tra uomo e macchina), robotica intelligente (AI robotics: intelligenza artificiale incorporata nei robot). L'obiettivo centrale delle attività di ricerca e sviluppo nel campo dell'IA è tuttavia quello di automatizzare il comportamento intelligente come la capacità di ragionare, raccogliere informazioni, pianificare, apprendere, comunicare, manipolare, rilevare e addirittura creare, sognare e percepire.

2.2.

L'IA può essere suddivisa schematicamente in IA «stretta» (narrow AI) e IA «generale» (general AI). L'IA stretta è in grado di portare a termine mansioni specifiche, mentre quella generale può eseguire qualsiasi compito intellettuale che un essere umano è in grado di svolgere.

2.3.

In questi ultimi anni, nel settore dell'IA stretta sono stati compiuti notevoli progressi, in particolare grazie all'aumento della potenza di elaborazione computazionale, alla disponibilità di grandi volumi di dati e allo sviluppo dell'apprendimento automatico. Quest'ultimo è il risultato di algoritmi in grado di apprendere mansioni specifiche, senza essere programmati per questo scopo. Tale metodo si fonda sul trattamento di «dati di addestramento» (training data) in base ai quali l'algoritmo impara a riconoscere dei modelli e a ricavare delle regole. Una forma di apprendimento automatico è rappresentata dall'«apprendimento profondo» (deep learning), il quale utilizza determinate architetture (reti neurali), basate approssimativamente sul cervello umano, che apprendono attraverso l'allenamento e il feedback. Questa evoluzione ha fatto sì che (grazie ad algoritmi) i sistemi di IA siano ora in grado di apprendere da soli e di operare in maniera autonoma e adattativa.

2.4.

Le attività di ricerca e sviluppo nel campo dell'IA sono concentrate ormai da qualche tempo sulla capacità di ragionare, di acquisire cognizioni, di pianificare, di comunicare e di percepire (a livello visivo, uditivo e sensoriale). Questo avanzamento ha consentito di sviluppare numerose applicazioni basate sull'IA: assistenti virtuali, automobili a guida autonoma, aggregazione automatica di notizie, riconoscimento vocale, traduzione automatica, programmi di sintesi vocale (text-to-speak), operazioni finanziarie automatiche, individuazione elettronica in ambito giudiziario (e-Discovery) ecc.

2.5.

Il CESE osserva che negli ultimi anni il numero delle applicazioni e il volume degli investimenti nell'IA sono aumentati in modo esponenziale. Il mercato dell'IA fa registrare attualmente cifre di circa 664 milioni di USD, e si prevede che saliranno a 38,8 miliardi di USD entro il 2025.

3.   Opportunità e rischi legati all'IA

3.1.

Praticamente nessuno mette in dubbio che l'IA possa apportare vantaggi considerevoli per la società: si pensi ad esempio alle applicazioni per un'agricoltura sostenibile, per una circolazione stradale più sicura, per un sistema finanziario più affidabile, per processi produttivi più rispettosi dell'ambiente, per una sanità migliore, per una maggiore sicurezza sul posto di lavoro, per un'istruzione più personalizzata, per una giustizia più efficace e per una società più sicura. L'IA può persino contribuire a eliminare malattie e povertà e può inoltre contribuire in misura significativa a sostenere la crescita dell'industria e a migliorare la competitività dell'UE.

3.2.

Come tutte le tecnologie rivoluzionarie, l'IA comporta però anche dei rischi e pone complesse sfide strategiche sul piano della sicurezza e della controllabilità, dell'impatto socioeconomico, dell'etica, della privacy, dell'affidabilità ecc.

3.3.

Quello attuale è un momento cruciale per stabilire le condizioni (essenziali) che regoleranno lo sviluppo e l'impiego odierni e futuri dell'IA. Questi benefici potranno avere carattere durevole soltanto se si affronteranno in modo adeguato anche le sfide che l'IA porta con sé. A tal fine è necessario operare delle scelte politiche.

a)

Etica

3.4.

Lo sviluppo dell'IA solleva numerosi interrogativi di ordine etico. Che influenza ha l'IA autonoma (in grado di apprendere) sulla nostra integrità personale, autonomia, dignità, indipendenza, uguaglianza, sicurezza e libertà di scelta? In che modo si può garantire che le nostre norme fondamentali, i nostri valori e i diritti umani siano rispettati e salvaguardati?

3.5.

Inoltre, lo sviluppo dell'IA viene portato avanti al momento attuale in un ambiente omogeneo, costituito essenzialmente da giovani uomini bianchi, con la conseguenza che nell'IA vengono integrate (intenzionalmente o meno) disparità culturali e di genere, anche perché questi sistemi apprendono sulla base di dati di addestramento. Tali dati devono essere esatti, ma anche di buona qualità, diversificati, sufficientemente approfonditi e imparziali. Si tende in genere a ritenere che i dati siano obiettivi per definizione, ma questa è un'idea sbagliata: i dati sono facili da manipolare, possono essere di parte, possono rispecchiare preconcetti e preferenze culturali, di genere e di altro tipo e contenere errori.

3.6.

I sistemi di IA che sono attualmente in fase di sviluppo non sono «corredati» di valori etici. Spetta a noi, esseri umani, fare in modo che tali sistemi e l'ambiente in cui essi vengono impiegati ne siano dotati. Lo sviluppo, la diffusione e l'utilizzo dei sistemi di IA (sia pubblici che commerciali) devono avvenire entro i limiti delle nostre norme, dei nostri valori, delle nostre libertà e dei nostri diritti umani fondamentali. Il CESE sollecita pertanto a elaborare e definire un codice etico globale uniforme per lo sviluppo, la diffusione e l'utilizzo dell'IA.

b)

Sicurezza

3.7.

L'impiego dell'IA nel mondo reale solleva innegabilmente interrogativi sul piano della sicurezza. A tal riguardo, si può distinguere tra sicurezza interna e sicurezza esterna.

Sicurezza interna: il sistema di IA è sufficientemente solido da poter (continuare a) funzionare correttamente? L'algoritmo è ben programmato? Non va in crash, è a prova di pirateria informatica? È efficace? È affidabile?

Sicurezza esterna: l'IA può essere impiegata con sicurezza nella società? Funziona in modo sicuro non soltanto in condizioni normali, ma anche in situazioni ignote, critiche o imprevedibili? Che influenza ha la capacità di autoapprendimento sul grado di sicurezza, considerando anche che il sistema continua ad apprendere dopo la sua messa in funzione?

3.8.

Il CESE ritiene che i sistemi di IA possano essere messi in funzione soltanto se soddisfano requisiti specifici in materia di sicurezza interna ed esterna, i quali devono essere stabiliti congiuntamente dai decisori politici, dagli specialisti di IA e di sicurezza, dalle imprese e dalla società civile organizzata.

c)

Trasparenza, comprensibilità, controllabilità e rendicontabilità

3.9.

L'accettazione come anche lo sviluppo e l'applicazione durevoli dell'IA dipendono dalla possibilità di comprendere, controllare e spiegare, anche a posteriori, il funzionamento, le azioni e le decisioni dei sistemi di IA.

3.10.

Le azioni e le decisioni dei sistemi di IA (risultanti da algoritmi intelligenti) hanno un'influenza sempre maggiore sulla vita delle persone. Si pensi, ad esempio, all'impiego dell'IA nelle attività di polizia basate sull'intelligence, nella valutazione delle richieste di mutui ipotecari o nella procedura di autorizzazione di coperture assicurative. In tutti questi casi la comprensibilità, la controllabilità e la rendicontabilità del processo decisionale di un sistema di IA sono aspetti essenziali.

3.11.

Già ora numerosi sistemi di IA sono assai difficili da capire per gli utilizzatori. Ma questo vale ormai sempre di più frequentemente anche per gli sviluppatori stessi di tali sistemi. In particolare, le reti neurali, sono spesso delle «scatole nere» nelle quali si svolgono processi (decisionali) che sono diventati ormai insondabili e per i quali non esiste alcun meccanismo esplicativo.

3.12.

Il CESE raccomanda che i sistemi di IA siano trasparenti, comprensibili e controllabili, e che il loro funzionamento sia rendicontabile anche a posteriori. Occorre, inoltre, stabilire quali processi decisionali possano o non possano essere lasciati ai sistemi di IA e in quali casi debba essere auspicabile o richiesto l'intervento umano.

d)

Privacy

3.13.

Il rispetto della privacy in relazione ai sistemi di IA è un tema che desta preoccupazione. Sono ormai numerosi i prodotti (di consumo) dotati di IA integrata: elettrodomestici, giocattoli per bambini, automobili, dispositivi per monitorare la salute (health tracker) e smart phone. Tutti questi prodotti trasmettono dati (spesso personali) alle piattaforme di cloud computing dei produttori. Visto che il commercio di dati è in piena espansione, nel senso che i dati generati non rimangono presso il produttore ma vengono rivenduti a terzi, è lecito chiedersi se il rispetto della vita privata sia sufficientemente garantito.

3.14.

Inoltre, mediante l'analisi di numerosi dati (spesso) personali, l'IA è in grado di influenzare le scelte delle persone in numerosi ambiti (dalle decisioni commerciali alle decisioni di voto nelle elezioni e nei referendum). In questo contesto, una categoria particolarmente vulnerabile è rappresentata dai minori. Il CESE esprime preoccupazione riguardo alle applicazioni di IA destinate esplicitamente a influenzare il comportamento e i desideri dei minori.

3.15.

Bisogna evitare che l'applicazione dell'IA in relazione ai dati personali limiti la libertà reale o percepita dei cittadini. Il regolamento generale UE sulla protezione dei dati prevede un livello significativo di tutela della riservatezza delle informazioni personali fornite in formato digitale. Alla luce degli sviluppi sul fronte dell'IA, occorre monitorare attentamente se nella pratica sia sufficientemente garantito non soltanto il diritto al consenso informato e alla libertà di scelta nella trasmissione di dati, ma anche quello di accedere ai dati trasmessi e di poterli modificare e verificare.

e)

Norme, standard e infrastrutture

3.16.

Occorre sviluppare nuove procedure di normazione per la verifica e la convalida dei sistemi di IA, sulla base di un'ampia gamma di standard, al fine di poter valutare e controllare la sicurezza, la trasparenza, la comprensibilità, la rendicontabilità e la responsabilità etica di tali sistemi.

3.17.

Il CESE chiede all'UE di sviluppare una propria infrastruttura di IA, costituita da ambienti di apprendimento a codice sorgente aperto e rispettosi della privacy, con serie di dati di elevata qualità per la messa a punto e l'addestramento dei sistemi di IA. A questo riguardo, l'UE può inoltre ottenere un vantaggio (concorrenziale) sul mercato mondiale promuovendo «sistemi di IA responsabili europei». Il CESE raccomanda di esaminare le possibilità di certificazione ed etichettatura europee di tali sistemi.

f)

Impatto sul lavoro, sull'occupazione, sulle condizioni di lavoro e sui sistemi di protezione sociale

3.18.

Benché le opinioni divergano in merito alla velocità e alla misura, è ovvio che l'IA avrà un impatto sul livello di occupazione come anche sulla natura e sul carattere di molti lavori e quindi anche sui sistemi di protezione sociale.

3.19.

In relazione agli sviluppi tecnologici attuali (tra cui l'IA), Brynjolfsson e McAfee del Massachusetts Institute of Technology (MIT) parlano di «seconda età delle macchine». Vi sono però due importanti differenze: i) le macchine di «vecchia generazione» sostituivano in primo luogo l'energia muscolare, mentre quelle di nuova generazione sostituiscono le capacità intellettuali e cognitive, per cui questa evoluzione non ha ripercussioni solo sui lavoratori poco qualificati («colletti blu»), ma anche su quelli delle categorie con qualifiche medio-alte («colletti bianchi»); e ii) l'IA è una tecnologia generica (general purpose technology), che ha un impatto su quasi tutti i settori allo stesso tempo.

3.20.

L'IA può offrire vantaggi significativi se impiegata per operazioni pericolose, pesanti, faticose, sgradevoli, ripetitive, noiose o in condizioni di sporcizia. Ma anche le operazioni eseguibili in routine, l'elaborazione e l'analisi di dati e le attività consistenti essenzialmente nel pianificare o prevedere, svolte spesso da addetti altamente qualificati, possono essere effettuate sempre più spesso da sistemi di IA.

3.21.

Tuttavia, la maggior parte dei posti di lavoro comprende attività diverse tra loro. Sembra quindi poco probabile che tutte le attività che una persona compie vengano rilevate dall'IA o da robot. Tuttavia, per quasi tutti i lavoratori alcuni aspetti delle loro mansioni professionali finiranno per essere automatizzati. Il tempo così risparmiato potrà essere utilizzato per altri compiti, purché le autorità pubbliche e le parti sociali si adoperino in tal senso. A questo riguardo bisogna tener conto dell'impatto che questi sviluppi possono avere sui professionisti e sui dirigenti, e occorre promuoverne il coinvolgimento in modo che essi mantengano il controllo di tali sviluppi e non ne diventino invece vittime.

3.22.

Questa evoluzione porterà anche alla nascita di nuovi posti di lavoro. Nessuno è però in grado di prevedere quali e quanti saranno questi nuovi lavori e con quale rapidità verranno creati. Imprese come Google e Facebook riescono a generare un enorme valore con un numero relativamente ridotto di dipendenti. Inoltre, questi nuovi posti di lavoro non sempre sono di qualità. La preoccupazione è che con l'ulteriore sviluppo dell'IA rimarranno presto soltanto delle «mini-mansioni» poco retribuite per una fascia crescente di lavoratori «flessibili».

3.23.

L'IA non inciderà soltanto sulla quantità di lavoro disponibile, ma anche sulla natura di quello esistente. I sistemi di IA offrono sempre maggiori possibilità di seguire e monitorare i lavoratori, il che può mettere in discussione l'autonomia e il rispetto della privacy. Già oggi, il lavoro viene spesso definito e ripartito da algoritmi, senza alcun intervento umano, e questo ha un impatto sulla natura del lavoro e sulle condizioni di lavoro. Il ricorso ai sistemi di IA comporta il rischio di impoverimento delle attività e la perdita di competenze importanti.

3.24.

Un fatto è certo, però: la tecnologia non è qualcosa che ci «accade». I governi e le parti sociali hanno la possibilità di determinare il modo in cui l'IA viene ulteriormente sviluppata e applicata nei processi lavorativi e devono avvalersi pienamente di tale possibilità. A questo riguardo, è importante concentrarsi non soltanto su ciò che l'IA è capace di fare, bensì anche su quello che gli uomini sono in grado di fare essi stessi (creatività, empatia e cooperazione), su ciò che vogliamo che essi continuino a fare e sulla ricerca di modi che consentano di migliorare la collaborazione tra l'uomo e la macchina (complementarità).

3.25.

L'intelligenza aumentata (complementarità), in cui l'uomo e la macchina cooperano e si rafforzano reciprocamente, costituisce l'applicazione più interessante dell'IA in quanto si tratta del concetto di «uomo in associazione con la macchina», in contrapposizione a quello di «uomo al posto della macchina». La co-creazione è tuttavia molto importante: i lavoratori devono essere coinvolti nello sviluppo di questi sistemi di IA complementare, in modo da garantire che tali sistemi siano utilizzabili, che il lavoratore mantenga un sufficiente grado di autonomia e di controllo (human-in-command) e che il lavoro rimanga gratificante e piacevole.

g)

Istruzione e competenze

3.26.

Per poter adattarsi ai rapidi sviluppi in atto nel settore dell'IA è necessario conservare e acquisire le competenze digitali. Con l'iniziativa della coalizione per le competenze e le occupazioni digitali, la Commissione europea si sta adoperando con grande impegno nello sviluppo delle competenze digitali. Tuttavia, non tutti avranno le capacità per codificare o saranno interessati a diventare programmatori. Le strategie politiche e le risorse finanziarie dovranno quindi essere dirette a sostenere l'insegnamento e lo sviluppo delle competenze nei settori che non saranno minacciati dalla diffusione dei sistemi di IA (per esempio, le mansioni che richiedono prima di tutto l'interazione umana, nelle quali l'uomo e la macchina lavorano insieme o che vogliamo che sia l'uomo a continuare a svolgere).

3.27.

Se si punta sulla complementarità tra l'uomo e l'IA (intelligenza aumentata), è necessario prevedere per tutti e fin da una giovane età percorsi didattici che insegnino a utilizzare l'IA e a lavorare con tali sistemi, in modo che le persone possano mantenere autonomia e controllo nel loro lavoro (human-in-command). In questo contesto è importante in particolare l'educazione all'etica e al valore dei dati personali, in quanto l'IA ha un impatto significativo su tali ambiti.

h)

Accessibilità, (dis)uguaglianza sociale, inclusività e distribuzione

3.28.

Lo sviluppo dell'IA e di tutte le sue componenti (piattaforme di sviluppo, dati, conoscenze e competenze) è in gran parte nelle mani di cinque grandi società tecnologiche (Amazon, Apple, Facebook, Google e Microsoft). Queste società sono certamente a favore dello sviluppo aperto dell'IA, e alcune di esse offrono le loro piattaforme di sviluppo in questo campo in forma open source, ma ciò non garantisce la piena accessibilità dei sistemi di IA. Al riguardo, l'UE, i responsabili delle politiche internazionali e la società civile organizzata hanno un importante ruolo da svolgere nel garantire non soltanto che i sistemi di IA siano accessibili a tutti, ma anche che il loro sviluppo avvenga in un ambiente aperto.

3.29.

I cambiamenti tecnologici che favoriscono il capitale, in cui le innovazioni recano vantaggi soprattutto ai loro proprietari, indeboliscono la posizione del lavoro rispetto a quella del capitale. Le evoluzioni tecnologiche possono determinare anche disparità (di reddito) tra i cittadini (sia a livello locale che a livello regionale e mondiale). L'IA può accentuare ulteriormente queste tendenze.

3.30.

La cosa importante è che tali sviluppi siano monitorati con attenzione e affrontati in maniera adeguata. Da alcune parti si invoca l'introduzione di una tassa sull'IA, un dividendo dell'IA o la condivisione della proprietà dei sistemi di IA tra i lavoratori e i datori di lavoro. Si parla anche sempre più spesso della necessità di un reddito di base incondizionato.

3.31.

In un precedente parere (1), il CESE ha formulato la possibilità di un dividendo del digitale e di una sua equa ripartizione al fine di ottenere effetti positivi per la crescita. Il CESE attribuisce particolare importanza all'analisi di queste soluzioni, e sottolinea che occorre trovare un giusto equilibrio tra lo sviluppo dei sistemi di IA che recano benefici all'uomo e gli eventuali effetti di freno derivanti da tali soluzioni. Occorre inoltre evitare il rischio morale connesso al trasferimento della responsabilità dei sistemi di IA a un'entità che di fatto non può essere ritenuta responsabile.

i)

Legislazione e regolamentazione

3.32.

L'IA ha notevoli ricadute sulle disposizioni legislative e regolamentari vigenti. Nel giugno 2016, l'unità di valutazione delle opzioni scientifiche e tecnologiche (STOA) del Parlamento europeo ha pubblicato una sintesi degli atti legislativi e regolamentari europei che saranno interessati dagli sviluppi nel settore della robotica, dei sistemi ciberfisici e dell'intelligenza artificiale. La STOA indica sei ambiti (trasporti, sistemi a duplice uso, libertà civili, sicurezza, salute ed energia) nei quali bisognerà probabilmente rivedere o adeguare ben 39 atti dell'UE tra regolamenti, direttive, dichiarazioni e comunicazioni, oltreché la Carta europea dei diritti fondamentali. Tale valutazione va realizzata con urgenza e determinazione, e il CESE può e intende svolgere un ruolo in tale processo.

3.33.

Si discute molto sulla questione di chi debba essere ritenuto responsabile se un sistema di IA causa un danno. In particolare, nei casi in cui si tratti di sistemi che apprendono autonomamente e continuano ad apprendere anche dopo la loro messa in funzione. Il Parlamento europeo ha formulato delle raccomandazioni concernenti norme di diritto civile sulla robotica, proponendo di esaminare l'opportunità di introdurre il concetto di «personalità elettronica» per i robot, in modo tale che essi possano essere ritenuti civilmente responsabili degli eventuali danni causati. Il CESE è contrario all'introduzione di una forma di personalità giuridica per i robot o per l'IA (o i sistemi di IA), in quanto essa comporterebbe un rischio inaccettabile di azzardo morale. Dal diritto in materia di responsabilità civile deriva una funzione preventiva di correzione del comportamento, la quale potrebbe venir meno una volta che la responsabilità civile non ricade più sul costruttore perché è trasferita al robot (o al sistema di IA). Inoltre, vi è il rischio di un uso inappropriato e di abuso di uno status giuridico di questo tipo. In questo contesto, il confronto con la responsabilità limitata delle società è fuori luogo, in quanto è sempre la persona fisica a essere responsabile in ultima istanza. A tale riguardo, si dovrebbe esaminare in che misura la normativa nazionale e dell'UE vigente e la giurisprudenza in materia di responsabilità (per danno da prodotti difettosi e di rischio) e colpa propria sia sufficiente a rispondere a tale questione e, in caso contrario, quali soluzioni si impongano sul piano giuridico.

3.34.

Inoltre, per un corretto approccio legislativo e regolamentare in materia di IA è fondamentale comprendere con chiarezza ciò che l'IA può fare, ciò che non può fare e ciò che, nel breve, medio e lungo termine, sarà in grado di fare.

3.35.

L'IA non si ferma alle frontiere. È quindi importante esaminare la necessità di una regolamentazione a livello mondiale, in quanto le normative regionali non saranno sufficienti e avranno anzi effetti indesiderati. In considerazione del sistema di norme sui prodotti e sulla sicurezza di cui l'UE si è dotata, delle tendenze protezionistiche in atto in altri continenti, dell'elevato livello di conoscenze esistente all'interno dell'Europa, del sistema di diritti fondamentali e valori sociali europei e del dialogo sociale, il CESE raccomanda all'UE di assumere un ruolo guida nella definizione di quadri strategici uniformi a livello internazionale in materia di IA, e di promuovere tale processo a livello mondiale.

j)

Politica e democrazia

3.36.

Le applicazioni di IA possono contribuire a migliorare il coinvolgimento dei cittadini nelle politiche pubbliche e ad aumentare la trasparenza dei processi decisionali in ambito amministrativo. Il CESE esorta l'UE e le autorità pubbliche ad avvalersi dell'IA in questo contesto.

3.37.

Il CESE esprime preoccupazione in merito all'utilizzo mirato dei sistemi di IA (sotto forma di algoritmi intelligenti) per l'aggregazione di notizie, ad esempio, sui media sociali, che sembra aver ridotto il pluralismo dell'informazione e aver determinato un'ulteriore spaccatura della società (si pensi, ad esempio, alle «bolle di filtraggio» e alle «false notizie» su Twitter e Facebook durante le elezioni americane).

3.38.

Il CESE è anche preoccupato per i segni che fanno pensare a un probabile utilizzo dei sistemi di IA al fine di influenzare il comportamento (di voto) dei cittadini. L'impiego di algoritmi intelligenti sembra aver consentito di prevedere e influenzare in maniera mirata le preferenze e i comportamenti delle persone. Si tratta di una minaccia a una democrazia giusta e aperta. Nell'attuale epoca di polarizzazione e di delegittimazione delle istituzioni internazionali, la precisione e la potenza di questo tipo di tecnologia di propaganda può provocare rapidamente ulteriori disgregazioni della società. Questo è uno dei motivi che rendono necessaria l'introduzione di standard in materia di trasparenza e controllabilità degli algoritmi (intelligenti).

k)

Attività belliche

3.39.

Nel quadro della Convenzione delle Nazioni Unite su determinate armi convenzionali è stato deciso di chiedere a esperti di confrontarsi, nel corso del 2017, in merito alle implicazioni delle armi autonome. Il CESE accoglie con favore e appoggia l'appello rivolto da Human Rights Watch e altre organizzazioni a mettere al bando i sistemi d'arma autonomi. Ritiene che questa messa al bando debba essere esaminata e presa in considerazione seriamente. Tale misura non sarà però sufficiente ad affrontare in maniera adeguata le possibilità di applicazione dell'IA nelle situazioni di guerra e di conflitto. Occorre che questa consultazione delle Nazioni Unite riguardi anche le applicazioni dell'IA nella guerra cibernetica.

3.40.

Inoltre, bisogna evitare che l'IA finisca nelle mani di individui o regimi che intendono utilizzarla a fini terroristici.

l)

Superintelligenza

3.41.

Infine, si pone la questione di quali siano le opportunità e i rischi legati allo sviluppo della superintelligenza. Secondo Stephen Hawking, lo sviluppo dell'IA generale può significare la fine dell'umanità. Come sostiene Hawking, a un certo punto, infatti, l'IA si evolverà a un ritmo con il quale l'uomo non potrà più tenere il passo. Taluni esperti consigliano pertanto di prevedere un cosiddetto pulsante di emergenza (kill-switch) o di resettaggio (reset-button) che consenta di disattivare o resettare un sistema di IA superintelligente «impazzito».

3.42.

Il CESE raccomanda di adottare l'approccio «human-in-command», con la condizione essenziale che l'IA sia sviluppata e applicata in maniera responsabile e sicura, e che la macchina rimanga macchina e l'uomo possa continuare a mantenerne il controllo in ogni momento. Il dibattito sulla superintelligenza è importante, ma al momento sta oscurando eccessivamente quello sull'impatto delle applicazioni attuali dell'IA.

4.   L'IA al servizio del genere umano

4.1.

Alcuni colossi commerciali hanno ormai intrapreso diverse iniziative per uno sviluppo dell'IA aperto, sicuro e responsabile sul piano sociale (strada, questa, seguita ad esempio dalla società di ricerca OpenAI). I decisori politici non possono però lasciare tale compito alle imprese e devono invece intervenire. Occorre mettere in campo misure e incentivi mirati a sostegno della ricerca sulle sfide che l'IA comporta per la società e sullo sviluppo di sistemi di IA sicuri e solidi.

4.2.

I programmi dell'UE, tra cui Orizzonte 2020, sono ideali per far fronte a questa sfida. Il CESE ha constatato che i finanziamenti, in particolare, nell'ambito del pilastro «Sfide per la società» di Orizzonte 2020 sono inferiori rispetto a quelli per gli altri due pilastri «Eccellenza scientifica» e «Leadership industriale» e sono stati riveduti al ribasso. Il CESE esorta ad attribuire, nel quadro del pilastro «Sfide per la società», un ruolo importante alla ricerca sulle grandi sfide per la società e sulle applicazioni dell'IA in ambito sociale.

4.3.

Occorre inoltre affrontare i possibili effetti trasversali dell'IA. Parallelamente al finanziamento dello sviluppo di innovazioni rivoluzionarie in materia di IA, bisogna finanziare anche la ricerca in merito all'impatto di queste innovazioni sulla società e i modi per affrontare tale impatto.

4.4.

Le attività di ricerca e sviluppo in materia di IA al servizio del genere umano richiedono anche una serie di dati di addestramento e di test di elevata qualità e liberamente accessibili e di ambienti di collaudo in condizioni reali (real life). Fino ad oggi le infrastrutture di IA e buona parte dei dati di qualità sono stati disponibili solo presso e per un numero limitato di soggetti privati, ed è difficile testare l'IA nell'ambiente pubblico, il che ostacola l'applicazione dell'IA in altri settori. Per giungere a sistemi di IA sicuri, solidi e utili è fondamentale sviluppare dati di elevata qualità e liberamente accessibili e creare infrastrutture europee di IA.

5.   Monitoraggio e adozione delle misure necessarie

5.1.

Non è ancora possibile valutare pienamente il vasto impatto che l'IA può avere sulla società. È però innegabile che si tratterà di un impatto di grande portata. In questo momento gli sviluppi in materia di IA si susseguono a ritmo sostenuto, il che impone un monitoraggio critico, partendo da una prospettiva ampia, al fine di poter affrontare adeguatamente e in tempo utile gli sviluppi importanti e dirompenti, dal punto di vista sia tecnico che sociale, collegati direttamente o indirettamente all'IA («fattori di svolta»).

5.2.

I fattori di svolta di carattere tecnico possono essere costituiti da progressi sorprendenti e significativi nello sviluppo delle capacità di IA, che possono preludere al raggiungimento dell'IA «generale». A livello della società, i fattori di svolta possono essere rappresentati da una perdita considerevole di posti di lavoro senza la prospettiva di una loro sostituzione, da situazioni di insicurezza, da un fallimento sistemico, da sviluppi imprevisti a livello internazionale ecc.

5.3.

È necessario che i decisori politici, l'industria, le parti sociali, i consumatori, le ONG, gli istituti di insegnamento, le strutture di assistenza sanitaria, i docenti universitari e gli specialisti di diverse discipline (tra cui IA (applicata), etica, sicurezza, economia, scienze del lavoro, giurisprudenza, scienze del comportamento, psicologia e filosofia) cooperino per seguire attentamente gli sviluppi attorno al tema dell'IA, individuando e tenendo aggiornati questi fattori di svolta, in modo da consentire di adottare le misure giuste al momento giusto, sotto forma di politiche, di disposizioni legislative e regolamentari, di codici di autoregolamentazione e di dialogo sociale.

5.4.

Nei prossimi anni, il CESE, nella sua qualità di rappresentante della società civile organizzata europea, intende definire, centralizzare e stimolare questo dibattito multilaterale attorno al tema dell'IA.

Bruxelles, 31 maggio 2017

Il presidente del Comitato economico e sociale europeo

Georges DASSIS


(1)  GU C 13 del 15.1.2016, pag. 161.