Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52020AE1110

    Parere del Comitato economico e sociale europeo sul «Libro bianco sull'intelligenza artificiale — Un approccio europeo all'eccellenza e alla fiducia» [COM(2020) 65 final]

    EESC 2020/01110

    GU C 364 del 28.10.2020, p. 87–93 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    28.10.2020   

    IT

    Gazzetta ufficiale dell’Unione europea

    C 364/87


    Parere del Comitato economico e sociale europeo sul «Libro bianco sull'intelligenza artificiale — Un approccio europeo all'eccellenza e alla fiducia»

    [COM(2020) 65 final]

    (2020/C 364/12)

    Relatrice:

    Catelijne MULLER

    Consultazione

    Commissione, 9.3.2020

    Base giuridica

    Articolo 304 del trattato sul funzionamento dell'Unione europea,

    Sezione competente

    Mercato unico, produzione e consumo

    Adozione in sezione

    25.6.2020

    Adozione in sessione plenaria

    16.7.2020

    Sessione plenaria n.

    553

    Esito della votazione

    (favorevoli/contrari/astenuti)

    207/0/6

    1.   Conclusioni e raccomandazioni

    1.1.

    Il CESE si congratula con la Commissione per la sua strategia, delineata nel libro bianco sull'intelligenza artificiale (IA), che mira a incoraggiare l'adozione delle tecnologie di IA, assicurandone al contempo la conformità alle norme etiche, alle prescrizioni giuridiche e ai valori sociali europei.

    1.2.

    Il CESE si compiace inoltre dell'intenzione di trarre vantaggio dai punti di forza dell'Europa nei mercati industriali e professionali e sottolinea l'importanza di potenziare gli investimenti, le infrastrutture, l'innovazione e le competenze in modo che le imprese, comprese le PMI, e la società nel suo insieme possano cogliere le opportunità offerte dall'IA. Occorre promuovere l'innovazione nel campo dell'IA per massimizzare i benefici dei sistemi specifici di questo settore, prevenendo nel contempo i rischi e riducendoli al minimo.

    1.3.

    Ritiene però che concentrare l'attenzione solamente sull'IA basata sui dati sia un approccio troppo ristretto per fare dell'UE un autentico leader dell'IA avanzata, affidabile e competitiva. Il CESE esorta la Commissione a promuovere anche una nuova generazione di sistemi di IA basati sulla conoscenza e sul ragionamento, che tutelino i principi e i valori umani.

    1.4.

    Il CESE chiede alla Commissione di: i) promuovere la multidisciplinarietà nella ricerca, coinvolgendo altre materie come diritto, etica, filosofia, psicologia, scienze del lavoro, scienze umane, economia eccetera; ii) coinvolgere i portatori di interessi pertinenti (sindacati, organizzazioni professionali, organizzazioni di categoria, organizzazioni di consumatori, ONG) nel dibattito sull'IA e, come partner su un piede di parità, nella ricerca finanziata dall'UE e in altri progetti come il partenariato pubblico-privato sull'IA, i dialoghi settoriali e il «programma di adozione dell'IA» nel settore pubblico nonché il centro di riferimento; e iii) continuare a educare e informare l'opinione pubblica in merito alle opportunità e alle sfide poste dall'IA.

    1.5.

    Il CESE esorta la Commissione a considerare in maniera più approfondita l'impatto dell'IA sull'intero ventaglio dei diritti e delle libertà fondamentali, tra cui, in un elenco non esaustivo, il diritto a un giudice imparziale, a elezioni eque e aperte, il diritto di riunirsi e manifestare nonché il diritto alla non discriminazione.

    1.6.

    Il CESE rimane contrario a introdurre qualsiasi forma di personalità giuridica per l'IA. In tal modo verrebbe infatti compromesso l'effetto di correzione preventiva della responsabilità giuridica, con gravi possibilità di azzardo morale, sia nello sviluppo che nell'impiego dell'IA, e conseguentemente di abusi.

    1.7.

    Il CESE chiede un approccio socio-tecnico costante e sistematico, che consideri la tecnologia da tutte le prospettive e alla luce di vari criteri, piuttosto che una valutazione preliminare della conformità per l'IA ad alto rischio effettuata una tantum (o anche ripetuta periodicamente).

    1.8.

    Il CESE segnala che la prescrizione del settore «ad alto rischio» potrebbe escludere numerosi utilizzi e applicazioni dell'IA che sono intrinsecamente ad alto rischio, oltre al riconoscimento biometrico e all'IA utilizzata nella selezione del personale. Il CESE raccomanda alla Commissione di redigere un elenco delle caratteristiche comuni delle applicazioni o degli utilizzi dell'IA che sono considerati intrinsecamente ad alto rischio, indipendentemente dal settore.

    1.9.

    Il CESE invita fermamente a consentire qualsiasi uso del riconoscimento biometrico solo: i) qualora vi sia un effetto dimostrato scientificamente, ii) in ambienti controllati, e iii) a condizioni rigorose. Dovrebbe essere vietato l'impiego diffuso del riconoscimento biometrico basato sull'IA per sorvegliare, seguire, valutare o classificare gli esseri umani oppure le emozioni e i comportamenti umani.

    1.10.

    Il CESE auspica un coinvolgimento precoce e intenso delle parti sociali nell'introduzione di sistemi di IA sul luogo di lavoro, in linea con le norme e le pratiche nazionali applicabili, per garantire che i sistemi siano utilizzabili e conformi ai diritti dei lavoratori e alle condizioni di lavoro.

    1.11.

    Il CESE auspica inoltre che i lavoratori che in ultima istanza opereranno con i sistemi di IA, come pure i dipendenti dotati di competenze giuridiche, etiche e nelle scienze umane, vengano strettamente e precocemente coinvolti nell'introduzione di tali tecnologie, onde garantire che esse siano in linea con i requisiti giuridici ed etici, ma anche con le esigenze dei lavoratori, di modo che questi ultimi mantengano l'autonomia nel loro lavoro e che i sistemi di IA siano tali da migliorare le competenze dei lavoratori e la loro soddisfazione professionale.

    1.12.

    Tecniche e approcci di IA utilizzati per combattere la pandemia di coronavirus dovrebbero essere solidi, efficaci, trasparenti e spiegabili. Dovrebbero inoltre tutelare i diritti umani, i principi etici e la legislazione esistente, e dovrebbero essere equi, inclusivi e facoltativi.

    1.13.

    Il CESE invita la Commissione ad assumere un ruolo guida per garantire un migliore coordinamento in Europa delle soluzioni applicate di IA e degli approcci utilizzati per combattere la pandemia di coronavirus.

    2.   Il libro bianco dell'UE sull'IA

    2.1.

    Il CESE nota con soddisfazione che la Commissione europea ha recepito molte raccomandazioni formulate nei precedenti pareri del CESE e dal gruppo di esperti ad alto livello sull'IA, incoraggiando l'adozione delle tecnologie di IA e allo stesso tempo assicurandone la conformità a norme etiche, prescrizioni giuridiche e valori sociali dell'UE, sulla base di ciò che la Commissione stessa definisce un «ecosistema di eccellenza e fiducia».

    2.2.

    Il CESE accoglie con favore le proposte rivolte alle imprese, comprese le PMI, e alla società nel suo insieme, per cogliere le opportunità di sviluppo e di utilizzo dell'IA. Il CESE sottolinea l'importanza di potenziare gli investimenti, le infrastrutture, l'innovazione e le competenze per migliorare il successo competitivo dell'UE a livello mondiale.

    Approccio basato sul controllo umano

    2.3.

    Il libro bianco ha tuttavia un tono vagamente «fatalistico»: sembra suggerire che l'IA sia destinata a «dominarci», lasciandoci come unica opzione quella di regolamentarne l'uso. Il CESE crede fermamente nell'impegno dell'UE di garantire che l'Europa accetti solo l'intelligenza artificiale affidabile, e ritiene che essa dovrebbe pertanto assumere una posizione molto più forte su questo tema. Il CESE esorta quindi la Commissione a mantenere sempre aperta l'opzione di non accettare affatto (l'uso di) un determinato tipo di IA. Quest'impostazione (definita dal CESE «approccio all'IA basato sul controllo umano») è appunto quella cui dovremmo ispirarci.

    Trarre vantaggio dall'IA in Europa — una definizione lungimirante

    2.4.

    Il libro bianco offre la seguente definizione operativa dell'IA: «un insieme di tecnologie che combina dati, algoritmi e potenza di calcolo». Più avanti, il testo indica nei dati e negli algoritmi gli elementi principali dell'IA. In tale definizione rientrerebbe però qualsiasi segmento di software mai elaborato, non solo l'IA. Non esiste una definizione generalmente accettata per l'IA, che è un termine generico applicabile a una vasta gamma di applicazioni per computer.

    2.5.

    Il libro bianco concentra l'attenzione solamente sull'IA basata sui dati, ossia su un ambito troppo ristretto per fare dell'UE un autentico leader dell'IA avanzata, affidabile e competitiva. Il libro bianco rinuncia a prendere in considerazione, e quindi a governare e regolamentare, un gran numero di promettenti sistemi di IA. Il CESE esorta la Commissione a promuovere anche una nuova generazione di sistemi di IA che integrino gli approcci basati sui dati con approcci basati sulla conoscenza e sul ragionamento: i cosiddetti sistemi ibridi. Il libro bianco riconosce che i sistemi ibridi sono necessari ai fini della spiegabilità, ma i vantaggi di tali sistemi vanno ben al di là di questa: possono affrettare e/o frenare l'apprendimento, e convalidare e verificare il modello di apprendimento automatico.

    2.6.

    Il libro bianco considera solo le distorsioni relative ai dati, ma non tutte le distorsioni dipendono da dati limitati o di scarsa qualità. La concezione di qualsiasi prodotto è di per sé uno stratificarsi di scelte condizionate, che vanno dagli input presi in considerazione fino agli obiettivi che un sistema di IA dovrebbe raggiungere nel modo più efficace. Tutte queste scelte dipendono, in un modo o nell'altro, dai condizionamenti intrinseci delle persone che le compiono.

    2.7.

    Il punto più importante, tuttavia, è che i sistemi di IA sono qualcosa di più della somma delle proprie componenti di software. I sistemi di IA comprendono anche il sistema socio-tecnico in cui sono immersi. Una riflessione sulla governance e la regolamentazione dell'IA dovrebbe concentrarsi anche sul circostante contesto di strutture sociali: le organizzazioni e le imprese, le diverse professioni e le persone e le istituzioni che creano, sviluppano, mettono in funzione, usano e controllano l'IA, nonché le persone su cui l'IA influisce, come i cittadini nei loro rapporti con i governi, le imprese, i consumatori, i lavoratori e persino la società nel suo insieme.

    2.8.

    Si noti inoltre che le definizioni giuridiche (a fini di governance e regolamentazione) differiscono dalle definizioni puramente scientifiche, dato che occorre soddisfare una serie di prescrizioni differenti, come inclusività, precisione, permanenza, completezza e praticabilità. In alcuni casi si tratta di prescrizioni giuridicamente vincolanti, e alcune sono considerate esempi di buone pratiche normative.

    Riunire tutte le forze

    2.9.

    Il CESE apprezza lo sforzo di trattare il frammentato contesto dell'IA in Europa riunendo i ricercatori della materia, concentrando l'attenzione sulle PMI e stringendo partenariati con il settore pubblico e quello privato. Inoltre, il CESE vorrebbe raccomandare di: i) promuovere la multidisciplinarietà nella ricerca, coinvolgendo altre materie come diritto, etica, filosofia, psicologia, scienze del lavoro, scienze umane, economia eccetera; ii) coinvolgere i portatori di interessi pertinenti (sindacati, organizzazioni di categoria, organizzazioni di consumatori, ONG) nel dibattito sull'IA, ma anche come partner su un piede di parità, nella ricerca finanziata dall'UE e in altri progetti come il partenariato pubblico-privato sull'IA, i dialoghi settoriali e il «programma di adozione dell'IA» nel settore pubblico nonché il centro di riferimento; e iii) continuare a educare e informare l'opinione pubblica in merito alle opportunità e alle sfide poste dall'IA.

    L'IA e il diritto

    2.10.

    Il libro bianco riconosce il fatto che l'IA non opera in un mondo privo di leggi. Il CESE apprezza particolarmente l'importanza attribuita alle implicazioni dell'IA nel campo dei diritti fondamentali, e raccomanda alla Commissione di esaminare in maniera più approfondita gli impatti dell'IA su un ampio ventaglio di diritti e libertà fondamentali, come la libertà di parola e di espressione e il diritto al rispetto per la vita privata (che si estende ben al di là della protezione dei dati personali), il diritto a un giudice imparziale, a elezioni eque e aperte, il diritto di riunirsi e manifestare nonché il diritto alla non discriminazione.

    2.11.

    Il CESE accoglie con favore la netta posizione adottata nel libro bianco in merito all'applicabilità all'IA dei regimi di responsabilità esistenti, nonché lo sforzo di basarsi su tali regimi per affrontare i nuovi rischi che possono derivare dall'IA, rimediando alle lacune applicative nei casi in cui sia difficile individuare l'operatore economico effettivamente responsabile e adattando i regimi alla funzionalità mutevole dei sistemi di IA.

    2.12.

    La Commissione dovrebbe anche riconoscere che l'intelligenza artificiale non conosce frontiere e che gli sforzi non possono e non dovrebbero limitarsi all'Europa. Dovrebbe essere raggiunto un consenso generale a livello mondiale sulla base delle discussioni e delle ricerche svolte dagli esperti giuridici, nell'ottica di istituire un quadro giuridico internazionale comune.

    2.13.

    In ogni caso il CESE rimane fermamente contrario a introdurre qualsiasi forma di personalità giuridica per l'IA. In tal modo verrebbe infatti compromesso l'effetto di correzione preventiva della responsabilità giuridica, con gravi possibilità di azzardo morale, sia nello sviluppo che nell'impiego dell'IA, e conseguentemente di abusi.

    Regolamentazione dell'IA ad alto rischio

    2.14.

    Il CESE accoglie con favore l'approccio basato sul rischio per il controllo degli effetti dell'IA. La Commissione annuncia un quadro normativo per la «IA ad alto rischio», che dovrebbe rispettare una serie di prescrizioni in materia di robustezza, precisione, riproducibilità, trasparenza, sorveglianza umana e governance dei dati. Secondo il libro bianco, l'IA ad alto rischio è contraddistinta da due elementi cumulativi: i) un settore ad alto rischio e ii) un utilizzo dell'applicazione di IA tale da generare un alto rischio. Il libro bianco aggiunge due esempi di applicazioni o utilizzi dell'IA che si potrebbero considerare intrinsecamente ad alto rischio, indipendentemente dal settore. Inoltre, definisce il riconoscimento biometrico un'applicazione intrinsecamente ad alto rischio. L'elenco completo dei settori ad alto rischio (che viene riveduto periodicamente) comprende ora i seguenti settori, considerati potenzialmente ad alto rischio: assistenza sanitaria, trasporti, energia e parti del settore pubblico.

    2.15.

    Il secondo criterio, ossia l'utilizzo rischioso dell'applicazione di IA, è meno rigoroso e suggerisce la possibilità di prendere in considerazione livelli di rischio differenti. Il CESE propone di aggiungere qui la società e l'ambiente come aree d'impatto.

    2.16.

    Seguendo la logica del libro bianco, un'applicazione di IA ad alto rischio, utilizzata in un settore a basso rischio in linea di principio non sarà soggetta al quadro normativo. Il CESE rileva che gli effetti avversi indesiderabili dell'IA ad alto rischio in un settore a basso rischio potrebbero escludere dalla normativa taluni utilizzi o applicazioni di IA, offrendo una «finestra» per aggirare le regole: si pensi alla pubblicità mirata (un settore a basso rischio) che, com'è stato dimostrato, ha effetti potenzialmente segregativi, discriminatori e divisivi, per esempio in periodo di elezioni o tramite prezzi personalizzati (utilizzo o effetto ad alto rischio). Il CESE raccomanda di stilare un elenco delle caratteristiche comuni delle applicazioni o degli utilizzi dell'IA che si devono considerare intrinsecamente ad alto rischio, indipendentemente dal settore in cui tale tecnologia è impiegata.

    2.17.

    Pur riconoscendo la necessità di introdurre prove di conformità per l'IA, il CESE esprime il timore che una valutazione preliminare della conformità effettuata una tantum (o anche ripetuta periodicamente) non sia sufficiente a garantire che lo sviluppo, la diffusione e l'utilizzo dell'IA avvengano in maniera affidabile, antropocentrica e sostenibile. Un'IA affidabile esige un approccio socio-tecnico costante e sistematico, che consideri la tecnologia da tutte le prospettive e alla luce di vari criteri. Per quanto riguarda l'attività di elaborazione delle politiche, ciò comporta un approccio multidisciplinare che veda la collaborazione costante di responsabili delle politiche, accademici di varie specialità, parti sociali, organizzazioni professionali, professionisti, imprese e ONG. Soprattutto quando si tratta di servizi di interesse pubblico collegati alla salute, alla sicurezza e al benessere delle persone e basati sulla fiducia, occorre garantire che i sistemi di IA siano adattati alle esigenze pratiche e non possano prevalere sulla responsabilità umana.

    Riconoscimento biometrico

    2.18.

    Il CESE apprezza l'invito, formulato dalla Commissione, ad avviare un dibattito pubblico sul riconoscimento biometrico basato sull'IA. Il riconoscimento biometrico di micro-espressioni, modi di camminare, (tono di) voce, frequenza cardiaca, temperatura eccetera, è già utilizzato per valutare o addirittura prevedere il nostro comportamento, il nostro stato mentale e le nostre emozioni, non da ultimo nei processi di assunzione di personale. Per essere il più chiari possibile, nessuna seria prova scientifica fa pensare che sia possibile «leggere» in maniera precisa le emozioni interiori o lo stato mentale di una persona da espressione facciale, modo di camminare, frequenza cardiaca, tono di voce o temperatura; tanto meno se ne può prevedere il comportamento futuro.

    2.19.

    Si ricordi inoltre che il GDPR limita solo in una certa misura il trattamento dei dati biometrici. Il GDPR definisce i dati biometrici come «i dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica che ne consentono o confermano l'identificazione univoca». Tuttavia, molte tecnologie di riconoscimento biometrico non sono concepite per identificare in maniera univoca una persona, ma solo per valutarne il comportamento o le emozioni. Questi utilizzi potrebbero non rientrare nella definizione di (trattamento dei) dati biometrici ai sensi del GDPR.

    2.20.

    Il riconoscimento biometrico basato sull'IA incide anche sul nostro più ampio diritto al rispetto per la vita privata, l'identità, l'autonomia e l'integrità psicologica, instaurando una situazione in cui veniamo (costantemente) osservati, seguiti e identificati. Ciò potrebbe provocare un effetto deterrente sul piano psicologico, spingendo i cittadini ad adattare il proprio comportamento a una determinata norma. Si tratta di un'intrusione nel nostro diritto fondamentale alla vita privata (integrità morale e psicologica). Inoltre, il riconoscimento biometrico basato sull'IA potrebbe incidere su altri diritti e libertà fondamentali, quali la libertà di riunione e il diritto alla non discriminazione.

    2.21.

    Il CESE raccomanda di consentire qualsiasi uso del riconoscimento biometrico solo qualora vi sia un effetto dimostrato scientificamente, in ambienti controllati, e a condizioni rigorose. L'impiego diffuso del riconoscimento biometrico basato sull'IA per sorvegliare, seguire, valutare o classificare gli esseri umani oppure le emozioni e i comportamenti umani non dovrebbe essere consentito.

    L'impatto dell'IA sul lavoro e sulle competenze

    2.22.

    Il CESE rileva che il libro bianco è privo di una strategia sul modo per far fronte all'impatto dell'IA sul lavoro, benché questo fosse un elemento esplicito della strategia europea del 2018 sull'intelligenza artificiale.

    2.23.

    Il CESE auspica un coinvolgimento precoce e intenso dei lavoratori e dei fornitori di servizi di tutti i tipi, compresi i freelance, gli autonomi e i lavoratori su richiesta — non solo coloro che progettano o sviluppano l'IA, ma anche coloro che acquistano, applicano, lavorano con i sistemi di IA o su cui tali sistemi influiscono. Il dialogo sociale deve precedere l'introduzione delle tecnologie di IA nel luogo di lavoro, in linea con le norme e le pratiche nazionali applicabili. Sul posto di lavoro, l'accesso e la gestione dei dati dei lavoratori dovrebbero essere guidati da principi e regolamenti negoziati tra le parti sociali.

    2.24.

    Il CESE desidera richiamare l'attenzione, in particolare, sull'IA utilizzata per assunzioni, licenziamenti e processi di valutazione dei lavoratori. Il libro bianco indica l'IA usata nei processi di selezione del personale, come esempio di un'applicazione ad alto rischio che sarebbe soggetta a regolamentazione indipendentemente dal settore. Il CESE raccomanda di estendere questo ambito di impiego per includervi l'IA utilizzata per i licenziamenti e i processi di valutazione dei lavoratori, ma anche di esaminare le caratteristiche comuni delle applicazioni di IA che potrebbero comportare un impiego ad alto rischio sul posto di lavoro, indipendentemente dal settore. Le applicazioni di IA prive di base scientifica, come l'individuazione di emozioni tramite riconoscimento biometrico, non dovrebbero essere consentite negli ambienti di lavoro.

    2.25.

    Per potersi adattare ai rapidi sviluppi in atto nel settore dell'IA è necessario conservare o acquisire le competenze in materia di IA. Ma le politiche e le risorse finanziarie dovranno anche essere dirette a sostenere l'insegnamento e lo sviluppo delle competenze nei settori che non saranno minacciati dalla diffusione dei sistemi di IA (per esempio, le mansioni che richiedono prima di tutto l'interazione umana, come i servizi di interesse pubblico collegati alla salute, alla sicurezza e al benessere delle persone e basati sulla fiducia, in cui l'uomo e la macchina lavorano insieme o quelle che vorremmo continuare ad affidare a esseri umani).

    3.   L'IA e il coronavirus

    3.1.

    L'IA può aiutarci a comprendere meglio il coronavirus e il COVID-19, oltre a proteggere le persone dall'esposizione, aiutare a trovare un vaccino ed esplorare le opzioni di trattamento. Rimane però importante distinguere chiaramente e apertamente tra ciò che l'IA può fare e ciò che non può fare.

    3.2.

    Robustezza ed efficacia: l'uso dell'IA fondata sui dati per prevedere la diffusione del coronavirus è potenzialmente problematico, poiché i dati sul coronavirus sono troppo scarsi per consentire all'IA di fornire risultati attendibili. Oltretutto, i pochi dati disponibili sono incompleti e distorti. L'utilizzo di tali dati per approcci di apprendimento automatico potrebbe produrre un gran numero di falsi negativi e falsi positivi.

    3.3.

    Sono essenziali sia la trasparenza sui dati e i modelli usati, sia la spiegabilità dei risultati. In questo momento, in particolare, il mondo non può permettersi di prendere decisioni basate su «scatole nere».

    3.4.

    Quando utilizziamo l'IA per combattere l'attuale pandemia, il rispetto per i diritti umani, i principi etici e la legislazione vigente sono temi di capitale importanza. In particolare, allorché gli strumenti di IA sono potenzialmente in grado di violare i diritti umani, deve esistere un interesse legittimo per il loro impiego e tale utilizzo dev'essere strettamente necessario, proporzionato e soprattutto limitato nel tempo.

    3.5.

    Occorre infine assicurare equità e inclusione. I sistemi di IA che sono in fase di sviluppo per la lotta contro la pandemia devono essere esenti da condizionamenti e discriminazioni. Dovrebbero inoltre essere a disposizione di tutti, e tenere conto delle differenze sociali e culturali tra i diversi paesi colpiti.

    Applicazioni di tracciatura e localizzazione e di monitoraggio della salute

    3.6.

    Secondo i virologi e gli epidemiologi, la riapertura della società e dell'economia dopo il periodo di lockdown richiede un sistema efficace di tracciamento, rintracciamento, monitoraggio e protezione della salute delle persone. Attualmente sono in fase di sviluppo numerose applicazioni per monitorare, rintracciare e svolgere controlli sanitari, tutte attività che in genere (e tradizionalmente) sono state realizzate da professionisti. In tutto il mondo, molti governi ripongono grande fiducia nelle applicazioni di tracciatura e localizzazione quali strumenti per consentire la riapertura delle società.

    3.7.

    L'impiego di questo tipo di applicazioni rappresenta una misura assai drastica. Prima di deciderne l'impiego, è quindi importante esaminare criticamente l'utilità, la necessità e l'efficacia delle applicazioni, nonché il loro impatto sociale e giuridico. Deve rimanere aperta l'opzione di non utilizzare le applicazioni, e occorre privilegiare soluzioni meno invasive.

    3.8.

    L'efficacia e l'attendibilità delle applicazioni di tracciatura e localizzazione è di capitale importanza, poiché inefficacia e inattendibilità possono produrre un gran numero di falsi positivi e falsi negativi, nonché un falso senso di sicurezza, aggravando così il rischio di contagio. Le prime simulazioni scientifiche sollevano seri dubbi sulla possibilità che un'applicazione di tracciatura abbia effetti positivi sulla diffusione del virus, anche con un utilizzo dell'80 % o 90 %. Inoltre, un'applicazione non è in grado di registrare circostanze specifiche come la presenza di pannelli di plexiglas e finestre o il fatto di indossare dispositivi di protezione individuale.

    3.9.

    Per di più, queste applicazioni comportano una (parziale) sospensione di differenti libertà e diritti umani, in quanto incidono sulla libertà di associazione e sul diritto alla sicurezza, alla non discriminazione e alla vita privata.

    3.10.

    Pur importantissima, la vita privata va molto al di là del nostro anonimato e dei nostri dati personali. La tutela della vita privata comporta anche il diritto di non essere seguiti, controllati e posti sotto sorveglianza. È stato provato scientificamente che una persona consapevole di essere seguita inizia ad alterare il proprio comportamento. Secondo la Corte europea dei diritti dell'uomo, quest'effetto deterrente costituisce un'intrusione nella nostra vita privata. Lo stesso ampio concetto di vita privata dovrebbe essere inserito nel dibattito sull'IA.

    3.11.

    Vi è il rischio che i dati raccolti (ora o in futuro) siano utilizzati non solo per combattere l'attuale pandemia, ma anche per profilare, classificare e valutare i cittadini a scopi differenti. In un futuro più lontano, è persino possibile immaginare che uno «slittamento di funzione» conduca a tipi di profilazione indesiderata in relazione alla supervisione e alla sorveglianza, alla possibilità di stipulare polizze di assicurazione o di percepire prestazioni sociali, alle assunzioni o ai licenziamenti eccetera. I dati raccolti per mezzo di tali applicazioni non si devono pertanto mai utilizzare a fini di profilazione, valutazione dei rischi, classificazione o previsione.

    3.12.

    Ancora, che ci piaccia o no, qualsiasi soluzione di IA impiegata in queste circostanze eccezionali e anche con le migliori intenzioni, costituirà un precedente. Le crisi precedenti hanno dimostrato che, a dispetto di ogni buona intenzione, misure di questo genere, in pratica, sono destinate a non scomparire mai.

    3.13.

    L'uso dell'IA nel corso dell'attuale pandemia, pertanto, dovrebbe sempre essere misurato e soppesato alla luce di varie considerazioni, come per esempio: i) è efficace e attendibile? ii) esistono soluzioni meno invasive? iii) i vantaggi sono più rilevanti dei timori di natura etica e sociale e in materia di diritti fondamentali? e iv) è possibile conseguire un compromesso responsabile tra libertà e diritti fondamentali in conflitto reciproco? Inoltre, non è lecito impiegare questo tipo di sistemi nell'ambito di alcuna forma di obbligo o coercizione.

    3.14.

    Il CESE esorta i responsabili politici a non accettare supinamente la moda delle soluzioni tecniche. Data la gravità della situazione, raccomandiamo che le applicazioni connesse ai progetti concepiti per favorire il controllo della pandemia siano fondate su una solida base di ricerche in materia di epidemiologia, sociologia, psicologia, diritto, etica e scienze dei sistemi. Prima di decidere in merito all'uso di tali sistemi, è necessario effettuare simulazioni e analisi dell'efficacia, della necessità e della sensibilità.

    Bruxelles, 16 luglio 2020

    Il presidente del Comitato economico e sociale europeo

    Luca JAHIER


    Top