Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021AE2482

    Parere del Comitato economico e sociale europeo sulla proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione [COM(2021) 206 final — 2021/0106 (COD)]

    EESC 2021/02482

    GU C 517 del 22.12.2021, p. 61–66 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    22.12.2021   

    IT

    Gazzetta ufficiale dell’Unione europea

    C 517/61


    Parere del Comitato economico e sociale europeo sulla proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione

    [COM(2021) 206 final — 2021/0106 (COD)]

    (2021/C 517/09)

    Relatrice:

    Catelijne MULLER

    Consultazione

    Parlamento europeo, 7.6.2021

    Consiglio, 15.6.2021

    Base giuridica

    Articolo 114 del trattato sul funzionamento dell’Unione europea

    Sezione competente

    Mercato unico, produzione, consumo

    Adozione in sezione

    2.9.2021

    Adozione in sessione plenaria

    22.9.2021

    Sessione plenaria n.

    563

    Esito della votazione

    (favorevoli/contrari/astenuti)

    225/03/06

    1.   Conclusioni e raccomandazioni

    1.1.

    Il Comitato economico e sociale europeo (CESE) accoglie con favore il fatto che la proposta della Commissione relativa alla legge sull’intelligenza artificiale (IA) non si limiti ad affrontare i rischi associati all’IA, ma alzi anche notevolmente l’asticella per quanto riguarda la qualità, le prestazioni e l’affidabilità dell’IA che l’UE è disposta a consentire. Il CESE constata con particolare soddisfazione il ruolo centrale attribuito alla salute, alla sicurezza e in generale ai diritti fondamentali nella legge sull’intelligenza artificiale nonché la portata globale di tale iniziativa.

    1.2.

    Il CESE individua margini di miglioramento per quanto riguarda la portata, la pertinenza e la chiarezza delle disposizioni relative alle pratiche di IA vietate, le implicazioni delle scelte di categorizzazione effettuate in relazione alla «piramide di rischio», l’effetto di attenuazione del rischio dei requisiti relativi all’IA ad alto rischio, la possibilità di imporre il rispetto della legge sull’intelligenza artificiale e il rapporto con la normativa esistente e altre recenti proposte normative.

    1.3.

    Il CESE sottolinea che l’IA non ha mai operato in un mondo privo di leggi. In ragione della sua ampia portata e della sua preminenza in quanto regolamento UE, la legge sull’intelligenza artificiale potrebbe creare tensioni con le normative nazionali ed europee esistenti e le proposte legislative ad esse correlate. Il CESE raccomanda di modificare il considerando 41 affinché rispecchi e chiarisca adeguatamente le relazioni tra la legge sull’IA e la legislazione vigente e futura.

    1.4.

    Il CESE raccomanda di chiarire la definizione di IA stralciando l’allegato I e modificando leggermente l’articolo 3, come pure ampliando l’ambito di applicazione della legge in modo da includere i «sistemi legacy di IA» e le componenti IA dei sistemi IT su larga scala nello spazio di libertà, sicurezza e giustizia di cui all’allegato IX.

    1.5.

    Il CESE raccomanda di fare chiarezza riguardo ai divieti relativi alle «tecniche subliminali» e allo «sfruttamento delle vulnerabilità», in modo da rispecchiare il divieto della manipolazione nociva, e di aggiungere quali condizioni per l’applicazione di tali divieti anche «il pregiudizio ai diritti fondamentali, alla democrazia e allo Stato di diritto».

    1.6.

    Il CESE ritiene che nell’UE non vi sia cittadinanza per un sistema che attribuisce un punteggio all’affidabilità dei cittadini europei sulla base del loro comportamento sociale o delle caratteristiche della loro personalità, quale che sia l’attore che assegna tale punteggio. Il CESE raccomanda di ampliare l’ambito di applicazione di questo divieto in modo da includervi il punteggio sociale da parte di organizzazioni private e autorità semipubbliche.

    1.7.

    Il CESE chiede di vietare l’uso dell’IA ai fini del riconoscimento biometrico automatico in spazi pubblici, aperti al pubblico o privati, tranne a fini di autenticazione in circostanze specifiche, nonché ai fini del riconoscimento automatico di segnali comportamentali umani in spazi pubblici, aperti al pubblico o privati, salvo in casi molto specifici, come alcuni scopi sanitari, in cui il riconoscimento delle emozioni del paziente può essere prezioso.

    1.8.

    L’approccio «basato su elenchi» per l’IA ad alto rischio minaccia di considerare «a norma» una serie di sistemi di IA — e generalizzare una serie di impieghi di quest’ultima — ancora fortemente criticati. Il CESE avverte che il rispetto dei requisiti stabiliti per l’IA ad alto e medio rischio non riduce necessariamente i rischi di un pregiudizio alla salute, alla sicurezza e in generale ai diritti fondamentali associati a tutta l’IA ad alto rischio. Il CESE raccomanda quindi che la legge sull’intelligenza artificiale fornisca al riguardo soluzioni appropriate, aggiungendo ai requisiti già previsti quantomeno quelli di i) intervento umano, ii) riservatezza, iii) diversità, non discriminazione ed equità, iv) spiegabilità e v) benessere ambientale e sociale di cui agli Orientamenti etici per un’IA affidabile.

    1.9.

    In linea con l’approccio all’IA di «sorveglianza con controllo umano» a lungo auspicato, il CESE raccomanda vivamente che la legge sull’intelligenza artificiale preveda che determinate decisioni rimangano prerogativa degli esseri umani, in particolare negli ambiti in cui tali decisioni hanno una componente morale e implicazioni giuridiche o un impatto sociale, come ad esempio in campo giudiziario, nelle attività di contrasto, nei servizi sociali, nella sanità, nella politica degli alloggi, nei servizi finanziari, nei rapporti di lavoro e nell’istruzione.

    1.10.

    Il CESE raccomanda di rendere obbligatorie le valutazioni di conformità da parte di terzi per tutta l’IA ad alto rischio.

    1.11.

    Il CESE suggerisce di includere nella legge sull’IA un meccanismo di reclamo e ricorso per le organizzazioni e i cittadini che hanno subito un pregiudizio a causa di qualsiasi sistema, pratica o uso dell’IA che rientri nell’ambito di applicazione della legge stessa.

    2.   Proposta normativa sull’intelligenza artificiale — legge sull’intelligenza artificiale

    2.1.

    Il CESE accoglie con favore il fatto che la proposta della Commissione relativa alla legge sull’intelligenza artificiale non si limiti ad affrontare i rischi associati all’IA, ma alzi anche notevolmente l’asticella per quanto riguarda la qualità, le prestazioni e l’affidabilità dell’IA che l’UE è disposta a consentire.

    3.   Osservazioni generali — legge sull’intelligenza artificiale

    Obiettivo e ambito di applicazione

    3.1.

    Il CESE accoglie con favore l’obiettivo e l’ambito di applicazione della legge sull’intelligenza artificiale, e constata con particolare soddisfazione il ruolo centrale attribuitovi dalla Commissione alla salute, alla sicurezza e in generale ai diritti fondamentali. Il CESE si compiace inoltre della dimensione esterna della legge sull’intelligenza artificiale, che garantisce che l’IA sviluppata al di fuori dell’UE debba soddisfare gli stessi requisiti giuridici di quella sviluppata nell’UE qualora sia utilizzata o abbia un impatto all’interno dell’Unione.

    Definizione di IA

    3.2.

    La definizione di IA (articolo 3, n. 1, in combinato disposto con l’allegato I della stessa legge) è stata oggetto di discussione tra gli scienziati del settore, i quali ritengono che alcuni esempi forniti nell’allegato I non costituiscano applicazioni di intelligenza artificiale e che, viceversa, la legge non menzioni tutta una serie di importanti tecniche di IA. Il CESE non ravvisa alcun valore aggiunto nell’allegato I e raccomanda di stralciarlo completamente dalla legge sull’intelligenza artificiale. Il Comitato raccomanda inoltre di modificare come segue la definizione di cui all’articolo 3, n. 1:

    «“Sistema di intelligenza artificiale” (sistema di IA): un software che può, in modo automatizzato, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano l’ambiente con cui il sistema interagisce».

    Salute, sicurezza e altri diritti fondamentali — la piramide di rischio

    3.3.

    Il ricorso a una «piramide di rischio» ascendente (che va dal rischio basso/medio a quello elevato, fino al rischio inaccettabile) per classificare, nell’ambito dell’IA, una serie di casi di pratiche generali e di impieghi specifici di determinati settori, implica che non tutta l’IA comporta dei rischi e che non tutti i rischi sono uguali o richiedono le stesse misure di attenuazione.

    3.4.

    L’approccio scelto pone due interrogativi importanti: in primo luogo, se le misure di attenuazione (per l’IA ad alto rischio e a basso/medio rischio) riducono davvero in misura sufficiente i rischi di un pregiudizio alla salute, alla sicurezza e ad altri diritti fondamentali, e, in secondo luogo, se siamo disposti a permettere all’IA di sostituire in larga misura il processo decisionale umano, anche in processi critici come l’attività di contrasto e quella giudiziaria.

    3.5.

    Quanto al primo interrogativo, il CESE avverte che la conformità ai requisiti stabiliti per l’IA a medio e alto rischio non attenua necessariamente, in tutti i casi, i rischi di un pregiudizio alla salute, alla sicurezza e ad altri diritti fondamentali. Tale aspetto sarà ulteriormente approfondito nella sezione 4 di questo parere.

    3.6.

    Quanto al secondo interrogativo, il concetto mancante nella legge è che la promessa dell’IA consiste nel migliorare il processo decisionale umano e l’intelligenza umana, anziché sostituirsi ad essi. La legge sull’intelligenza artificiale parte dal presupposto che, una volta soddisfatti i requisiti relativi all’IA a medio e alto rischio, questa possa sostituire in larga misura il processo decisionale umano.

    3.7.

    Il CESE raccomanda vivamente che la legge sull’intelligenza artificiale stabilisca che determinate decisioni rimangano prerogativa degli esseri umani, in particolare in ambiti in cui tali decisioni hanno una componente morale e implicazioni giuridiche o un impatto sociale, come ad esempio in campo giudiziario, nelle attività di contrasto, nei servizi sociali, nella sanità, nelle politiche degli alloggi, nei servizi finanziari, nei rapporti di lavoro e nell’istruzione.

    3.8.

    I sistemi di IA non operano in un mondo senza leggi. Già oggi una serie di norme giuridicamente vincolanti a livello europeo, nazionale e internazionale si applicano o sono pertinenti per i sistemi di IA. Le fonti giuridiche comprendono, tra le altre cose, il diritto primario dell’UE (i Trattati dell’Unione europea e la sua Carta dei diritti fondamentali), il diritto derivato dell’UE (come il regolamento generale sulla protezione dei dati, la direttiva sulla responsabilità per danno da prodotti difettosi, il regolamento sulla libera circolazione dei dati non personali, le direttive contro la discriminazione, il diritto dei consumatori e le direttive sulla sicurezza e la salute sul luogo di lavoro), i trattati delle Nazioni Unite in materia di diritti umani, le convenzioni del Consiglio d’Europa (come la Convenzione europea dei diritti dell’uomo) e numerose leggi in vigore negli Stati membri dell’UE. Oltre alle norme applicabili orizzontalmente, esistono varie norme specifiche a taluni settori che si applicano a specifiche applicazioni dell’IA (ad esempio il regolamento sui dispositivi medici nel settore sanitario). Il CESE raccomanda di modificare il considerando 41 per tenere debitamente conto di questo aspetto.

    4.   Osservazioni particolari e raccomandazioni — legge sull’intelligenza artificiale

    Pratiche di IA vietate

    4.1.

    Il CESE concorda nel ritenere che le pratiche di IA di cui all’articolo 5 non apportino alcun beneficio sociale effettivo e dovrebbero essere vietate. Osserva però che talune formulazioni poco chiare potrebbero rendere alcuni divieti di difficile interpretazione e facilmente aggirabili.

    4.2.

    Vi sono prove del fatto che le tecniche subliminali possono non solo provocare danni fisici o psicologici (le condizioni attuali per l’applicazione di questo particolare divieto) ma, considerato il contesto in cui vengono impiegate, anche determinare altri effetti negativi a livello personale, sociale o democratico, come ad esempio alterare il comportamento elettorale. Inoltre, spesso non è la tecnica subliminale di per sé, ma piuttosto la scelta riguardo ai suoi destinatari a essere guidata dall’intelligenza artificiale.

    4.3.

    Allo scopo di chiarire quali pratiche la legge sull’intelligenza artificiale intenda vietare all’articolo 5, paragrafo 1, lettera a), ossia quelle che manipolano le persone spingendole a comportamenti dannosi, il CESE raccomanda di modificare tale paragrafo come segue: «[…] un sistema di IA impiegato, finalizzato o utilizzato alla scopo di distorcere materialmente il comportamento di una persona in un modo che provochi o possa provocare un pregiudizio ai diritti fondamentali, compresi quelli alla salute e alla sicurezza fisiche o psicologiche, di tale persona, di un’altra persona o di un gruppo di persone, o alla democrazia e allo Stato di diritto».

    4.4.

    Il CESE raccomanda di modificare allo stesso modo il divieto relativo alla pratica di sfruttamento delle vulnerabilità di cui all’articolo 5, paragrafo 1, lettera b), in modo da includervi la lesione dei diritti fondamentali, compreso il danno fisico o psicologico.

    4.5.

    Il CESE accoglie con favore il divieto relativo al «punteggio sociale» di cui all’articolo 5, paragrafo 1, lettera c). Il CESE raccomanda che tale divieto si applichi anche alle organizzazioni private e alle autorità semipubbliche, anziché solamente alle autorità pubbliche. Nell’UE non può avere cittadinanza un sistema che attribuisca un punteggio all’affidabilità dei cittadini europei sulla base del loro comportamento sociale o delle caratteristiche della loro personalità, quale che sia l’attore che assegna tale punteggio. Se ciò fosse possibile, l’UE aprirebbe le porte a un punteggio sociale applicabile a molteplici ambiti, come ad esempio il posto di lavoro. Le condizioni di cui ai punti i) e ii) dovrebbero essere chiarite in modo da tracciare una chiara linea di demarcazione tra ciò che è considerato «punteggio sociale» e ciò che può essere considerato una forma accettabile di valutazione per un determinato scopo, ossia stabilire quando le informazioni utilizzate per la valutazione non dovrebbero più essere considerate pertinenti o ragionevolmente connesse all’obiettivo della valutazione.

    4.6.

    La legge sull’intelligenza artificiale mira a vietare l’identificazione biometrica remota in tempo reale (tramite riconoscimento facciale, per esempio) a fini di attività di contrasto, e intende classificare tale pratica come «ad alto rischio» se utilizzata per altri scopi. In base a tale disposizione, continua ad essere autorizzato il riconoscimento biometrico «a posteriori» e «quasi» in tempo reale, come pure il riconoscimento biometrico non finalizzato all’identificazione di una persona, bensì alla valutazione del suo comportamento in base alle caratteristiche biometriche (microespressioni, andatura, temperatura, frequenza cardiaca ecc.). La limitazione alle «attività di contrasto» consente l’identificazione biometrica, nonché tutte le altre forme di riconoscimento biometrico non finalizzate all’identificazione di una persona, comprese tutte le forme menzionate di «riconoscimento delle emozioni» per tutti gli altri scopi, da parte di tutti gli altri attori, in tutti i luoghi pubblici e privati, compresi i luoghi di lavoro, i negozi, gli stadi, i teatri ecc. In questo modo si spiana la strada per un mondo in cui saremmo costantemente «valutati emotivamente» per qualsiasi scopo che l’autore della valutazione ritenga necessario.

    4.7.

    La legge sull’intelligenza artificiale classifica il «riconoscimento delle emozioni» generalmente come a basso rischio, ad eccezione di alcuni domini utente in cui tale riconoscimento è classificato come ad alto rischio. Questo tipo di riconoscimento biometrico è noto anche come «riconoscimento degli affetti» e talvolta «riconoscimento del comportamento». Tutti questi tipi di pratiche ad opera dell’IA sono estremamente invasivi, sono privi di solide basi scientifiche e comportano rischi sostanziali di ledere una serie di diritti fondamentali sanciti dalla Carta dell’UE, come il diritto alla dignità umana, il diritto all’integrità della persona (che include l’integrità psichica) e il diritto alla vita privata.

    4.8.

    Ampiamente in linea con l’invito del Garante europeo della protezione dei dati (GEPD) e del comitato europeo per la protezione dei dati (EDPB) del 21 giugno 2021 a vietare l’uso dell’IA per il riconoscimento automatizzato di caratteristiche umane negli spazi accessibili al pubblico e di alcuni altri usi dell’IA che possono portare a ingiuste discriminazioni, il CESE chiede di:

    vietare l’uso dell’IA ai fini del riconoscimento biometrico automatico in spazi pubblici, aperti al pubblico e privati (come il riconoscimento di volti, andature, voci e altre caratteristiche biometriche), tranne a fini di autenticazione in circostanze specifiche (ad esempio per consentire l’accesso a spazi sensibili sotto il profilo della sicurezza);

    vietare l’uso dell’IA ai fini del riconoscimento automatico di segnali comportamentali umani in spazi pubblici, aperti al pubblico e privati;

    vietare i sistemi di IA che utilizzano la biometria per classificare gli individui in gruppi in base a etnia, genere, orientamento politico o sessuale o altri motivi di discriminazione vietati ai sensi dell’articolo 21 della Carta;

    vietare l’impiego dell’IA per dedurre le emozioni, il comportamento, le intenzioni o le caratteristiche di una persona fisica, tranne in casi molto specifici, come ad esempio per alcuni scopi sanitari, in cui è importante il riconoscimento delle emozioni del paziente.

    IA ad alto rischio

    4.9.

    Nel decidere se una pratica o un uso dell’IA che presenta un rischio per la salute, la sicurezza o gli altri diritti fondamentali debba essere comunque consentito a condizioni rigorose, la Commissione ha esaminato due elementi: i) se la pratica o l’uso dell’IA può apportare benefici sociali e ii) se i rischi di pregiudizio alla salute, alla sicurezza e ad altri diritti fondamentali che tale uso comporta possono essere attenuati conformandosi a una serie di requisiti.

    4.10.

    Il CESE accoglie con favore l’allineamento di tali requisiti con i contenuti degli Orientamenti etici per un’IA affidabile. Tuttavia, la legge sull’intelligenza artificiale, nello stabilire i requisiti relativi all’IA ad alto rischio, non indica nello specifico cinque importanti requisiti menzionati in tali orientamenti, vale a dire i) l’intervento umano, ii) la riservatezza, iii) la diversità, la non discriminazione e l’equità, iv) la spiegabilità e v) il benessere ambientale e sociale. Il CESE ravvisa in questa omissione un’occasione mancata, perché molti dei rischi posti dall’IA attengono proprio alla riservatezza, ai pregiudizi e all’esclusione nei confronti delle persone, all’inesplicabilità dei risultati delle decisioni dell’IA, alla compromissione della capacità di intervento umano e ai danni all’ambiente, tutti aspetti che si ripercuotono sui nostri diritti fondamentali.

    4.11.

    Il CESE raccomanda di includere questi requisiti tra quelli menzionati al capo 2 del titolo III della legge sull’intelligenza artificiale, al fine di migliorare la capacità della legge stessa di proteggere efficacemente la nostra salute, la nostra sicurezza e i nostri altri diritti fondamentali dall’impatto negativo dell’IA, utilizzata sia dalle autorità pubbliche che dalle organizzazioni private.

    4.12.

    Il CESE accoglie con favore la forte correlazione tra la legge sull’intelligenza artificiale e la normativa di armonizzazione dell’Unione, e raccomanda di estendere l’ambito di applicazione della legge sull’intelligenza artificiale e i requisiti relativi all’IA ad alto rischio affinché non si limitino ai «componenti di sicurezza dell’IA» o ai casi in cui il sistema di IA è esso stesso un prodotto disciplinato dalla normativa di armonizzazione dell’Unione di cui all’allegato II. Questo perché l’IA può comportare dei rischi non solo quando è utilizzata come componente di sicurezza di tali prodotti, e perché il sistema di IA stesso non è sempre un prodotto. È il caso, ad esempio, dell’IA utilizzata come parte di uno strumento diagnostico o prognostico in campo medico, oppure di un termostato basato sull’intelligenza artificiale che regola una caldaia.

    4.13.

    Il CESE avverte tuttavia che l’approccio «basato su elenchi» scelto per l’IA ad alto rischio nell’allegato III può portare alla legittimazione, alla normalizzazione e alla generalizzazione di un certo numero di pratiche di IA che sono ancora fortemente criticate e i cui benefici a livello sociale sono discutibili o assenti.

    4.14.

    Inoltre, i rischi di un pregiudizio alla salute, alla sicurezza o ad altri diritti fondamentali non possono sempre essere mitigati dalla conformità ai cinque requisiti stabiliti per l’IA ad alto rischio, in particolare quando questa potrebbe incidere su diritti fondamentali meno spesso menzionati quando si tratta di IA, quali ad esempio, solo per citarne alcuni, i diritti alla dignità umana, alla presunzione di innocenza e a condizioni di lavoro giuste ed eque, oppure ancora la libertà di associazione e di riunione come pure il diritto di sciopero.

    4.15.

    Il CESE raccomanda vivamente di aggiungere la gestione e il funzionamento dell’infrastruttura di telecomunicazione e di Internet all’allegato III, punto 2, e di estendere inoltre l’ambito di applicazione di questo punto al di là dei componenti di sicurezza dell’IA.

    4.16.

    I sistemi di IA impiegati per determinare l’accesso all’istruzione e valutare gli studenti comportano una serie di rischi che possono pregiudicare la salute, la sicurezza e altri diritti fondamentali degli studenti. Gli strumenti di supervisione online che potrebbero essere usati, ad esempio, per segnalare «comportamenti sospetti» e «indicazioni di imbroglio» durante gli esami online, avvalendosi di ogni tipo di biometria e monitoraggio del comportamento, sono assolutamente invasivi e privi di fondamenti scientifici.

    4.17.

    L’uso dei sistemi di IA per monitorare, tracciare e valutare i lavoratori solleva serie preoccupazioni per quanto riguarda i diritti fondamentali dei lavoratori stessi a condizioni di lavoro eque e giuste, all’informazione e alla consultazione come pure alla giustificazione di un eventuale licenziamento. L’aggiunta di questi sistemi di intelligenza artificiale all’elenco dei sistemi ad alto rischio potrebbe entrare in conflitto con le legislazioni nazionali del lavoro e i contratti collettivi di lavoro in materia di (in)giusto licenziamento, condizioni di lavoro sane e sicure e informazione dei lavoratori. Il CESE chiede che sia garantita la piena partecipazione e informazione dei lavoratori e delle parti sociali nell’ambito del processo decisionale riguardante l’uso dell’IA sul luogo di lavoro, nonché il suo sviluppo, acquisizione e diffusione.

    4.18.

    Il requisito della «sorveglianza umana» è particolarmente rilevante nei rapporti di lavoro, perché la supervisione sarà svolta da un lavoratore o da un gruppo di lavoratori. Il CESE sottolinea che tali lavoratori dovrebbero ricevere una formazione su come svolgere questo compito e, inoltre, prevedendo che essi possano ignorare l’output del sistema di IA o addirittura decidere di non utilizzarlo, è opportuno mettere in atto misure volte a evitare il timore di conseguenze negative (ad esempio la retrocessione di grado o il licenziamento) nel caso venga presa una tale decisione.

    4.19.

    L’uso dei sistemi di IA in relazione all’accesso a servizi pubblici e alla fruizione degli stessi risulta più ampio rispetto all’uso dei sistemi di IA in relazione all’accesso a servizi privati essenziali e alla relativa fruizione, e per questi ultimi solo la valutazione del merito di credito (affidabilità creditizia) da parte dell’IA è considerata ad alto rischio. Il CESE raccomanda di estendere l’ambito di applicazione dell’allegato III, punto 5, lettera b), ai sistemi di IA destinati a valutare l’ammissibilità ai servizi privati essenziali.

    4.20.

    L’impiego dell’IA da parte delle autorità di contrasto e nella gestione delle migrazioni, dell’asilo e del controllo delle frontiere per effettuare valutazioni dei rischi (di commissione di reati o in generale per la sicurezza) posti da singoli individui rischia di pregiudicare la presunzione di innocenza, il diritto alla difesa e il diritto di asilo di cui alla Carta dell’UE. I sistemi di IA, in generale, si limitano a cercare correlazioni basate su caratteristiche riscontrate in altri «casi». La valutazione, quindi, non si basa sull’effettivo sospetto di un reato o atto illecito da parte di una determinata persona, ma semplicemente su caratteristiche che tale persona condivide con criminali condannati (come indirizzo, reddito, cittadinanza, situazione debitoria, occupazione, comportamento proprio, di amici e familiari, e così via).

    4.21.

    L’uso dell’intelligenza artificiale nell’amministrazione della giustizia e nei processi democratici costituisce un tema particolarmente delicato e dovrebbe essere affrontato con più sfumature e controlli di quanto non avvenga attualmente. Il riferimento ai sistemi di IA utilizzati per assistere l’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione delle norme a una serie concreta di fatti non considera che giudicare è attività assai più complessa della mera ricerca di schemi ricorrenti in dati storici (che in sostanza è ciò che gli attuali sistemi di intelligenza artificiale fanno). Il testo presuppone altresì che questi tipi di IA forniranno soltanto assistenza in campo giudiziario, escludendo dall’ambito di applicazione il processo decisionale giudiziario completamente automatizzato. Il CESE si rammarica inoltre del fatto che nella legge sull’IA non vi sia alcun riferimento a sistemi di IA impiegati nell’ambito di processi democratici, come le elezioni.

    4.22.

    Il CESE raccomanda di includere nella legge sull’IA una disposizione per i casi in cui risulti evidente o emerga chiaramente dalla valutazione della conformità preventiva che i sei requisiti indicati sopra non attenueranno in misura sufficiente il rischio di pregiudizi alla salute, alla sicurezza e ai diritti umani (ad esempio modificando l’articolo 16, lettera g), della legge).

    Governance e applicabilità

    4.23.

    Il CESE accoglie con favore la struttura di governance istituita dalla legge sull’intelligenza artificiale. Raccomanda al comitato europeo per l’intelligenza artificiale di organizzare scambi di opinioni periodici e obbligatori con la società in generale, comprese le parti sociali e le ONG.

    4.24.

    Il CESE raccomanda vivamente di estendere il campo di applicazione della legge sull’intelligenza artificiale in modo da includervi i «sistemi legacy di IA», ovvero i sistemi che sono già in uso o lo saranno prima dell’entrata in vigore della legge stessa, onde evitare che i soggetti che applicano l’IA velocizzino l’attuazione di sistemi IA vietati, ad alto e medio rischio per eludere i requisiti di conformità. Inoltre, il CESE raccomanda vivamente di non escludere dall’ambito di applicazione della legge in esame l’IA che è una componente dei sistemi IT su larga scala nello spazio di libertà, sicurezza e giustizia di cui all’allegato IX.

    4.25.

    La complessità dei requisiti e degli obblighi di informazione, in aggiunta all’autovalutazione, rischia di banalizzare questo processo, riducendolo a una lista di controllo dove un semplice «sì» o «no» potrebbe essere sufficiente per soddisfare i requisiti. Il CESE raccomanda di rendere obbligatorie le valutazioni da parte di terzi per tutta l’IA ad alto rischio.

    4.26.

    Il CESE raccomanda di predisporre adeguate misure di sostegno (finanziario) nonché strumenti semplici e accessibili per le organizzazioni di piccole e piccolissime dimensioni, nonché per le organizzazioni della società civile, affinché tali entità siano in grado di comprendere lo scopo e il significato della legge sull’intelligenza artificiale e quindi conformarsi ai relativi requisiti. Tali misure dovrebbero andare oltre il mero sostegno ai poli dell’innovazione digitale e agevolare l’accesso a competenze di alto livello in relazione alla legge sull’intelligenza artificiale, ai suoi requisiti, ai suoi obblighi e, in particolare, alle motivazioni alla loro base.

    4.27.

    Il CESE raccomanda di includere nella legge sull’IA un meccanismo di reclamo e ricorso per le organizzazioni e i cittadini che hanno subito danni causati da qualsiasi sistema, pratica o impiego dell’IA che rientri nell’ambito di applicazione della legge stessa.

    Bruxelles, 22 settembre 2021

    La presidente del Comitato economico e sociale europeo

    Christa SCHWENG


    Top