Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52019AE1830

    Parere del Comitato economico e sociale europeo sulla comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni — Creare fiducia nell’intelligenza artificiale antropocentrica[COM(2019) 168 final]

    EESC 2019/01830

    GU C 47 del 11.2.2020, p. 64–68 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    11.2.2020   

    IT

    Gazzetta ufficiale dell'Unione europea

    C 47/64


    Parere del Comitato economico e sociale europeo sulla comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni — Creare fiducia nell’intelligenza artificiale antropocentrica

    [COM(2019) 168 final]

    (2020/C 47/09)

    Relatrice: Franca SALIS-MADINIER

    Consultazione

    Commissione europea, 3.6.2019

    Base giuridica

    Articolo 304 del trattato sul funzionamento dell’Unione europea

    Sezione competente

    Mercato unico, produzione e consumo

    Adozione in sezione

    18.10.2019

    Adozione in sessione plenaria

    30.10.2019

    Sessione plenaria n.

    547

    Esito della votazione

    (favorevoli/contrari/astenuti)

    198/1/4

    1.   Conclusioni e raccomandazioni

    1.1.

    L’intelligenza artificiale (IA) non è un fine in sé, bensì uno strumento che può apportare cambiamenti radicali positivi ma anche comportare dei rischi, e del quale pertanto è necessario regolamentare l’uso.

    1.2.

    La Commissione dovrebbe adottare misure per prevedere, prevenire e impedire l’impiego doloso dell’IA e dell’apprendimento automatico, nonché disciplinare meglio la commercializzazione di prodotti immessi sul mercato con intento doloso.

    1.3.

    In particolare, l’UE deve promuovere lo sviluppo di sistemi di IA orientati verso applicazioni concrete che consentano di accelerare la transizione ecologica e climatica.

    1.4.

    Occorre individuare le sfide che potranno essere affrontate mediante codici etici, misure di autoregolamentazione e impegni volontari e quelle che richiedono strumenti normativi e legislativi accompagnati da un monitoraggio e, in caso di non conformità, da sanzioni. In ogni caso, i sistemi di IA devono conformarsi alla legislazione vigente.

    1.5.

    L’IA richiede un approccio che consideri sì gli aspetti tecnici, ma anche quelli sociali ed etici. Il CESE accoglie con favore la volontà dell’UE di sviluppare un approccio all’IA che ponga al centro l’essere umano («antropocentrico») e conforme ai valori su cui l’Unione si fonda: rispetto della dignità umana, libertà, democrazia, uguaglianza e non discriminazione, Stato di diritto, rispetto dei diritti umani.

    1.6.

    Il CESE insiste (1) sulla necessità di consultare e informare i lavoratori e i loro rappresentanti al momento di introdurre sistemi di IA che possano comportare cambiamenti nell’organizzazione, nella sorveglianza e nel controllo del lavoro, nonché nei sistemi di valutazione e assunzione dei lavoratori. La Commissione deve promuovere il dialogo sociale al fine di coinvolgere i lavoratori nell’uso dei sistemi di IA.

    1.7.

    Il CESE sottolinea (2) che un’IA degna di fiducia presuppone il controllo dell’essere umano sulla macchina e l’informazione dei cittadini in merito al suo utilizzo. I sistemi di IA devono poter essere illustrati in modo comprensibile ai cittadini (devono cioè essere «spiegabili») oppure, nei casi in cui ciò non sia possibile, i cittadini e i consumatori devono essere informati riguardo ai limiti e ai rischi di tali sistemi.

    1.8.

    L’UE deve affrontare i «rischi emergenti» (3) in materia di salute e sicurezza sul lavoro. Occorre stabilire norme per evitare che i sistemi autonomi arrechino pregiudizio o provochino danni alle persone. I lavoratori devono essere addestrati, con un’apposita formazione, a lavorare con i suddetti sistemi e ad arrestarne il funzionamento in caso di emergenza.

    1.9.

    Il CESE chiede che sia messo a punto un robusto sistema di certificazione basato su procedure di prova che consentano alle imprese di verificare l’affidabilità e la sicurezza dei loro sistemi di IA. La trasparenza, la tracciabilità e la spiegabilità dei processi decisionali algoritmici costituiscono una sfida tecnica che richiede il sostegno di strumenti dell’UE come il programma Orizzonte Europa.

    1.10.

    La tutela della riservatezza e la protezione dei dati personali determineranno il livello di fiducia dei cittadini e dei consumatori nell’IA. La proprietà, il controllo e l’utilizzo dei dati da parte delle imprese e delle organizzazioni sono questioni ancora in gran parte da risolvere (in particolare riguardo all’Internet degli oggetti). Il CESE esorta la Commissione a riesaminare periodicamente il regolamento generale sulla protezione dei dati (RGPD) (4) e gli atti normativi ad esso correlati alla luce degli sviluppi tecnologici.

    1.11.

    Il CESE giudica essenziale riflettere sul contributo che i sistemi di IA possono apportare alla riduzione delle emissioni di gas a effetto serra, in particolare nei settori dell’industria, dei trasporti, dell’energia, dell’edilizia e dell’agricoltura, e raccomanda che le transizioni climatica e digitale siano interconnesse.

    1.12.

    Il CESE ritiene che il controllo dei sistemi di IA possa non essere sufficiente per definire le responsabilità e ispirare fiducia; raccomanda di accordare la priorità alla definizione di regole chiare che attribuiscano la responsabilità di eventuali inadempienze ai soggetti giuridici appropriati: le persone fisiche o quelle giuridiche; e chiede inoltre alla Commissione di esaminare in via prioritaria la questione fondamentale dell’assicurabilità dei sistemi di IA.

    1.13.

    Il CESE propone di mettere a punto, per le imprese che rispettano le norme, un «certificato europeo di impresa di fiducia per l’IA» basato, tra l’altro, sull’elenco di valutazione proposto dal gruppo di esperti ad alto livello in materia di intelligenza artificiale (GAL).

    1.14.

    Promuovendo i lavori pertinenti nel G7, nel G20 e nei dialoghi bilaterali, l’UE deve cercare di far sì che la regolamentazione dell’IA oltrepassi le frontiere europee. Occorre costruire un accordo internazionale per un’IA affidabile, che consenta di elaborare norme internazionali e di verificarne regolarmente la pertinenza.

    2.   Sintesi della proposta della Commissione

    2.1.

    La comunicazione in esame si basa sui lavori del GAL che la Commissione ha istituito nel giugno 2018. Nella comunicazione, la Commissione definisce sette requisiti fondamentali per realizzare un’IA affidabile, elencati al punto 4.

    2.2.

    La Commissione ha avviato una fase pilota, con la partecipazione di un’ampia gamma di parti interessate, in cui ci si è concentrati in particolare sull’elenco di valutazione elaborato dal GAL per ciascuno dei cennati requisiti fondamentali. All’inizio del 2020 il GAL riesaminerà e aggiornerà l’elenco di valutazione e, se del caso, la Commissione proporrà nuove misure.

    2.3.

    La Commissione intende portare il suo approccio in materia di IA sulla scena internazionale e continuerà a svolgere un ruolo attivo in tal senso, anche nell’ambito del G7 e del G20.

    3.   Osservazioni generali

    3.1.

    L’intelligenza artificiale antropocentrica necessita di un approccio che consideri sì gli aspetti tecnici, ma anche quelli sociali ed etici. Il CESE accoglie con favore la volontà delle istituzioni dell’UE di adottare un approccio all’IA conforme ai valori su cui l’Unione si fonda: rispetto della dignità umana, libertà, democrazia, uguaglianza e non discriminazione, Stato di diritto, rispetto dei diritti umani. Come sottolineato dalla Commissione (5), l’IA non è fine a se stessa, ma è uno strumento in grado di apportare cambiamenti radicali positivi. Come qualsiasi strumento, essa crea allo stesso tempo delle opportunità e dei rischi, ragion per cui l’UE deve disciplinarne l’uso e definire chiaramente le relative responsabilità.

    3.2.

    La fiducia in un’IA antropocentrica potrà scaturire soltanto dall’affermazione di valori e principi, da un quadro normativo consolidato e da orientamenti etici contenenti requisiti essenziali.

    3.3.

    Tra le numerose sfide poste dall’IA occorre individuare, di concerto con l’insieme delle parti interessate, quelle che andranno affrontate con strumenti normativi e legislativi accompagnati da meccanismi normativi di monitoraggio e, in caso di non conformità, da sanzioni, e quelle che invece potranno esserlo mediante codici etici, misure di autoregolamentazione e impegni volontari, giuridicamente non vincolanti. Il CESE si compiace che la Commissione abbia fatto propri taluni principi originariamente indicati dal CESE, ma si rammarica del fatto che in questa fase essa non proponga alcuna misura specifica per rispondere a preoccupazioni legittime riguardo ai diritti dei consumatori, alla sicurezza dei sistemi e al regime di responsabilità.

    3.4.

    I sistemi di IA devono rispettare il quadro normativo esistente, in particolare per quanto riguarda la protezione dei dati personali, la responsabilità per danno da prodotti difettosi, la protezione dei consumatori, la non discriminazione e le qualifiche professionali, nonché l’informazione e la consultazione dei lavoratori sul luogo di lavoro. Occorre garantire che tali norme siano adeguate alle nuove sfide della digitalizzazione e dell’IA.

    3.5.

    Come rileva la Commissione, «[è] opportuno prevedere processi in grado di chiarire e valutare i potenziali rischi associati all’uso dei sistemi di IA nei vari settori di applicazione» (6). Il CESE attribuisce la massima importanza alle future modalità di tale valutazione e all’introduzione di indicatori che possano essere presi in considerazione a questo scopo. Il progetto di elenco di valutazione elaborato dal gruppo ad alto livello costituisce un punto di partenza per l’attuazione di questi processi.

    3.6.

    Ciò riguarda altresì la questione dell’equa distribuzione del valore aggiunto che ci si attende di ottenere dai sistemi di IA. Il CESE ritiene che le trasformazioni positive che l’IA dovrebbe apportare in termini di sviluppo economico, sostenibilità dei processi di produzione e consumo (in particolare di energia) e migliore uso delle risorse debbano andare a beneficio di tutti i paesi e, al loro interno, di tutti i cittadini.

    4.   Osservazioni particolari

    4.1.   Intervento e sorveglianza umani

    4.1.1.

    La Commissione intende garantire che l’uso di sistemi di IA non possa in alcun caso pregiudicare l’autonomia degli esseri umani o provocare effetti negativi. Come già affermato nei suoi pareri precedenti, il CESE condivide questo approccio della sorveglianza umana sulle macchine.

    4.1.2.

    In quest’ottica, è necessario anche che i cittadini siano adeguatamente informati sugli usi di questi sistemi, che questi siano spiegabili o, qualora ciò non sia possibile (ad esempio nel caso dell’«apprendimento profondo»), che siano fornite all’utente informazioni in merito ai limiti e ai rischi del sistema. In ogni caso, i cittadini devono poter mantenere la libertà di decidere diversamente dal sistema di IA.

    4.1.3.

    Nelle imprese e nelle amministrazioni pubbliche, i lavoratori e i loro rappresentanti devono essere adeguatamente informati e consultati al momento dell’introduzione di sistemi di IA che possano modificare l’organizzazione del lavoro e che possano riguardarli direttamente in termini di controllo, sorveglianza, valutazione e assunzione. La Commissione deve promuovere un dialogo sociale al fine di coinvolgere i lavoratori nell’uso dei sistemi di IA.

    4.1.4.

    Per quanto riguarda le risorse umane, occorre prestare particolare attenzione ai rischi di abuso dei sistemi di IA quali la sorveglianza illimitata, la raccolta di dati personali e dati sanitari, la condivisione di tali dati con terzi, nonché ai rischi emergenti in termini di salute e sicurezza sul luogo di lavoro (7). Occorre adottare norme chiare per garantire che la collaborazione uomo-macchina non rechi pregiudizio o provochi danni agli esseri umani. La norma introdotta dall’Organizzazione internazionale per la normazione (ISO) sui robot collaborativi (8), destinata a fabbricanti, integratori e utilizzatori, fornisce linee guida per la progettazione e l’organizzazione dello spazio di lavoro e la riduzione dei rischi ai quali possono essere esposte le persone. I lavoratori devono essere addestrati, con un’apposita formazione, a utilizzare l’IA e la robotica, a lavorare con i relativi sistemi e, in particolare, ad arrestarne il funzionamento in caso di emergenza («principio del freno di emergenza»).

    4.2.   Robustezza tecnica e sicurezza

    4.2.1.

    Il CESE chiede che siano introdotte norme di sicurezza a livello europeo e che sia messo a punto un robusto sistema di certificazione basato su procedure di prova che consentano alle imprese di verificare l’affidabilità dei loro sistemi di IA. Il CESE desidera anche sottolineare l’importanza della questione dell’assicurabilità dei sistemi di IA.

    4.2.2.

    La Commissione tratta solo marginalmente l’aspetto della previsione, della prevenzione e dell’interdizione dell’utilizzo doloso dell’IA e dell’apprendimento automatico, rischio segnalato da molti ricercatori (9). Sarebbe opportuno tenere conto delle raccomandazioni di questi ultimi, e in particolare di quelle riguardanti il duplice uso delle tecnologie in questione, che può riguardare la sicurezza digitale (espansione degli attacchi informatici, sfruttamento delle vulnerabilità degli esseri umani e della stessa IA, «data poisoning»), la sicurezza materiale (hacking dei sistemi autonomi, compresi i veicoli autonomi, i droni, le armi automatiche) o la sicurezza politica (raccolta di grandi quantità di dati personali, propaganda mirata, manipolazione video ecc.). Ricercatori, ingegneri e autorità pubbliche devono collaborare intensamente tra loro per prevenire questi rischi; gli esperti e le altre parti interessate, quali gli utenti e i consumatori, devono poter essere coinvolti nelle discussioni riguardanti tali sfide.

    4.3.   Riservatezza e governance dei dati

    4.3.1.

    La Commissione chiede che l’accesso ai dati sia «adeguatamente disciplinato e controllato» (10), ma il CESE ritiene che sia necessario andare al di là delle dichiarazioni generiche. Il grado di fiducia che i cittadini accorderanno all’IA sarà un fattore determinante per lo sviluppo dei relativi sistemi. Le questioni relative alla proprietà, al controllo e all’uso dei dati da parte delle imprese e delle organizzazioni rimangono in gran parte ancora in sospeso. Ad esempio, la quantità dei dati trasmessi dalle automobili ai costruttori e il tipo dei dati trasmessi destano non poche preoccupazioni (11). Nonostante l’obbligo, ai sensi dell’RGPD, di progettare gli «oggetti connessi» rispettando il principio della privacy by design (tutela della riservatezza fin dalla concezione dell’oggetto), si deve constatare che, al riguardo, il consumatore dispone solo di pochissime informazioni, quando non ne è addirittura del tutto privo, e non dispone di alcuno strumento di controllo su tali dati. Il CESE esorta pertanto la Commissione a riesaminare il regolamento generale sulla protezione dei dati e gli atti normativi ad esso correlati alla luce degli sviluppi tecnologici (12).

    4.4.   Trasparenza

    4.4.1.

    Il CESE ritiene che la spiegabilità dei processi decisionali algoritmici sia essenziale per la comprensione non tanto dei meccanismi in quanto tali, quanto piuttosto della logica alla base dei processi decisionali e del modo in cui tali processi sono influenzati dai sistemi di IA. Lo sviluppo di procedure di prova standard per i sistemi di apprendimento automatico costituisce tuttora una sfida tecnica per la quale l’UE dovrebbe fornire un sostegno mediante strumenti come il programma Orizzonte Europa.

    4.4.2.

    Il CESE concorda con la Commissione nel ritenere che i sistemi di IA debbano essere identificabili in quanto tali «così che gli utenti sappiano che stanno interagendo con un sistema di IA» (13), anche nel quadro del rapporto paziente/operatore sanitario e dei servizi professionali connessi alla salute e al benessere dei cittadini. Il CESE sottolinea inoltre che gli utenti o i consumatori devono poter essere informati anche in merito ai servizi prestati da esseri umani. Molti sistemi di IA comportano di fatto grandi quantità di lavoro umano, spesso nascoste agli utenti finali (14). Una situazione, questa, che pone la questione della mancanza di trasparenza nei confronti degli utenti e dei consumatori di servizi, ma anche quella costituita da una forma di sfruttamento del lavoro nascosto e non riconosciuto.

    4.4.3.

    Inoltre, il CESE ritiene che i consumatori debbano sempre essere informati del fatto che nei prodotti che acquistano siano integrati sistemi di IA e che debbano sempre essere in grado di accedere ai propri dati e di controllarli.

    4.5.   Diversità, non discriminazione ed equità

    4.5.1.

    I rischi in termini di discriminazione e pregiudizi sono presenti in alcune applicazioni dell’IA che consentono la profilazione dei cittadini, degli utenti e dei consumatori (ad esempio per l’assunzione di lavoratori, la locazione di beni immobili e taluni servizi alla persona). L’UE ha adottato un corpus legislativo in materia di parità di trattamento e non discriminazione (15), e i sistemi di IA devono rispettarlo. Tuttavia, anche tali norme devono essere adattate e, se necessario, rafforzate (anche sul piano del controllo di conformità) per far fronte alle nuove pratiche. Esiste un rischio reale che la profilazione algoritmica diventi un nuovo e potente strumento di discriminazione, e l’UE deve prevenire questo rischio.

    4.5.2.

    La direttiva sul razzismo (16) e la direttiva sulla parità di trattamento tra uomini e donne al di fuori del mondo del lavoro (17) prevedono la creazione di organismi specifici e competenti per la promozione della parità di genere. Il CESE chiede che tali organismi svolgano un ruolo attivo nel monitoraggio e nel controllo dei sistemi di IA contro i rischi di discriminazione diretta o indiretta.

    4.6.   Benessere sociale e ambientale

    4.6.1.

    La Commissione non fornisce indicazioni precise circa le modalità per interconnettere la transizione climatica e la trasformazione digitale, in particolare nell’uso dei sistemi di IA. È essenziale riflettere sul contributo che i sistemi di IA possono apportare alla riduzione delle emissioni di gas a effetto serra, in particolare nei settori dell’industria, dei trasporti, dell’energia, dell’edilizia e dell’agricoltura.

    4.6.2.

    La Commissione sottolinea che i sistemi di IA possono essere utilizzati per rafforzare le competenze sociali, ma possono anche portare a un deterioramento delle stesse. Il CESE ritiene che l’UE debba acquisire una maggiore consapevolezza di determinate sfide sociali. Alcuni studi hanno dimostrato, ad esempio, che la progettazione di alcune applicazioni che incorporano sistemi di IA è concepita per mantenere gli utenti di servizi online connessi il più a lungo possibile (reti sociali, giochi, video ecc.). L’obiettivo è quello di raccogliere il maggior numero possibile di dati sul loro comportamento, e le strategie impiegate vanno da un continuo rinnovo delle raccomandazioni algoritmiche ai promemoria e alle notifiche, passando per i giochi ecc. Gli effetti sui minori degli eccessi della connessione e della sollecitazione hanno formato oggetto di studi specifici (18), dai quali sono emersi fenomeni quali l’aumento dell’ansia e dell’aggressività sociale, la privazione del sonno e conseguenze negative per l’apprendimento, le relazioni sociali, la salute e il benessere. Per costruire un’IA degna di fiducia, l’UE deve tenere conto di tali effetti e prevenirli.

    4.6.3.

    Infine, uno dei fattori del benessere sociale è legato al senso di sicurezza sul lavoro, che gli effetti della digitalizzazione possono ridurre, diventando quindi fonte di stress (19). È pertanto opportuno prevedere strategie per anticipare i cambiamenti (prima che sopravvengano eventuali ristrutturazioni) e per garantire la formazione permanente di tutti i lavoratori. Ciò implica necessariamente, all’interno delle imprese, un dialogo sociale di qualità tra i datori di lavoro e i rappresentanti dei lavoratori, che consenta in particolare una diffusione inclusiva delle nuove tecnologie, specialmente l’IA e la robotica. Al fine di rafforzare la fiducia tra i dirigenti e i lavoratori, i sistemi di IA relativi alla gestione, alle valutazioni e al monitoraggio dei lavoratori devono essere spiegabili, i loro parametri noti e il loro funzionamento trasparente.

    4.7.   Accountability

    4.7.1.

    Le decisioni adottate dai sistemi di apprendistato automatico non sono semplici da spiegare e vengono perdipiù regolarmente aggiornate. Il CESE ritiene che il controllo dei sistemi di IA possa non essere sufficiente per definire le responsabilità e ispirare fiducia. Raccomanda pertanto di definire delle regole per l’attribuzione della responsabilità di eventuali inadempienze ai soggetti di diritto: le persone fisiche o giuridiche. Il CESE raccomanda inoltre di basarsi più su imprese o professionisti affidabili che sugli algoritmi, e propone di mettere a punto, per le imprese che rispettano le norme, un «certificato europeo di impresa di fiducia per l’IA» basato, tra l’altro, sull’elenco di valutazione proposto dal GAL.

    4.7.2.

    La direttiva sulla responsabilità per danno da prodotti difettosi (20) stabilisce per i produttori europei il principio della responsabilità oggettiva: se un prodotto che presenta un difetto causa danni a un consumatore, il produttore può essere ritenuto responsabile anche in assenza di colpa o di negligenza. La concezione, la diffusione e l’impiego sempre più diffusi dei sistemi di IA impongono all’UE di adottare norme in materia di responsabilità adeguate alle situazioni in cui i prodotti a contenuto digitale e i servizi proposti ai consumatori possono risultare pericolosi e nocivi. I consumatori devono poter avere accesso alla giustizia in caso di danni causati da un sistema di IA.

    5.   Necessità di una regolamentazione al di là dell’Europa

    5.1.

    In un mondo globale, la regolamentazione dell’IA deve andare oltre le frontiere dell’Europa. L’Europa dovrebbe promuovere un ampio accordo sull’IA in seno al G7 e al G20 e proseguire i dialoghi bilaterali in modo che la maggior parte dei paesi possa partecipare ai processi di normazione dell’IA e verificarne periodicamente la pertinenza.

    Bruxelles, 30 ottobre 2019

    Il presidente

    del Comitato economico e sociale europeo

    Luca JAHIER


    (1)  GU C 440 del 6.12.2018, pag. 1.

    (2)  GU C 288 del 31.8.2017, pag. 1 e GU C 440 del 6.12.2018, pag. 1.

    (3)  https://osha.europa.eu/fr/emerging-risks.

    (4)  Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati) (GU L 119 del 4.5.2016, pag. 1).

    (5)  COM(2019) 168 final.

    (6)  COM(2019) 168 final, pag. 5.

    (7)  Cfr. in particolare OSH and the future of work: benefits and risks of artificial intelligence tools in workplaces («La SSL e il futuro del lavoro: benefici e rischi degli strumenti di IA sul luogo di lavoro»)

    (8)  ISO/TS 15066, 2016.

    (9)  Cfr. la relazione The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation («L’utilizzo doloso dell’intelligenza artificiale: previsione, prevenzione e attenuazione»), febbraio 2018.

    (10)  COM(2019) 168 final, pag. 6.

    (11)  Your car knows when you gain weight («Se ingrassi, la tua automobile lo sa»), The New York Times (edizione internazionale), 22.5.2019.

    (12)  GU C 190 del 5.6.2019, pag. 17.

    (13)  COM(2019) 168 final, pag. 6.

    (14)  Cfr. ad esempio: A white-collar sweatshop: Google Assistant contractors allege wage theft («Impiegati sfruttati: i collaboratori esterni di Google Assistant accusano»), The Guardian, 29.5.2019, e Bot technology impressive, except when it’s not the bot («La tecnologia dei bot è impressionante, tranne quando non è un bot»), The New York Times (International Edition), 24.5.2019.

    (15)  GU L 180 del 19.7.2000, pag. 22, GU L 303 del 2.12.2000, pag. 16, GU L 373 del 21.12.2004, pag. 37 e GU L 204 del 26.7.2006, pag. 23.

    (16)  Direttiva 2000/43/CE del Consiglio, del 29 giugno 2000, che attua il principio della parità di trattamento fra le persone indipendentemente dalla razza e dall'origine etnica (GU L 180 del 19.7.2000, pag. 22).

    (17)  Direttiva 2004/113/CE del Consiglio, del 13 dicembre 2004, che attua il principio della parità di trattamento tra uomini e donne per quanto riguarda l'accesso a beni e servizi e la loro fornitura (GU L 373 del 21.12.2004, pag. 37).

    (18)  Cfr. in particolare Kidron, Evans e Afia, Disrupted Childhood – The COST of Persuasive Design («Un’infanzia perturbata: il costo del persuasive design»), 5Rights Foundation, 2018.

    (19)  Relazione del GAL sull’impatto della trasformazione digitale sui mercati del lavoro dell’UE, 2019.

    (20)  Direttiva 85/374/CEE del Consiglio, del 25 luglio 1985, relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati Membri in materia di responsabilità per danno da prodotti difettosi (GU L 210 del 7.8.1985, pag. 29).


    Top