6.10.2021   

IT

Gazzetta ufficiale dell’Unione europea

C 404/63


P9_TA(2020)0275

Quadro relativo agli aspetti etici dell'intelligenza artificiale, della robotica e delle tecnologie correlate

Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell'intelligenza artificiale, della robotica e delle tecnologie correlate (2020/2012(INL))

(2021/C 404/04)

Il Parlamento europeo,

visto l'articolo 225 del trattato sul funzionamento dell'Unione europea,

visto l'articolo 114 del trattato sul funzionamento dell'Unione europea,

vista la Carta dei diritti fondamentali dell'Unione europea,

visto il regolamento (UE) 2018/1488 del Consiglio, del 28 settembre 2018, che istituisce l'impresa comune per il calcolo ad alte prestazioni europeo (1),

vista la direttiva 2000/43/CE del Consiglio, del 29 giugno 2000, che attua il principio della parità di trattamento fra le persone indipendentemente dalla razza e dall'origine etnica (2) (direttiva sull'uguaglianza razziale),

vista la direttiva 2000/78/CE del Consiglio, del 27 novembre 2000, che stabilisce un quadro generale per la parità di trattamento in materia di occupazione e di condizioni di lavoro (3) (direttiva sulla parità di trattamento in materia di occupazione),

visti il regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (4) (regolamento generale sulla protezione dei dati) (RGPD), e la direttiva (UE) 2016/680 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, nonché alla libera circolazione di tali dati e che abroga la decisione quadro 2008/977/GAI del Consiglio (5),

visto l'accordo interistituzionale «Legiferare meglio» del 13 aprile 2016 (6),

vista la proposta di regolamento del Parlamento europeo e del Consiglio del 6 giugno 2018 che istituisce il programma Europa digitale per il periodo 2021-2027 (COM(2018)0434),

vista la comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni, dell'11 dicembre 2019, intitolata «Il Green Deal europeo» (COM(2019)0640),

vista la comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni del 19 febbraio 2020 dal titolo «Intelligenza artificiale — Un approccio europeo all'eccellenza e alla fiducia» (COM(2020)0065),

vista la comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni del 19 febbraio 2020 dal titolo «Una strategia europea per i dati» (COM(2020)0066),

vista la comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni del 19 febbraio 2020 dal titolo «Plasmare il futuro digitale dell'Europa» (COM(2020)0067),

viste le conclusioni del Consiglio dell'Unione europea sul tema «Plasmare il futuro digitale dell'Europa» del giugno 2020,

vista la sua risoluzione del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (7),

vista la sua risoluzione del 1o giugno 2017 sulla digitalizzazione dell'industria europea (8),

vista la sua risoluzione del 12 settembre 2018 sui sistemi d'arma autonomi (9),

vista la sua risoluzione dell'11 settembre 2018 sull'uguaglianza linguistica nell'era digitale (10),

vista la sua risoluzione del 12 febbraio 2019 su una politica industriale europea globale in materia di robotica e intelligenza artificiale (11),

vista la relazione sugli orientamenti etici per un'intelligenza artificiale affidabile pubblicata l'8 aprile 2019 dal gruppo di esperti ad alto livello sull'intelligenza artificiale istituito dalla Commissione,

visto lo studio sulla valutazione del valore aggiunto europeo realizzato del Servizio europeo di ricerca parlamentare, dal titolo «European framework on ethical aspects of artificial intelligence, robotics and related technologies: European Added Value Assessment» (Quadro europeo sugli aspetti etici dell'intelligenza artificiale, la robotica e le tecnologie connesse: valutazione del valore aggiunto europeo) (12),

visti i briefing e gli studi elaborati su richiesta del Comitato per il futuro della scienza e della tecnologia (STOA) e diretti dall'unità Prospettiva scientifica del Servizio Ricerca del Parlamento europeo, in particolare quelli intitolati «What if algorithms could abide by ethical principles?», «Artificial Intelligence ante portas: Legal & ethical reflections», «A governance framework for algorithmic accountability and transparency», «Should we fear artificial intelligence?» e «The ethics of artificial intelligence: Issues and initiatives»,

visti la Convenzione quadro del Consiglio d'Europa per la protezione delle minoranze nazionali, il protocollo n. 12 della Convenzione per la salvaguardia dei diritti dell'uomo e delle libertà fondamentali e la Carta europea delle lingue regionali e minoritarie,

vista la raccomandazione del Consiglio dell'OCSE sull'intelligenza artificiale, adottata il 22 maggio 2019,

visti gli articoli 47 e 54 del suo regolamento,

visti i pareri della commissione per gli affari esteri, della commissione per il mercato interno e la protezione dei consumatori, della commissione per i trasporti e il turismo, della commissione per le libertà civili, la giustizia e gli affari interni, della commissione per l'occupazione e gli affari sociali, della commissione per l'ambiente, la sanità pubblica e la sicurezza alimentare e della commissione per la cultura e l'istruzione,

vista la relazione della commissione giuridica (A9-0186/2020),

Introduzione

A.

considerando che lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale (anche nota come «IA»), della robotica e delle tecnologie correlate sono svolti dagli esseri umani e che le loro scelte determinano la misura in cui tali tecnologie possono offrire benefici alla società;

B.

considerando che l'intelligenza artificiale, la robotica e le tecnologie correlate che hanno il potenziale di generare opportunità per le imprese e benefici per i cittadini e che possono avere un impatto diretto su tutti gli aspetti delle nostre società, inclusi i diritti fondamentali e i principi e i valori sociali ed economici, nonché un'influenza duratura su tutti i settori di attività, sono oggetto di una promozione e uno sviluppo molto rapidi;

C.

considerando che l'intelligenza artificiale, la robotica e le tecnologie correlate porteranno cambiamenti sostanziali al mercato del lavoro e sul posto di lavoro; che esse possono potenzialmente sostituire i lavoratori che svolgono attività ripetitive, agevolare i sistemi di lavoro collaborativi uomo-macchina, aumentare la competitività e la prosperità e creare nuove opportunità di lavoro per i lavoratori qualificati, ponendo nel contempo una seria sfida in termini di riorganizzazione della forza lavoro;

D.

considerando che lo sviluppo dell'intelligenza artificiale, della robotica e delle tecnologie correlate può altresì contribuire al conseguimento degli obiettivi di sostenibilità del Green Deal europeo in molti settori diversi; che le tecnologie digitali possono accrescere l'impatto delle politiche in termini di tutela dell'ambiente; considerando che esse possono anche contribuire a ridurre la congestione del traffico e le emissioni di gas a effetto serra e di inquinanti atmosferici;

E.

considerando che in settori come i trasporti pubblici, i sistemi di trasporto intelligente basati sull'IA possono essere utilizzati per ridurre al minimo le code, consentire alle persone con disabilità di essere più indipendenti e aumentare l'efficienza energetica, intensificando, in tal modo, gli sforzi di decarbonizzazione e riducendo l'impronta ambientale;

F.

considerando che tali tecnologie offrono nuove opportunità commerciali che possono contribuire alla ripresa dell'industria dell'Unione dopo l'attuale crisi sanitaria ed economica se ne viene fatto maggiore uso, per esempio nel settore dei trasporti; che le suddette opportunità possono creare nuovi posti di lavoro, dato che la diffusione di tali tecnologie ha il potenziale per aumentare i livelli di produttività delle imprese e per contribuire a miglioramenti dell'efficienza; che i programmi di innovazione in tale ambito possono consentire ai raggruppamenti regionali di prosperare;

G.

considerando che l'Unione e i suoi Stati membri hanno la particolare responsabilità di sfruttare, promuovere e rafforzare il valore aggiunto dell'intelligenza artificiale e di garantire che le tecnologie di IA siano sicure e contribuiscano al benessere e all'interesse generale dei loro cittadini, dato che possono apportare un enorme contributo al raggiungimento dell'obiettivo comune di migliorare la vita dei cittadini e promuovere la prosperità all'interno dell'Unione, contribuendo allo sviluppo di migliori strategie e all'innovazione in una serie di aree e di settori; che, al fine di sfruttare appieno il potenziale dell'intelligenza artificiale e rendere gli utenti consapevoli dei benefici e delle sfide che le tecnologie di IA comportano, è necessario includere l'IA o l'alfabetizzazione digitale nell'ambito dell'istruzione e della formazione, anche in termini di promozione dell'inclusione digitale, e condurre campagne informative a livello dell'Unione che forniscano una rappresentazione accurata di tutti gli aspetti dello sviluppo dell'IA;

H.

considerando che un quadro normativo comune dell'Unione relativo allo sviluppo, alla diffusione e all'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate («quadro normativo in materia di IA») dovrebbe consentire ai cittadini di condividere i vantaggi derivanti dalle loro potenzialità, proteggendoli nel contempo dai rischi potenziali di tali tecnologie e promuovendo l'affidabilità di tali tecnologie nell'Unione e altrove; che tale quadro dovrebbe basarsi sul diritto e i valori dell'Unione ed essere guidato dai principi di trasparenza, spiegabilità, equità, rendicontabilità e responsabilità;

I.

considerando che tale quadro normativo è di fondamentale importanza per evitare la frammentazione del mercato interno, derivante da legislazioni nazionali differenti, e contribuirà a promuovere investimenti tanto necessari, a sviluppare l'infrastruttura dei dati e a sostenere la ricerca; che esso dovrebbe consistere di obblighi giuridici e principi etici comuni, come stabilito nella proposta di regolamento figurante in allegato alla presente risoluzione; che esso andrebbe definito conformemente agli orientamenti per legiferare meglio;

J.

considerando che l'Unione dispone di un quadro giuridico rigoroso volto ad assicurare, tra l'altro, la protezione dei dati personali e della vita privata e la non discriminazione e a promuovere la parità di genere, la tutela dell'ambiente e i diritti dei consumatori; considerando che tale quadro giuridico composto da un ampio corpus di norme orizzontali e settoriali, comprese le norme vigenti sulla sicurezza dei prodotti e la responsabilità, continuerà ad applicarsi in relazione all'intelligenza artificiale, alla robotica e alle tecnologie correlate, sebbene possano essere necessari alcuni adeguamenti di specifici strumenti giuridici per tenere conto della trasformazione digitale e affrontare le nuove sfide poste dall'utilizzo dell'intelligenza artificiale;

K.

considerando che vi è la preoccupazione che l'attuale quadro giuridico dell'Unione, compresi il diritto dei consumatori e l'acquis in ambito sociale e occupazionale, la normativa sulla protezione dei dati, sulla sicurezza dei prodotti e sulla vigilanza del mercato e le norme antidiscriminazione, possa non essere più idoneo ad affrontare in maniera efficace i rischi posti dall'intelligenza artificiale, dalla robotica e dalle tecnologie correlate;

L.

considerando che, oltre ad adeguamenti della normativa vigente, le questioni giuridiche ed etiche connesse alle tecnologie di IA dovrebbero essere affrontate attraverso un quadro normativo del diritto dell'Unione efficace, completo e adeguato alle esigenze future, che rispecchi i principi e i valori dell'Unione sanciti dai trattati e dalla Carta dei diritti fondamentali dell'Unione europea («Carta»), che dovrebbe evitare una sovraregolamentazione andando semplicemente a colmare le lacune giuridiche esistenti, e accrescere la certezza giuridica sia per le imprese che per i cittadini, prevedendo misure obbligatorie volte a evitare l'attuazione di pratiche che indubbiamente comprometterebbero i diritti fondamentali;

M.

considerando che qualsiasi nuovo quadro normativo deve tenere conto di tutti gli interessi in gioco; che una valutazione d'impatto che esamini attentamente le conseguenze esercitate da qualsiasi nuovo quadro normativo su tutti i soggetti dovrebbe essere un prerequisito di qualsiasi ulteriore misura legislativa; che il ruolo cruciale delle piccole e medie imprese (PMI) e delle start-up in particolare nell'economia dell'Unione giustifica un approccio strettamente proporzionato per consentire loro di sviluppare e innovare;

N.

considerando che l'intelligenza artificiale, la robotica e le tecnologie correlate possono avere gravi implicazioni per l'integrità materiale e immateriale degli individui, dei gruppi e della società nel suo complesso e che potenziali danni individuali e collettivi devono essere affrontati con risposte legislative;

O.

che, al fine di rispettare il quadro normativo dell'Unione in materia di IA, potrebbe essere necessario adottare norme specifiche per il settore dei trasporti dell'Unione;

P.

considerando che le tecnologie di IA rivestono un'importanza strategica per il settore dei trasporti, anche perché aumentano la sicurezza e l'accessibilità di tutti i modi di trasporto e creano nuove opportunità di lavoro e modelli imprenditoriali più sostenibili; che un approccio dell'Unione allo sviluppo dell'intelligenza artificiale, della robotica e delle tecnologie correlate nei trasporti ha il potenziale per aumentare la competitività globale e l'autonomia strategica dell'economia dell'Unione;

Q.

considerando che l'errore umano è ancora presente in circa il 95 % di tutti gli incidenti stradali nell'UE; che l'Unione mirava a ridurre del 50 % rispetto al 2010 il numero annuale di morti per incidenti stradali entro il 2020 ma, alla luce della mancanza di progressi, ha rinnovato gli sforzi nel nuovo quadro strategico dell'UE per la sicurezza stradale 2021-2030 — prossime tappe verso l'obiettivo «zero vittime»; che, a tale riguardo, l'IA, l'automazione e altre nuove tecnologie hanno un grande potenziale e sono di vitale importanza per aumentare la sicurezza stradale attraverso la riduzione delle possibilità di errore umano;

R.

considerando che il quadro normativo dell'Unione in materia di IA dovrebbe altresì riflettere la necessità di garantire il rispetto dei diritti dei lavoratori; che si dovrebbe tenere conto dell'accordo quadro delle parti sociali europee sulla digitalizzazione del giugno 2020;

S.

considerando che l'ambito di applicazione del quadro normativo dell'Unione in materia di IA dovrebbe essere adeguato, proporzionato e attentamente valutato; che, pur dovendo includere un'ampia gamma di tecnologie e relativi componenti, compresi algoritmi, software e dati utilizzati o prodotti da tali tecnologie, è necessario un approccio mirato basato sul rischio elevato per evitare di ostacolare le future innovazioni e di creare oneri non necessari, specie per le PMI; che la diversità delle applicazioni consentite dall'intelligenza artificiale, dalla robotica e dalle tecnologie correlate rende più difficile trovare una soluzione unica che sia adatta all'intero spettro di rischi;

T.

considerando che l'analisi dei dati e l'IA influenzano sempre di più le informazioni rese accessibili ai cittadini; che tali tecnologie, se utilizzate impropriamente, possono mettere in pericolo i diritti fondamentali alla libertà di espressione e all'informazione, nonché la libertà e il pluralismo dei mezzi di comunicazione;

U.

considerando che l'ambito di applicazione geografico del quadro normativo dell'Unione in materia di IA dovrebbe vertere su tutti gli aspetti dell'intelligenza artificiale, della robotica e delle tecnologie correlate sviluppate, diffuse o utilizzate nell'Unione, anche nei casi in cui una parte delle tecnologie possa essere situata al di fuori dell'Unione o non avere una sede specifica;

V.

considerando che il quadro normativo dell'Unione in materia di IA dovrebbe contemplare tutte le fasi pertinenti, ossia lo sviluppo, la diffusione e l'utilizzo delle tecnologie e dei loro componenti, nelle quali è necessario tenere in debita considerazione gli obblighi giuridici e i principi etici pertinenti, e dovrebbe stabilire le condizioni atte a garantire che gli sviluppatori, gli operatori e gli utenti rispettino pienamente tali obblighi e principi;

W.

considerando che un approccio armonizzato ai principi etici relativi all'intelligenza artificiale, alla robotica e alle tecnologie correlate presuppone che nell'Unione vi sia un'interpretazione comune dei concetti alla base di tali tecnologie come le nozioni di algoritmo, software, dato o riconoscimento biometrico;

X.

considerando che l'intervento a livello di Unione è giustificato dalla necessità di evitare una frammentazione normativa o una serie di disposizioni normative nazionali senza alcun denominatore comune, al fine di garantire un'applicazione uniforme di principi etici comuni sanciti dal diritto nel quadro dello sviluppo, della diffusione e dell'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate ad alto rischio; che sono necessarie norme chiare laddove sussistono rischi significativi;

Y.

considerando che l'efficacia di tali principi etici comuni è subordinata al fatto che essi siano sanciti dal diritto e all'individuazione dei soggetti responsabili di garantire, valutare e monitorare la conformità;

Z.

considerando che una guida etica, quali i principi adottati dal gruppo di esperti ad alto livello sull'intelligenza artificiale, è un buon punto di partenza ma non può garantire che gli sviluppatori, gli operatori e gli utenti agiscano in modo equo e assicurino una protezione efficace degli individui; che tale guida è tanto più pertinente per quanto riguarda l'intelligenza artificiale, la robotica e le tecnologie correlate ad alto rischio;

AA.

considerando che ciascuno Stato membro dovrebbe designare un'autorità nazionale di controllo incaricata di garantire, valutare e monitorare la conformità dello sviluppo, della diffusione e dell'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate ad alto rischio con il quadro normativo dell'Unione in materia di IA, nonché di consentire il dibattito e gli scambi di opinioni in stretta cooperazione con le parti interessate e la società civile; che le autorità nazionali di controllo dovrebbero cooperare tra loro;

AB.

considerando che, al fine di garantire un approccio armonizzato in tutta l'Unione e il funzionamento ottimale del mercato unico digitale, un coordinamento a livello di Unione assicurato dalla Commissione e/o da pertinenti istituzioni, organi e organismi dell'Unione che potrebbero essere designati in tale contesto, dovrebbe essere valutato per quanto riguarda le nuove opportunità e sfide, in particolare quelle di natura transfrontaliera, che nascono dagli sviluppi tecnologici in corso; che, a tal fine, alla Commissione dovrebbe essere affidato il compito di trovare una soluzione adeguata per strutturare tale coordinamento a livello dell'Unione;

Intelligenza artificiale antropocentrica e antropogenica

1.

ritiene che, fatta salva la legislazione settoriale, un quadro normativo efficace e armonizzato basato sul diritto dell'Unione, sulla Carta e sul diritto internazionale in materia di diritti umani, applicabile in particolare alle tecnologie ad alto rischio, sia necessario al fine di stabilire norme uniformi in tutta l'Unione e proteggere efficacemente i valori dell'Unione;

2.

ritiene che qualsiasi nuovo quadro normativo in materia di IA che preveda obblighi giuridici e principi etici per lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate dovrebbe rispettare pienamente la Carta e rispettare di conseguenza la dignità umana, l'autonomia e l'autodeterminazione dell'individuo, impedire i danni, promuovere l'equità, l'inclusione e la trasparenza, eliminare le distorsioni e la discriminazione, anche per quanto riguarda le minoranze, e rispettare i principi della limitazione degli effetti esterni negativi nelle tecnologie utilizzate, della spiegabilità delle tecnologie e la garanzia che le tecnologie siano al servizio delle persone e non siano intese a sostituirle o a decidere per loro, con il fine ultimo di accrescere il benessere umano di ognuno;

3.

sottolinea l'asimmetria tra coloro che impiegano le tecnologie di IA e coloro che interagiscono con tali tecnologie e sono soggetti ad esse; pone in risalto, in tale contesto, che la fiducia dei cittadini nell'IA può essere costruita solo in un quadro normativo di «etica come impostazione predefinita e fin dalla progettazione», che garantisca che qualsiasi IA messa in funzione rispetti pienamente i trattati, la Carta e il diritto derivato dell'UE; ritiene che tale approccio debba essere in linea con il principio di precauzione che guida la legislazione dell'UE e che debba essere al centro di qualsiasi quadro normativo in materia di IA; auspica, al riguardo, un modello di governance chiaro e coerente che consenta alle imprese e agli innovatori di sviluppare ulteriormente l'intelligenza artificiale, la robotica e le tecnologie correlate;

4.

ritiene che qualsiasi misura legislativa riguardante l'intelligenza artificiale, la robotica e le tecnologie correlate dovrebbe essere conforme ai principi di necessità e proporzionalità;

5.

ritiene che un simile approccio consentirà alle imprese di immettere sul mercato prodotti innovativi e creare nuove opportunità, garantendo nel contempo la protezione dei valori dell'Unione portando allo sviluppo di sistemi di IA che integrino i principi etici dell'Unione fin dalla progettazione; ritiene che tale quadro normativo incentrato sui valori costituirebbe un valore aggiunto in grado di assicurare all'Unione un vantaggio competitivo unico e fornirebbe un contributo significativo al benessere e alla prosperità dei cittadini e delle imprese dell'Unione, rafforzando il mercato interno europeo; sottolinea che tale quadro normativo per l'IA rappresenta inoltre un valore aggiunto per promuovere l'innovazione sul mercato interno; ritiene che, per esempio nel settore dei trasporti, tale approccio offra alle imprese dell'Unione l'opportunità di diventare leader a livello mondiale in questo settore;

6.

nota che il quadro giuridico dell'Unione dovrebbe applicarsi all'intelligenza artificiale, alla robotica e alle tecnologie correlate, inclusi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie;

7.

prende atto che le opportunità basate sull'intelligenza artificiale, la robotica e le tecnologie correlate si basano sui Big Data e che è necessaria una massa critica di dati per addestrare gli algoritmi e perfezionare i risultati; si compiace, a tale proposito, della proposta della Commissione di creare uno spazio comune dei dati nell'Unione per rafforzare lo scambio di dati e sostenere la ricerca, nel pieno rispetto delle norme europee in materia di protezione dei dati;

8.

ritiene che il quadro giuridico dell'Unione in vigore, in particolare in materia di tutela della vita privata e protezione dei dati personali, debba essere pienamente applicato all'IA, alla robotica e alle tecnologie correlate e debba essere rivisto e monitorato regolarmente e aggiornato ove necessario, al fine di affrontare efficacemente i rischi determinati da tali tecnologie e, in tal senso, potrebbe trarre vantaggio dall'integrazione di solidi principi guida di natura etica; pone in evidenza che, laddove sia prematuro adottare atti giuridici, sarebbe opportuno istituire un quadro giuridico non vincolante;

9.

auspica che la Commissione integri un solido approccio etico nella prossima proposta legislativa richiesta in allegato alla presente risoluzione, quale seguito del Libro bianco sull'intelligenza artificiale, che includa la sicurezza, la responsabilità e i diritti fondamentali, che massimizzi le opportunità e riduca al minimo i rischi legati alle tecnologie di IA; si attende che la proposta legislativa richiesta includa soluzioni politiche per i principali rischi riconosciuti dell'intelligenza artificiale tra cui, tra l'altro, la raccolta e l'uso etici dei Big Data, la questione della trasparenza algoritmica e delle distorsioni degli algoritmi; esorta la Commissione a elaborare criteri e indicatori per classificare le tecnologie dell'IA al fine di promuovere la trasparenza, la spiegabilità e la responsabilità, nonché di incentivare ulteriori precauzioni da parte degli sviluppatori; sottolinea la necessità di investire nell'integrazione di discipline non tecniche negli studi e le ricerche in materia di IA tenendo conto del contesto sociale;

10.

ritiene che l'intelligenza artificiale, la robotica e le tecnologie correlate debbano essere commisurate alle esigenze umane, in linea con il principio secondo cui il loro sviluppo, la loro diffusione e il loro utilizzo dovrebbero sempre essere al servizio degli esseri umani e mai viceversa, e dovrebbero mirare a migliorare il benessere e la libertà individuale, nonché a preservare la pace, prevenire i conflitti e rafforzare la sicurezza internazionale, massimizzando nel contempo i benefici offerti e prevenendone e riducendone i rischi;

11.

dichiara che lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate ad alto rischio, da parte degli esseri umani ma non solo, dovrebbero essere sempre guidati da principi etici e progettati in modo tale da rispettare e consentire l'intervento umano e la sorveglianza democratica, e prevedere la possibilità di ripristinare il controllo umano, quando necessario, attuando misure di controllo adeguate;

Valutazione del rischio

12.

sottolinea che qualsiasi regolamentazione futura dovrebbe seguire un approccio basato sui rischi e orientato al futuro, onde regolamentare l'intelligenza artificiale, la robotica e le tecnologie correlate, tra cui norme tecnologicamente neutre trasversali a tutti i settori e, se del caso, norme settoriali specifiche; osserva che, al fine di garantire un'attuazione uniforme del sistema di valutazione del rischio e il rispetto dei relativi obblighi giuridici per garantire parità di condizioni tra gli Stati membri ed evitare la frammentazione del mercato interno, è necessario un elenco esaustivo e cumulativo di settori ad alto rischio e di usi o scopi ad alto rischio; sottolinea che tale elenco deve essere oggetto di una rivalutazione periodica e osserva che, data la natura evolutiva di tali tecnologie, il modo in cui viene effettuata la loro valutazione del rischio potrebbe dover essere rivalutato in futuro;

13.

ritiene che per stabilire se l'intelligenza artificiale, la robotica e le tecnologie correlate debbano essere considerate ad alto rischio e quindi soggette al rispetto obbligatorio degli obblighi giuridici e dei principi etici come stabilito nel quadro normativo in materia di IA, ci si dovrebbe sempre basare su una valutazione ex ante imparziale, regolamentata ed esterna fondata su criteri concreti e definiti;

14.

ritiene, a tale proposito, che l'intelligenza artificiale, la robotica e le tecnologie correlate dovrebbero essere considerate ad alto rischio quando il loro sviluppo, la loro diffusione e il loro utilizzo comportano un rischio significativo di causare lesioni o danni agli individui o alla società, in violazione delle norme in materia di diritti fondamentali e sicurezza stabilite dal diritto dell'Unione; ritiene che, al fine di valutare se le tecnologie di IA comportino tale rischio, occorra tenere conto del settore in cui sono sviluppate, diffuse o utilizzate, del loro uso o scopo specifico e della gravità della lesione o del danno che si potrebbe verificare; il primo e il secondo criterio, ossia il settore o l'uso o scopo specifico dovrebbero essere considerati cumulativamente;

15.

sottolinea che la valutazione del rischio di tali tecnologie dovrebbe essere effettuata sulla base di un elenco esaustivo e cumulativo di settori ad alto rischio e usi e scopi ad alto rischio; è fermamente convinto che vi debba essere coerenza all'interno dell'Unione per quanto riguarda la valutazione del rischio di tali tecnologie, in particolare quando sono valutate sia alla luce della loro conformità al quadro normativo in materia di IA, sia in conformità di qualsiasi altra normativa settoriale applicabile;

16.

ritiene che tale approccio basato sul rischio dovrebbe essere sviluppato in maniera tale da limitare il più possibile gli oneri amministrativi per le imprese, in particolare per le PMI, utilizzando gli strumenti esistenti; tali strumenti comprendono, ma non solo, l'elenco ai fini della valutazione d'impatto sulla protezione dei dati di cui al regolamento (UE) 2016/679;

Caratteristiche di sicurezza, trasparenza e responsabilità

17.

ricorda che il diritto all'informazione dei consumatori è sancito quale principio fondamentale dal diritto dell'Unione e sottolinea che esso dovrebbe essere pertanto attutato pienamente in relazione all'intelligenza artificiale, alla robotica e alle tecnologie correlate; ritiene che dovrebbe comprendere in particolare la trasparenza per quanto riguarda l'interazione con i sistemi di intelligenza artificiale, compresi i processi di automazione, e le loro modalità di funzionamento, le capacità, ad esempio il modo in cui le informazioni sono filtrate e presentate, la precisione e le limitazioni; reputa che tali informazioni dovrebbero essere fornite alle autorità nazionali di controllo e alle autorità nazionali per la tutela dei consumatori;

18.

sottolinea che la fiducia dei consumatori è essenziale per lo sviluppo e l'applicazione di tali tecnologie, che possono comportare rischi intrinseci quando si basano su algoritmi opachi e insiemi di dati che presentano distorsioni; ritiene che i consumatori dovrebbero avere il diritto di essere adeguatamente informati in maniera comprensibile, tempestiva, standardizzata, precisa e accessibile in merito all'esistenza, al ragionamento, al possibile risultato e all'impatto per i consumatori dei sistemi algoritmici, in merito a come contattare un essere umano dotato di potere decisionale e a come sia possibile controllare, contestare efficacemente e correggere le decisioni del sistema; sottolinea, a tale proposito, la necessità di prendere in considerazione e rispettare i principi di informazione e divulgazione su cui si fonda l'acquis relativo al diritto dei consumatori; ritiene necessario fornire informazioni dettagliate agli utenti finali in merito al funzionamento dei sistemi di trasporto e ai veicoli basati sull'IA;

19.

nota che è essenziale che gli algoritmi e gli insiemi di dati utilizzati o prodotti dall'intelligenza artificiale, dalla robotica e dalle tecnologie correlate siano spiegabili e, ove strettamente necessario e nel pieno rispetto della legislazione dell'Unione sulla protezione dei dati, la tutela della vita privata e i diritti di proprietà intellettuale e i segreti commerciali, siano accessibili alle autorità pubbliche quali le autorità nazionali di controllo e le autorità di vigilanza del mercato; osserva inoltre che, in linea con le più elevate norme settoriali applicabili, tale documentazione dovrebbe essere conservata da coloro che partecipano alle diverse fasi dello sviluppo di tecnologie ad alto rischio; prende atto della possibilità che le autorità di vigilanza del mercato possano godere di ulteriori prerogative al riguardo; sottolinea a tale proposito il ruolo di un'ingegneria inversa («reverse engineering») lecita; ritiene che potrebbe essere necessario un esame dell'attuale legislazione in materia di vigilanza del mercato per garantire che risponda eticamente allo sviluppo dell'intelligenza artificiale, della robotica e delle tecnologie correlate;

20.

Chiede l'obbligo per gli sviluppatori e gli operatori di tecnologie ad alto rischio di fornire alle autorità pubbliche, qualora una valutazione del rischio lo indichi, la documentazione pertinente sull'uso e la progettazione nonché le istruzioni di sicurezza, inclusi, ove strettamente necessario e nel pieno rispetto della legislazione dell'Unione in materia di protezione dei dati, vita privata, diritti di proprietà intellettuale e segreti commerciali, il codice sorgente, gli strumenti di sviluppo e i dati utilizzati dal sistema; nota che tale obbligo consentirebbe di valutare la loro conformità al diritto dell'Unione e ai principi etici e osserva, a tale proposito, l'esempio fornito dal deposito legale delle pubblicazioni di una biblioteca nazionale; rileva l'importante distinzione tra trasparenza degli algoritmi e trasparenza dell'uso degli algoritmi;

21.

osserva inoltre che, al fine di rispettare la dignità, l'autonomia e la sicurezza umana, occorre prestare la dovuta attenzione ai dispositivi medici salvavita e avanzati e alla necessità che autorità indipendenti designate mantengano i mezzi necessari per fornire servizi alle persone che utilizzano tali dispositivi, laddove lo sviluppatore o l'operatore originario non li fornisca più; ad esempio, tali servizi comprenderebbero la manutenzione, la riparazione e le migliorie, compresi gli aggiornamenti del software che ovviano a malfunzionamenti e vulnerabilità;

22.

rileva che l'intelligenza artificiale, la robotica e le tecnologie correlate ad alto rischio, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, a prescindere dal settore in cui sono sviluppati, diffusi e utilizzati, dovrebbero essere sviluppati fin dalla progettazione in modo sicuro, tracciabile, tecnicamente robusto, etico e giuridicamente vincolante ed essere soggetti a un controllo e una supervisione indipendenti; ritiene in particolare che tutti i soggetti coinvolti nello sviluppo e nelle catene di approvvigionamento dei prodotti e dei servizi di intelligenza artificiale dovrebbero essere giuridicamente responsabili e sottolinea la necessità di meccanismi volti a garantire la responsabilità e la rendicontabilità;

23.

sottolinea che la regolamentazione e gli orientamenti in materia di spiegabilità, verificabilità, tracciabilità e trasparenza nonché, ove richiesto da una valutazione del rischio e ove strettamente necessario e nel pieno rispetto del diritto dell'Unione, come quello in materia di protezione dei dati, vita privata, diritti di proprietà intellettuale e segreti commerciali, l'accesso da parte delle autorità pubbliche alla tecnologia, ai dati e ai sistemi informatici alla base di tali tecnologie, sono essenziali per garantire la fiducia dei cittadini in tali tecnologie, anche se il grado di spiegabilità è relativo alla complessità delle tecnologie; evidenzia che non sempre è possibile spiegare perché un modello ha portato a un particolare risultato o a una particolare decisione, ad esempio nel caso degli algoritmi «a scatola nera»; ritiene pertanto che il rispetto di tali principi sia un presupposto per garantire la responsabilità;

24.

ritiene che, quando interagiscono con un sistema che utilizza l'intelligenza artificiale in particolare per personalizzare un prodotto o un servizio in base all'utente, i cittadini, inclusi i consumatori, dovrebbero essere informati della possibilità di disattivare o limitare tale personalizzazione;

25.

osserva in tal senso che, per essere affidabili, l'intelligenza artificiale, la robotica e le tecnologie correlate devono essere solide e precise a livello tecnico;

26.

sottolinea l'importanza della protezione delle reti di IA e robotica interconnesse e la necessità di adottare misure rigorose per impedire le violazioni della sicurezza, le fughe di dati, la contaminazione dei dati, gli attacchi informatici e l'uso improprio dei dati personali e ritiene che ciò richiederà la collaborazione delle agenzie, gli organismi e le istituzioni competenti a livello nazionale e dell'Unione e la loro cooperazione con gli utenti finali di tali tecnologie; invita la Commissione e gli Stati membri a garantire che i valori dell'Unione e il rispetto dei diritti fondamentali siano osservati in ogni momento nell'ambito dello sviluppo e della diffusione della tecnologie di intelligenza artificiale, al fine di garantire la sicurezza e la resilienza delle infrastrutture digitali dell'Unione;

Non distorsione e non discriminazione

27.

ricorda che l'intelligenza artificiale, a seconda del modo in cui è sviluppata e utilizzata, può potenzialmente generare e aggravare distorsioni, tra cui distorsioni intrinseche dei dati di riferimento, e creare pertanto diverse forme di discriminazione automatizzata, compresa la discriminazione indiretta, riguardante in particolare gruppi di persone con caratteristiche simili; invita la Commissione e gli Stati membri ad adottare tutte le misure possibili per evitare le suddette distorsioni e garantire la piena tutela dei diritti fondamentali;

28.

nutre preoccupazione per i rischi di distorsione e discriminazione insiti nello sviluppo, nella diffusione e nell'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate ad alto rischio, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie; ricorda che, in qualsiasi circostanza, essi dovrebbero rispettare il diritto dell'Unione, la dignità e i diritti umani nonché l'autonomia e l'autodeterminazione dell'individuo e garantire la parità di trattamento e l'assenza di discriminazioni per tutti;

29.

sottolinea che le tecnologie di IA dovrebbero essere progettate per rispettare, servire e tutelare i valori dell'Unione e l'integrità fisica e mentale, promuovere la diversità culturale e linguistica dell'Unione e aiutare a soddisfare i bisogni essenziali; mette in risalto la necessità di evitare qualsiasi impiego che potrebbe comportare un'inammissibile coercizione diretta o indiretta, minacciare di compromettere l'autonomia psicologica e la salute mentale o portare a una sorveglianza ingiustificata, a inganni o a inammissibili manipolazioni;

30.

è fermamente convinto che i diritti umani fondamentali sanciti dalla Carta debbano essere rigorosamente rispettati al fine di assicurare che tali tecnologie emergenti non creino lacune in materia di protezione;

31.

sostiene che è necessario evitare che i software, gli algoritmi e i dati contengano distorsioni o creino discriminazioni che possano causare evidenti danni agli individui e alla società, incoraggiando l'elaborazione e la condivisione di strategie volte a contrastarle, ad esempio attraverso l'eliminazione delle distorsioni dagli insiemi di dati, ed elaborando norme che disciplinino il trattamento dei dati; ritiene che in tal modo i software, gli algoritmi e i dati possano svolgere un ruolo nel trasformare i dati in una risorsa per combattere le distorsioni e le discriminazioni in alcune situazioni, diventando una forza che favorisce la parità dei diritti e il cambiamento sociale positivo;

32.

ritiene che i valori etici di equità, precisione, riservatezza e trasparenza dovrebbero essere la base di tali tecnologie, il che implica in tale contesto che le loro operazioni dovrebbero essere tali da non generare risultati che presentano distorsioni;

33.

sottolinea l'importanza della qualità degli insiemi di dati utilizzati per l'intelligenza artificiale, la robotica e le tecnologie correlate a seconda del relativo contesto, segnatamente per quanto riguarda la rappresentatività dei dati di addestramento, nonché disposizioni concernenti l'eliminazione delle distorsioni degli insiemi di dati, gli algoritmi utilizzati e le norme in materia di dati e aggregazione; sottolinea che tali insiemi di dati dovrebbero essere verificabili dalle autorità nazionali di controllo ogni qualvolta esse siano chiamate a garantirne la conformità ai principi di cui sopra;

34.

sottolinea che, nel contesto della diffusa guerra della disinformazione, portata avanti in particolare da attori non europei, le tecnologie di IA potrebbero avere effetti negativi sul piano etico attraverso lo sfruttamento delle distorsioni nei dati e negli algoritmi o l'alterazione deliberata dei dati di addestramento da parte di un paese terzo, e potrebbero essere esposte a forme di manipolazione pericolose e dannose, in modi imprevedibili e con conseguenze incalcolabili; è quindi ancora più necessario che l'Unione continui a investire nella ricerca, nell'analisi, nell'innovazione e nel trasferimento transfrontaliero e intersettoriale delle conoscenze, al fine di sviluppare tecnologie di IA che siano chiaramente prive di qualsiasi genere di profilazione, distorsione e discriminazione e consentano di contribuire efficacemente alla lotta contro le notizie false e la disinformazione, rispettando nel contempo la riservatezza dei dati e il quadro giuridico europeo;

35.

ricorda l'importanza di garantire mezzi di ricorso efficaci per gli individui e invita gli Stati membri a mettere a disposizione procedure accessibili, a prezzi abbordabili, indipendenti ed efficaci e meccanismi di riesame per garantire un riesame umano imparziale di tutte le denunce di violazioni dei diritti dei cittadini, come i diritti dei consumatori o i diritti civili, mediante l'utilizzo di sistemi algoritmici, perpetrate da soggetti del settore pubblico o privato; sottolinea l'importanza del progetto di direttiva del Parlamento europeo e del Consiglio relativa alle azioni rappresentative a tutela degli interessi collettivi dei consumatori e che abroga la direttiva 2009/22/CE su cui è stato conseguito un accordo politico il 22 giugno 2020, per quanto riguarda casi futuri che contestino l'introduzione o l'uso in corso di un sistema di IA che potrebbe violare i diritti dei consumatori o intendano porre rimedio a una violazione dei diritti; chiede alla Commissione e agli Stati membri di garantire che le organizzazioni dei consumatori nazionali e dell'Unione dispongano di finanziamenti sufficienti per assistere i consumatori nell'esercizio del loro diritto a un ricorso nei casi in cui i loro diritti siano stati violati;

36.

ritiene pertanto che qualsiasi persona fisica o giuridica dovrebbe avere la possibilità di ricorrere contro una decisione presa a suo svantaggio da un sistema di intelligenza artificiale, robotica o tecnologie correlate in violazione del diritto dell'Unione o nazionale;

37.

reputa che, come primo punto di contatto in caso di presunta violazione del quadro normativo dell'Unione in tale contesto, i consumatori potrebbero altresì rivolgere alle autorità nazionali di controllo richieste di ricorso in vista di garantire un'applicazione efficace del quadro di cui sopra;

Responsabilità sociale ed equilibrio di genere

38.

sottolinea che l'intelligenza artificiale, la robotica e le tecnologie correlate devono essere improntate alla responsabilità sociale e devono contribuire a trovare soluzioni che tutelino e promuovano i diritti e i valori fondamentali della nostra società, in particolare la democrazia, lo Stato di diritto, la pluralità e l'indipendenza dei media, l'obiettività e la disponibilità delle informazioni, la salute, la prosperità economica, la parità di opportunità, i diritti sociali e dei lavoratori, la qualità dell'istruzione, la protezione dei minori, la diversità culturale e linguistica, l'uguaglianza di genere, l'alfabetizzazione digitale, l'innovazione e la creatività; ricorda la necessità di garantire che gli interessi di tutti i cittadini, inclusi coloro che sono emarginati o in situazioni vulnerabili, quali le persone con disabilità, siano tenuti nella dovuta considerazione e rappresentati;

39.

sottolinea l'importanza di raggiungere un livello elevato di alfabetizzazione digitale globale e di formare professionisti altamente qualificati in tale settore, nonché di garantire il riconoscimento reciproco di tali qualifiche in tutta l'Unione; sottolinea la necessità di disporre di gruppi diversificati di sviluppatori e ingegneri che operino a fianco dei principali attori sociali, al fine di evitare che distorsioni di genere e culturali siano inavvertitamente inserite negli algoritmi, sistemi e applicazioni di IA; sostiene la creazione di programmi educativi e attività di sensibilizzazione dell'opinione pubblica sull'impatto sociale, giuridico ed etico dell'intelligenza artificiale;

40.

sottolinea l'importanza fondamentale di garantire la libertà di pensiero e di espressione, assicurando in tal modo che tali tecnologie non promuovano l'incitamento all'odio o la violenza; ritiene pertanto che ostacolare o limitare la libertà di espressione esercitata attraverso mezzi digitali sia illegale in base ai principi fondamentali dell'Unione, a meno che l'esercizio di tale diritto fondamentale non comporti atti illeciti;

41.

sottolinea che l'intelligenza artificiale, la robotica e le tecnologie correlate possono contribuire a ridurre le disuguaglianze sociali e afferma che il modello europeo per il loro sviluppo deve basarsi sulla fiducia dei cittadini e sul rafforzamento della coesione sociale;

42.

sottolinea che la diffusione di qualsiasi sistema di intelligenza artificiale non dovrebbe limitare indebitamente l'accesso degli utenti a servizi pubblici quali la sicurezza sociale; invita pertanto la Commissione a valutare in che modo tale obiettivo possa essere conseguito;

43.

sottolinea l'importanza di attività di ricerca e sviluppo responsabili, volte a massimizzare appieno il potenziale dell'intelligenza artificiale, della robotica e delle tecnologie correlate per i cittadini e il bene pubblico; chiede la mobilitazione di risorse da parte dell'Unione e degli Stati membri per sviluppare e sostenere un'innovazione responsabile;

44.

sottolinea che le competenze tecnologiche saranno sempre più importanti e pertanto sarà necessario aggiornare continuamente l'offerta formativa, in particolare per le future generazioni, e favorire la riqualificazione professionale delle persone già sul mercato del lavoro; rileva, a tale proposito, che l'innovazione e la formazione dovranno essere promosse non solo nel settore privato ma anche in quello pubblico;

45.

insiste sul fatto che lo sviluppo, la diffusione e l'utilizzo di tali tecnologie non dovrebbero provocare alcun tipo di lesione o danno alle persone, alla società o all'ambiente e che, di conseguenza, gli sviluppatori, gli operatori e gli utenti di tali tecnologie dovrebbero rispondere di tali lesioni o danni arrecati, conformemente alle pertinenti norme dell'Unione e nazionali sulla responsabilità;

46.

invita gli Stati membri a valutare se le perdite di posti di lavoro derivanti dalla diffusione di tali tecnologie dovrebbero portare a politiche pubbliche adeguate quali la riduzione dell'orario di lavoro;

47.

sostiene che un approccio alla progettazione basato sui valori e i principi etici dell'Unione è assolutamente necessario per creare le condizioni per un'ampia accettazione sociale dell'intelligenza artificiale, della robotica e delle tecnologie correlate; ritiene che tale approccio, volto allo sviluppo di un'intelligenza artificiale affidabile, eticamente responsabile e tecnicamente robusta sia un fattore importante per una mobilità intelligente e sostenibile che sia sicura e accessibile;

48.

richiama l'attenzione sull'elevato valore aggiunto apportato dai veicoli autonomi per le persone con mobilità ridotta, in quanto tali veicoli consentono loro di utilizzare più efficacemente il trasporto stradale individuale, facilitando così la loro vita quotidiana; sottolinea l'importanza dell'accessibilità, in particolare nella fase di progettazione dei sistemi MaaS (Mobility as a Service, mobilità come servizio);

49.

invita la Commissione a sostenere ulteriormente lo sviluppo di sistemi di IA affidabili al fine di rendere i trasporti più sicuri, efficienti, accessibili, a prezzi abbordabili e inclusivi, anche per le persone con mobilità ridotta, in particolare le persone con disabilità, tenendo conto della direttiva (UE) 2019/882 del Parlamento europeo e del Consiglio (13) e della normativa europea sui diritti dei passeggeri;

50.

ritiene che l'IA possa consentire un migliore utilizzo delle abilità e delle competenze delle persone con disabilità e che l'applicazione dell'IA sul luogo di lavoro possa contribuire a mercati del lavoro inclusivi e a tassi di occupazione più elevati per le persone con disabilità;

Ambiente e sostenibilità

51.

afferma che l'intelligenza artificiale, la robotica e le tecnologie correlate dovrebbero essere utilizzate da governi e imprese a vantaggio delle persone e del pianeta nonché per contribuire al conseguimento degli obiettivi in materia di sviluppo sostenibile, salvaguardia dell'ambiente, neutralità climatica ed economia circolare; rileva che lo sviluppo, la diffusione e l'utilizzo di tali tecnologie devono contribuire alla transizione verde, salvaguardare l'ambiente, ridurre al minimo eventuali danni che esse potrebbero arrecare all'ambiente durante l'intero ciclo di vita e lungo tutta la catena di approvvigionamento e porvi rimedio, in linea con il diritto dell'Unione;

52.

osserva che, in considerazione del significativo impatto ambientale dello sviluppo, della diffusione e dell'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, ai fini del precedente paragrafo tale impatto ambientale potrebbe ove opportuno essere valutato dalle pertinenti autorità settoriali durante l'intero ciclo di vita di tali tecnologie; rileva che questa valutazione potrebbe includere una stima dell'impatto dell'estrazione delle materie necessarie, del consumo di energia e delle emissioni di gas a effetto serra che derivano dallo sviluppo, dalla diffusione e dall'utilizzo di tali tecnologie;

53.

propone che, al fine di sviluppare soluzioni di intelligenza artificiale responsabili e all'avanguardia, il potenziale dell'intelligenza artificiale, della robotica e delle tecnologie correlate sia esaminato, stimolato e massimizzato attraverso attività di ricerca e sviluppo responsabili, il che richiede la mobilitazione di risorse da parte dell'Unione e degli Stati membri;

54.

sottolinea che lo sviluppo, la diffusione e l'utilizzo di tali tecnologie offrono opportunità per la promozione degli obiettivi di sviluppo sostenibile delle Nazioni Unite, della transizione energetica globale e della decarbonizzazione;

55.

ritiene che gli obiettivi della responsabilità sociale, dell'uguaglianza di genere, della tutela dell'ambiente e della sostenibilità non dovrebbero pregiudicare gli obblighi generali e settoriali vigenti in tali settori; reputa necessario definire, soprattutto per le tecnologie ad alto rischio, orientamenti non vincolanti indirizzati agli sviluppatori, agli operatori e agli utenti per quanto concerne la metodologia da utilizzare per valutare la conformità al regolamento e il raggiungimento dei suddetti obiettivi;

56.

invita l'Unione a promuovere e finanziare lo sviluppo di un'intelligenza artificiale, di una robotica e di tecnologie correlate antropocentriche e in grado di affrontare le sfide ambientali e climatiche e assicurare il rispetto dei diritti fondamentali attraverso il ricorso a incentivi fiscali, incentivi nel settore degli appalti e incentivi di altro tipo;

57.

sottolinea che, nonostante l'elevata impronta di carbonio attualmente associata allo sviluppo, alla diffusione e all'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, ivi compresi le decisioni automatizzate e l'apprendimento automatico, tali tecnologie possono contribuire a ridurre l'attuale impronta ambientale del settore delle TIC; evidenzia che tali tecnologie e altre tecnologie correlate adeguatamente regolamentate dovrebbero costituire un fattore decisivo per realizzare gli obiettivi del Green Deal, gli obiettivi di sviluppo sostenibile delle Nazioni Unite e l'accordo di Parigi in svariati settori e dovrebbero potenziare l'impatto delle politiche che mettono in pratica la tutela ambientale, ad esempio le politiche in materia di riduzione dei rifiuti e degrado ambientale;

58.

invita la Commissione a realizzare uno studio sull'impatto dell'impronta di carbonio delle tecnologie di IA e sugli effetti positivi e negativi della transizione verso l'utilizzo delle tecnologie di IA da parte dei consumatori;

59.

osserva che, dato il crescente sviluppo delle applicazioni di IA, che necessitano di risorse di calcolo, di archiviazione ed energetiche, è opportuno prendere in considerazione l'impatto ambientale dei sistemi di IA durante il loro intero ciclo di vita;

60.

ritiene che, in ambiti quali la salute, la responsabilità debba spettare in ultima analisi a una persona fisica o giuridica; sottolinea la necessità di dati di addestramento degli algoritmi tracciabili e accessibili al pubblico;

61.

sostiene fermamente la creazione di uno spazio europeo di dati sanitari, come proposto dalla Commissione nella sua comunicazione su una strategia europea per i dati, che mira a promuovere lo scambio di dati sanitari e a sostenere la ricerca nel pieno rispetto della protezione dei dati, compreso il trattamento dei dati con le tecnologie di IA, e che rafforza ed estende l'utilizzo e il riutilizzo dei dati sanitari; incoraggia il potenziamento dello scambio transfrontaliero di dati sanitari, il loro collegamento e il loro utilizzo attraverso archivi federati sicuri, tipologie specifiche di informazioni sanitarie, come la cartella clinica europea, le informazioni genomiche e le immagini sanitarie digitali per facilitare l'interoperabilità a livello dell'Unione di registri o banche dati in ambiti quali la ricerca, la scienza e la sanità;

62.

evidenzia i vantaggi apportati dall'IA nella prevenzione, nel trattamento e nel controllo delle malattie, come dimostra il fatto che l'IA aveva previsto l'epidemia di COVID-19 prima dell'OMS; esorta la Commissione a dotare il Centro europeo per la prevenzione e il controllo delle malattie (ECDC) delle risorse e del quadro normativo adeguati per raccogliere in modo indipendente i necessari dati sanitari globali anonimizzati in tempo reale, in collaborazione con gli Stati membri, in modo da rispondere tra l'altro alle questioni messe in luce dalla crisi della COVID-19;

Tutela della vita privata e riconoscimento biometrico

63.

osserva che la produzione e l'utilizzo di dati — inclusi quelli personali, come i dati biometrici — derivanti dallo sviluppo, dalla diffusione e dall'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate sono in rapido aumento, e sottolinea pertanto la necessità di rispettare e applicare il diritto dei cittadini alla tutela della vita privata e alla protezione dei dati personali, in linea con il diritto dell'Unione;

64.

sottolinea che la possibilità offerta da queste tecnologie di utilizzare i dati personali e non personali per la categorizzazione e il microtargeting delle persone, l'individuazione delle loro vulnerabilità o l'utilizzo di accurate tecniche di conoscenza predittiva deve essere controbilanciata dall'efficace applicazione dei principi in materia di protezione dei dati e tutela della vita privata, quali la minimizzazione dei dati, il diritto di opporsi alla profilazione e di controllare l'utilizzo dei propri dati, il diritto di ottenere spiegazioni riguardo alle decisioni basate sul trattamento automatizzato e la tutela della vita privata fin dalla progettazione, nonché dei principi di proporzionalità, necessità e limitazione in base a finalità strettamente delimitate, in linea con il regolamento generale sulla protezione dei dati;

65.

sottolinea che l'utilizzo di tecnologie di riconoscimento a distanza, come il riconoscimento dei dati biometrici e in particolare il riconoscimento facciale, da parte delle autorità pubbliche per motivi di interesse pubblico rilevante dovrebbe sempre essere reso pubblico, proporzionato, mirato e limitato a obiettivi specifici, avere una durata limitata in conformità del diritto dell'Unione e tenere debitamente conto della dignità e dell'autonomia umana come pure dei diritti fondamentali sanciti nella Carta; rileva che i criteri e i limiti di tale utilizzo dovrebbero essere soggetti al controllo giurisdizionale e democratico e tenere conto dell'impatto psicologico e socioculturale sulla società civile;

66.

sottolinea che, nonostante i vantaggi dell'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate nel quadro di decisioni delle autorità pubbliche, sono altresì possibili gravi abusi di tali tecnologie, come la sorveglianza di massa, la polizia predittiva e violazioni del diritto a un processo equo;

67.

ritiene che le tecnologie in grado di generare decisioni automatizzazione, sostituendo così le decisioni prese dalle autorità pubbliche, dovrebbero essere trattate con la massima precauzione, in particolare nei settori della giustizia e dell'applicazione della legge;

68.

reputa che, nei casi in cui sono in gioco le libertà fondamentali, gli Stati membri dovrebbero ricorrere a tali tecnologie soltanto in presenza di prove circostanziate della loro affidabilità e quando sono possibili o sistematici un intervento e una verifica sostanziali da parte dell'uomo; sottolinea l'importanza che le autorità nazionali effettuino una rigorosa valutazione dell'impatto sui diritti fondamentali dei sistemi di intelligenza artificiale utilizzati in tali casi, segnatamente qualora dette tecnologie siano considerate ad alto rischio;

69.

ritiene che qualsiasi decisione adottata dall'intelligenza artificiale, dalla robotica o da tecnologie correlate nel quadro delle prerogative delle autorità pubbliche dovrebbe essere soggetta a un intervento umano significativo e alle dovute procedure, segnatamente qualora dette tecnologie siano considerate ad alto rischio;

70.

reputa che il progresso tecnologico non debba far sì che l'intelligenza artificiale, la robotica e le tecnologie correlate vengano utilizzate per adottare autonomamente decisioni spettanti alle autorità pubbliche che abbiano un impatto diretto e significativo sui diritti e gli obblighi dei cittadini;

71.

osserva che l'IA, la robotica e le tecnologie correlate nell'area dell'applicazione della legge e del controllo di frontiera potrebbero migliorare la sicurezza pubblica ma che necessitano altresì di un ampio e rigoroso controllo pubblico e del massimo livello di trasparenza, sia per quanto riguarda la valutazione dei rischi delle singole applicazioni sia in relazione a una panoramica generale dell'utilizzo dell'IA, della robotica e delle tecnologie correlate nel settore dell'applicazione della legge e del controllo di frontiera; ritiene che le succitate tecnologie comportino rischi etici significativi che devono essere adeguatamente affrontati, considerando i possibili effetti negativi sulle persone per quanto riguarda, in particolare, il diritto alla vita privata, alla protezione dei dati e alla non discriminazione; sottolinea che il loro utilizzo improprio può tradursi in una minaccia diretta per la democrazia e che la loro diffusione e il loro utilizzo devono rispettare i principi di proporzionalità e necessità, la Carta dei diritti fondamentali e il pertinente diritto derivato dell'UE, come le norme relative alla protezione dei dati; sottolinea che l'intelligenza artificiale non dovrebbe mai sostituire gli esseri umani nell'adozione di decisioni giudiziarie; ritiene che decisioni come quelle relative alla libertà provvisoria e alla libertà vigilata, che sono prese nell'ambito di un procedimento giudiziario, o le decisioni basate solamente sul trattamento automatizzato che determinano effetti giuridici per l'interessato o che ne influenzano profondamente la vita debbano sempre prevedere una valutazione significativa e il giudizio da parte di un essere umano;

Buona governance

72.

evidenzia che una governance adeguata in relazione allo sviluppo, alla diffusione e all'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, in particolare le tecnologie ad alto rischio, che includa misure incentrate sulla responsabilità volte a far fronte a potenziali rischi in termini di distorsioni e discriminazioni, può aumentare la sicurezza dei cittadini e la loro fiducia nelle tecnologie in questione;

73.

ritiene che un quadro comune per la governance di tali tecnologie, coordinato dalla Commissione e/o da pertinenti istituzioni, organi e organismi dell'Unione eventualmente designati a tale scopo in questo contesto e attuato dalle autorità nazionali di controllo in ciascuno Stato membro, garantirebbe un approccio coerente a livello di Unione ed eviterebbe la frammentazione del mercato unico;

74.

rileva che per lo sviluppo dell'intelligenza artificiale, della robotica e delle tecnologie correlate si utilizzano grandi volumi di dati e che il trattamento, la condivisione e l'utilizzo di tali dati e l'accesso agli stessi devono essere disciplinati conformemente al diritto in vigore e ai requisiti in materia di qualità, integrità, interoperabilità, trasparenza, sicurezza, tutela della vita privata e controllo da esso stabiliti;

75.

ricorda che l'accesso ai dati è una componente essenziale per la crescita dell'economia digitale; sottolinea a tale riguardo che, limitando gli effetti di lock-in, l'interoperabilità dei dati svolge un ruolo fondamentale nell'assicurare condizioni di mercato eque e nel promuovere parità di condizioni nel mercato unico digitale;

76.

pone l'accento sulla necessità di garantire un'opportuna protezione dei dati personali, in particolare dei dati relativi alle persone appartenenti a gruppi vulnerabili o da loro forniti, quali le persone con disabilità, i pazienti, i minori, gli anziani, le persone facenti parte di una minoranza, i migranti e altre persone appartenenti a gruppi a rischio di esclusione;

77.

osserva che lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate da parte delle autorità pubbliche vengono spesso esternalizzati a soggetti privati; ritiene che ciò non dovrebbe compromettere in alcun modo la protezione dei valori pubblici e dei diritti fondamentali; ritiene che le condizioni degli appalti pubblici dovrebbero rispecchiare le norme etiche cui devono attenersi le autorità pubbliche, ove applicabili;

Consumatori e mercato interno

78.

sottolinea l'importanza di un quadro normativo in materia di IA applicabile nei casi in cui i consumatori all'interno dell'Unione siano utenti di un sistema algoritmico, soggetti allo stesso, suoi destinatari o diretti verso di esso, indipendentemente dal luogo di stabilimento delle entità che sviluppano, vendono o impiegano il sistema; ritiene inoltre che, ai fini della certezza giuridica, le norme stabilite da detto quadro giuridico dovrebbero essere applicate a tutti gli sviluppatori lungo l'intera catena del valore, segnatamente lo sviluppo, la diffusione e l'utilizzo delle tecnologie pertinenti e dei loro componenti, e dovrebbero garantire un elevato livello di protezione dei consumatori;

79.

prende atto del legame intrinseco tra l'intelligenza artificiale, la robotica e le tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, da un lato, e settori quali l'Internet delle cose, l'apprendimento automatico, i sistemi basati sulle regole e i processi decisionali automatizzati e assistiti, dall'altro; osserva inoltre che si potrebbero sviluppare icone standardizzate per contribuire a spiegare tali sistemi ai consumatori ogniqualvolta siano caratterizzati dalla complessità o siano in grado di formulare decisioni che incidono significativamente sulla vita dei consumatori;

80.

ricorda che la Commissione dovrebbe esaminare il quadro giuridico esistente e la sua applicazione, compresi l'acquis in materia di diritto dei consumatori, la legislazione in materia di responsabilità per danno da prodotti difettosi e la legislazione in materia di sicurezza dei prodotti e di vigilanza del mercato, al fine di individuare le lacune giuridiche nonché gli obblighi normativi esistenti; ritiene che ciò sia necessario per stabilire se tale quadro giuridico sia in grado di rispondere alle nuove sfide poste dallo sviluppo dell'intelligenza artificiale, della robotica e delle tecnologie correlate e di garantire un livello elevato di protezione dei consumatori;

81.

sottolinea l'esigenza di affrontare in modo efficace le sfide poste dall'intelligenza artificiale, dalla robotica e dalle tecnologie correlate e di garantire che i consumatori abbiano maggiore potere e siano adeguatamente tutelati; pone l'accento sulla necessità di guardare oltre i principi tradizionali di informazione e divulgazione su cui si basa l'acquis relativo al diritto dei consumatori, dal momento che saranno necessari maggiori diritti dei consumatori e chiare limitazioni quanto allo sviluppo, alla diffusione e all'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate per garantire che tali tecnologie contribuiscano a migliorare la vita dei consumatori ed evolvano in modo conforme ai diritti fondamentali e dei consumatori e ai valori europei;

82.

sottolinea che il quadro legislativo introdotto dalla decisione n. 768/2008/CE (14) prevede un elenco armonizzato di obblighi per i produttori, gli importatori e i distributori, incoraggia l'uso di norme e stabilisce diversi livelli di controllo a seconda della pericolosità del prodotto; ritiene che tale quadro debba applicarsi anche ai prodotti dotati di intelligenza artificiale integrata;

83.

rileva che, al fine di analizzare l'impatto dell'intelligenza artificiale, della robotica e delle tecnologie correlate sui consumatori, l'accesso ai dati potrebbe essere esteso alle autorità nazionali competenti purché sia garantito il pieno rispetto del diritto dell'Unione, in particolare della normativa in materia di protezione dei dati, tutela della vita privata e segreti commerciali; ricorda l'importanza di educare i consumatori a essere maggiormente informati e competenti nell'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, al fine di proteggerli da rischi potenziali e difendere i loro diritti;

84.

invita la Commissione a proporre misure in materia di tracciabilità dei dati, tenendo conto sia della legalità dell'acquisizione dei dati sia della tutela dei diritti dei consumatori e dei diritti fondamentali, garantendo nel contempo il pieno rispetto del diritto dell'Unione, in particolare della normativa in materia di protezione dei dati, tutela della vita privata, diritti di proprietà intellettuale e segreti commerciali;

85.

osserva che tali tecnologie dovrebbero essere incentrate sull'utente e progettate in modo da consentire a ognuno di utilizzare i prodotti o servizi di intelligenza artificiale, indipendentemente da età, genere, capacità o caratteristiche; rileva che l'accessibilità per le persone con disabilità è particolarmente importante; osserva che non si dovrebbe adottare un approccio unico per tutti e che si dovrebbero tenere in considerazione i principi della progettazione universale rivolti alla più ampia gamma possibile di utenti e conformi alle pertinenti norme in materia di accessibilità; sottolinea che ciò consentirà alle persone di avere un accesso equo e di partecipare attivamente alle attività umane mediate dal computer esistenti ed emergenti e alle tecnologie assistive;

86.

sottolinea che, laddove i fondi pubblici contribuiscono in modo significativo allo sviluppo, alla diffusione o all'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, unitamente agli appalti aperti e alle norme contrattuali aperte, si potrebbe considerare la possibilità di rendere pubblici per impostazione predefinita il codice, i dati generati — nella misura in cui non siano personali — e il modello addestrato, previo accodo con lo sviluppatore, al fine di garantire la trasparenza, migliorare la cibersicurezza e consentire il riutilizzo per promuovere l'innovazione; sottolinea che in questo modo è possibile sbloccare il pieno potenziale del mercato unico evitando la frammentazione del mercato;

87.

ritiene che l'intelligenza artificiale, la robotica e le tecnologie correlate abbiano un immenso potenziale per offrire ai consumatori opportunità di accesso a numerosi servizi in molti aspetti della loro vita unitamente a prodotti e servizi migliori, nonché per beneficiare di una migliore vigilanza del mercato, purché tutti i principi, le condizioni (compresa la trasparenza e la verificabilità), e le normative pertinenti continuino ad applicarsi;

Sicurezza e difesa

88.

sottolinea che le politiche di sicurezza e difesa dell'Unione europea e dei suoi Stati membri sono guidate dai principi sanciti dalla Carta e da quelli della Carta delle Nazioni Unite nonché da una visione comune dei valori universali del rispetto dei diritti inviolabili e inalienabili della persona, della dignità umana, della libertà, della democrazia, dell'uguaglianza e dello Stato di diritto; sottolinea che tutti gli sforzi nel settore della difesa nel quadro dell'Unione devono rispettare questi valori universali, promuovendo nel contempo la pace, la sicurezza e il progresso in Europa e nel mondo;

89.

accoglie con favore l'approvazione, da parte dell'assemblea del 2019 delle Alte parti contraenti della Convenzione delle Nazioni Unite su certe armi convenzionali (CCW), di 11 principi guida per lo sviluppo e l'uso di sistemi d'arma autonomi; si rammarica tuttavia del mancato conseguimento di un accordo su uno strumento giuridicamente vincolante che disciplini i sistemi d'arma autonomi letali, con meccanismi efficaci di applicazione; accoglie con favore e appoggia la relazione del gruppo di esperti ad alto livello sull'intelligenza artificiale istituito dalla Commissione, dal titolo «Orientamenti etici per un'IA affidabile», pubblicata il 9 aprile 2019, e la sua posizione sui sistemi d'arma autonomi letali; esorta gli Stati membri a sviluppare strategie nazionali per la definizione e lo status delle armi autonome letali, verso una strategia globale a livello di Unione, e a promuovere, insieme al vicepresidente della Commissione/alto rappresentante dell'Unione (VP/AR) e al Consiglio, il dibattito sulle armi autonome letali nel quadro della Convenzione delle Nazioni Unite su certe armi convenzionali e in altri consessi pertinenti nonché l'istituzione di norme internazionali relative a parametri etici e giuridici per lo sviluppo e l'uso di sistemi d'arma letali pienamente autonomi, semiautonomi e comandati a distanza; ricorda a tale riguardo la sua risoluzione del 12 settembre 2018 sui sistemi d'arma autonomi e chiede ancora una volta lo sviluppo e l'adozione urgenti di una posizione comune su tali sistemi, un divieto internazionale sullo sviluppo, la produzione e l'uso dei sistemi d'arma autonomi letali che consentono di effettuare attacchi senza un significativo controllo umano e senza il rispetto del principio dell'intervento umano («human-in-the-loop»), in linea con la dichiarazione dei più autorevoli ricercatori al mondo nel settore dell'IA, contenuta nella lettera aperta del 2015; accoglie con favore il fatto che il Consiglio e il Parlamento abbiano concordato di escludere i sistemi d'arma autonomi letali «senza la possibilità di un significativo controllo umano sulle decisioni relative alla selezione e all'ingaggio nell'effettuare attacchi» dalle azioni finanziate dal Fondo europeo per la difesa; ritiene che gli aspetti etici di altre applicazioni di IA nel settore della difesa come l'intelligence, la sorveglianza e la ricognizione (ISR) o le operazioni cibernetiche non debbano essere trascurati e che si debba prestare particolare attenzione allo sviluppo e alla diffusione di droni nelle operazioni militari;

90.

evidenzia che le tecnologie emergenti nel settore della difesa e della sicurezza non contemplate dal diritto internazionale dovrebbero essere giudicate tenendo conto del principio del rispetto dell'umanità e dei dettami della coscienza pubblica;

91.

raccomanda di assicurarsi che qualsiasi quadro europeo che disciplini l'utilizzo di sistemi basati sull'IA nel settore della difesa, in situazioni di combattimento e di non combattimento, rispetti tutti i regimi giuridici applicabili, in particolare il diritto internazionale umanitario e il diritto internazionale dei diritti umani, sia conforme con il diritto, i principi e i valori dell'Unione e tenga conto delle disparità in termini di infrastrutture tecniche e di sicurezza in tutta l'Unione;

92.

riconosce che, a differenza di quanto avviene per le basi industriali della difesa, nell'ambito dell'IA potrebbero emergere innovazioni fondamentali in piccoli Stati membri e rileva pertanto che un approccio standardizzato della PSDC dovrebbe evitare l'esclusione degli Stati membri più piccoli e delle PMI; sottolinea che un insieme di capacità comuni dell'UE nel settore dell'IA, abbinato ai concetti operativi degli Stati membri, può colmare i divari tecnici che potrebbero provocare l'esclusione degli Stati privi delle pertinenti tecnologie, delle competenze industriali o della capacità di attuare sistemi di IA nei rispettivi ministeri della Difesa;

93.

ritiene che le attività attuali e future nel settore della sicurezza e della difesa nel quadro dell'Unione si avvarranno dell'IA, della robotica e dell'autonomia e delle tecnologie correlate, e che un'IA affidabile, solida e degna di fiducia potrebbe contribuire a un settore militare moderno ed efficace; rileva che l'Unione deve pertanto assumere un ruolo guida nelle attività di ricerca e sviluppo riguardanti i sistemi di IA nel campo della sicurezza e della difesa; reputa che l'utilizzo di applicazioni basate sull'IA nel settore della sicurezza e della difesa potrebbe offrire una serie di vantaggi diretti al comandante dell'operazione, tra cui dati raccolti di migliore qualità, maggiore conoscenza situazionale, processi decisionali più veloci, minor rischio di danni collaterali grazie a un migliore cablaggio, protezione delle forze sul terreno nonché maggiore affidabilità delle attrezzature militari e quindi minori rischi per l'uomo e in termini di perdita di vite umane; sottolinea che lo sviluppo di un'IA affidabile nel campo della difesa è indispensabile per garantire l'autonomia strategica europea nei settori capacitari e operativi; ricorda che i sistemi di IA stanno altresì diventando elementi chiave per contrastare le minacce emergenti alla sicurezza, come la ciberguerra e la guerra ibrida, sia online sia offline; evidenzia, allo stesso tempo, tutti i rischi e le sfide di un uso non regolamentato dell'IA; nota che l'IA potrebbe essere esposta a manipolazioni, errori e inesattezze;

94.

sottolinea che le tecnologie di IA sono, in sostanza, a duplice uso e che lo sviluppo dell'IA nelle attività collegate alla difesa trae beneficio dagli scambi tra tecnologie militari e civili; evidenzia che l'IA nelle attività collegate alla difesa è una tecnologia trasversale dirompente, il cui sviluppo può offrire opportunità in termini di competitività e autonomia strategica dell'Unione;

95.

riconosce, nell'odierno contesto di guerra ibrida e avanzata, che la quantità e la velocità delle informazioni nelle prime fasi di una crisi potrebbero travolgere gli analisti umani e che un sistema di IA potrebbe elaborare le informazioni per garantire che i decisori umani tengano conto dell'intera gamma delle informazioni entro tempi adeguati per fornire una risposta rapida;

96.

sottolinea l'importanza di investire nello sviluppo del capitale umano per l'intelligenza artificiale, promuovendo le competenze e l'istruzione necessarie nel settore delle tecnologie di IA per la sicurezza e la difesa, con un'attenzione particolare agli aspetti etici dei sistemi operativi autonomi e semiautonomi sulla base della responsabilità umana in un mondo basato sull'IA; evidenzia, in particolare, l'importanza di garantire che gli studiosi di etica in quest'ambito dispongano di competenze appropriate e ricevano una formazione adeguata; invita la Commissione a presentare quanto prima il rafforzamento della sua agenda per le competenze, come annunciato nel Libro bianco sull'intelligenza artificiale il 19 febbraio 2020;

97.

sottolinea che il calcolo quantistico potrebbe rappresentare il cambiamento più rivoluzionario nel campo dei conflitti dall'avvento degli armamenti nucleari e chiede pertanto che l'ulteriore sviluppo delle tecnologie nell'ambito del calcolo quantistico sia una priorità dell'Unione e degli Stati membri; riconosce che gli atti di aggressione, compresi gli attacchi contro infrastrutture chiave, assistiti dal calcolo quantistico creeranno un contesto bellico in cui il tempo per prendere le decisioni sarà ridotto drasticamente da giorni e ore a minuti e secondi, costringendo gli Stati membri a sviluppare capacità che li proteggano e ad addestrare i decisori e il personale militare a rispondere efficacemente entro tali tempistiche;

98.

chiede maggiori investimenti nell'IA europea per la difesa e nelle infrastrutture essenziali che la sostengono;

99.

ricorda che la maggior parte delle attuali potenze militari a livello mondiale ha già compiuto sforzi significativi nelle attività di ricerca e sviluppo relative alla dimensione militare dell'intelligenza artificiale; ritiene che l'Unione debba fare in modo di non accusare ritardi in tale settore;

100.

invita la Commissione a integrare lo sviluppo delle capacità di cibersicurezza nella sua politica industriale, al fine di garantire lo sviluppo e la diffusione di sistemi robotici e basati sull'IA sicuri, resilienti e solidi; invita la Commissione a valutare l'uso di protocolli e applicazioni di cibersicurezza basati sulla tecnologia blockchain per migliorare la resilienza, l'affidabilità e la solidità delle infrastrutture di intelligenza artificiale mediante modelli disintermediati di cifratura dei dati; incoraggia le parti interessate a livello europeo a studiare e progettare funzionalità avanzate che facilitino l'individuazione di sistemi robotici e basati sull'IA corrotti e dannosi, i quali potrebbero pregiudicare la sicurezza dell'Unione e dei cittadini;

101.

sottolinea che tutti i sistemi di IA nel settore della difesa devono disporre di un quadro di missione concreto e ben definito, in base al quale gli esseri umani mantengano la capacità di individuare e disinnestare o disattivare i sistemi utilizzati, qualora questi ultimi vadano al di là del quadro di missione definito e assegnato mediante controllo umano o intraprendano azioni incontrollate o non intenzionali; ritiene che i sistemi, i prodotti e la tecnologia per uso militare basati sull'IA dovrebbero essere dotati di una «scatola nera» che registri ogni transazione di dati effettuata dalla macchina;

102.

sottolinea che la responsabilità e la rendicontabilità della decisione di progettare, sviluppare, diffondere e utilizzare sistemi di IA devono incombere interamente a operatori umani, dato che vi devono essere un monitoraggio e un controllo umano significativo su qualsiasi sistema d'arma e una volontà umana nella decisione di ricorrere alla forza nell'esecuzione di qualsiasi decisione di sistemi di armi basati sull'IA che possa avere conseguenze letali; evidenzia che il controllo umano dovrebbe rimanere effettivo per il comando e il controllo dei sistemi basati sull'IA, secondo i principi dell'intervento umano («human-in-the-loop»), della sorveglianza con supervisione umana («human-on-the-loop») e della sorveglianza con controllo umano («human-in-command») a livello di leadership militare; sottolinea che i sistemi basati sull'IA devono consentire alla leadership militare di assumere la piena responsabilità e rendicontabilità per l'uso della forza letale e di esercitare il livello di giudizio necessario — che non può essere affidato alle macchine e si deve basare sulla distinzione, la proporzionalità e la precauzione — per intraprendere azioni letali o distruttive su larga scala mediante tali sistemi; sottolinea la necessità di istituire quadri di autorizzazione e responsabilità chiari e tracciabili per la diffusione delle armi intelligenti e di altri sistemi basati sull'IA, utilizzando caratteristiche univoche dell'utente, come le specifiche biometriche, per consentire l'uso esclusivo da parte di personale autorizzato;

Trasporti

103.

sottolinea il potenziale di utilizzare l'intelligenza artificiale, la robotica e le tecnologie correlate per tutti i mezzi autonomi di trasporto su strada, ferroviario, aereo e per vie navigabili, tra l'altro per dare impulso al trasferimento modale e all'intermodalità, dato che queste tecnologie possono contribuire all'individuazione della combinazione ottimale dei modi di trasporto per il trasporto merci e passeggeri; sottolinea inoltre il loro potenziale di rendere i trasporti, la logistica e i flussi del traffico più efficienti e di rendere tutti i modi di trasporto più sicuri, più intelligenti e più rispettosi dell'ambiente; sottolinea che un approccio etico all'IA può essere visto anche come un sistema di allarme rapido, in particolare per quanto riguarda la sicurezza e l'efficienza dei trasporti;

104.

sottolinea che la concorrenza globale tra imprese e regioni economiche richiede che l'Unione promuova gli investimenti e rafforzi la competitività internazionale delle imprese che operano nel settore dei trasporti, creando un ambiente favorevole allo sviluppo e all'applicazione di soluzioni di IA e ulteriori innovazioni, in cui le imprese con sede nell'Unione possano diventare leader mondiali nello sviluppo delle tecnologie di IA;

105.

sottolinea che il settore dei trasporti dell'Unione necessita di un aggiornamento del quadro normativo relativo a tali tecnologie emergenti e al loro utilizzo nel settore dei trasporti e di un chiaro quadro etico per conseguire un'IA affidabile, inclusi gli aspetti relativi alla sicurezza, alla protezione, al rispetto dell'autonomia umana, al controllo e alla responsabilità, il che aumenterà i benefici condivisi da tutti e sarà fondamentale per stimolare gli investimenti nella ricerca e nell'innovazione, lo sviluppo di competenze e l'adozione dell'IA da parte dei servizi pubblici, delle PMI, delle start-up e delle imprese, garantendo allo stesso tempo la protezione dei dati e l'interoperabilità, senza imporre inutili oneri amministrativi alle imprese e ai consumatori;

106.

osserva che lo sviluppo e l'attuazione dell'IA nel settore dei trasporti non saranno possibili senza infrastrutture moderne, che sono un elemento essenziale dei sistemi di trasporto intelligenti; sottolinea che i persistenti divari nel livello di sviluppo degli Stati membri comportano il rischio di privare le regioni meno sviluppate e i loro abitanti dei vantaggi apportati dallo sviluppo della mobilità autonoma; chiede che la modernizzazione delle infrastrutture di trasporto nell'Unione, compresa la loro integrazione nella rete 5G, sia adeguatamente finanziata;

107.

raccomanda l'elaborazione a livello di Unione di norme affidabili in materia di IA per tutti i modi di trasporto, compresa l'industria automobilistica, nonché per l'esecuzione di prove di veicoli basati sull'IA e dei prodotti e servizi correlati;

108.

rileva che i sistemi di IA potrebbero contribuire a ridurre notevolmente il numero dei morti per incidenti stradali, ad esempio grazie a tempi di reazione migliori e a un maggiore rispetto delle regole; ritiene tuttavia impossibile che l'utilizzo di veicoli autonomi si traduca nell'eliminazione di tutti gli incidenti e sottolinea che ciò rende la spiegabilità delle decisioni dell'IA sempre più importante al fine di giustificare le carenze e le conseguenze indesiderate delle decisioni dell'IA;

Occupazione, diritti dei lavoratori, competenze digitali e luogo di lavoro

109.

rileva che l'applicazione dell'intelligenza artificiale, della robotica e delle tecnologie correlate sul luogo di lavoro può contribuire a mercati del lavoro inclusivi e avere un impatto sulla salute e sulla sicurezza sul lavoro, ma nel contempo può essere utilizzata anche per monitorare, valutare, prevedere e orientare le prestazioni dei lavoratori, con conseguenze dirette e indirette sulla loro carriera; osserva che l'IA dovrebbe avere un impatto positivo sulle condizioni di lavoro ed essere animata dal rispetto dei diritti umani, dei diritti fondamentali e dei valori dell'Unione; constata che l'IA dovrebbe essere antropocentrica, migliorare il benessere delle persone e della società e contribuire a una transizione equa e giusta; osserva che tali tecnologie dovrebbero pertanto avere un impatto positivo sulle condizioni di lavoro ed essere animate dal rispetto dei diritti umani, dei diritti fondamentali e dei valori dell'Unione;

110.

mette in evidenza la necessità di sviluppare competenze attraverso la formazione e l'istruzione dei lavoratori e dei loro rappresentanti in materia di IA sul luogo di lavoro, affinché possano comprendere meglio le implicazioni delle soluzioni di IA; sottolinea che i candidati e i lavoratori devono essere debitamente informati per iscritto qualora l'IA sia utilizzata nel corso delle procedure di assunzione e per altre decisioni sulle risorse umane e che in tal caso devono ricevere informazioni sulle modalità per chiedere un riesame umano nell'intento di annullare una decisione automatizzata;

111.

sottolinea la necessità di garantire che gli incrementi di produttività derivanti dallo sviluppo e dall'utilizzo dell'IA e della robotica non vadano soltanto a vantaggio dei proprietari e degli azionisti delle imprese, ma anche delle imprese stesse e dei lavoratori, attraverso condizioni di lavoro e di impiego migliori, compresi i salari, la crescita economica e lo sviluppo, nonché della società in generale, in particolare nei casi in cui tali incrementi sono realizzati a discapito dei posti di lavoro; invita gli Stati membri a studiare attentamente il potenziale impatto dell'IA sul mercato del lavoro e sui sistemi di sicurezza sociale e a elaborare strategie per garantire la stabilità a lungo termine riformando le imposte e i contributi e adottando altre misure in caso di riduzione delle entrate pubbliche;

112.

sottolinea l'importanza dell'investimento delle imprese nella formazione formale e informale e nell'apprendimento permanente al fine di sostenere una transizione giusta verso l'economia digitale; sottolinea, in tale contesto, che le imprese che utilizzano l'IA hanno la responsabilità di offrire adeguate attività di riqualificazione e miglioramento delle competenze a tutti i dipendenti interessati, affinché questi possano imparare a utilizzare gli strumenti digitali e lavorare con i cobot e altre nuove tecnologie, adattandosi in tal modo all'evoluzione delle esigenze del mercato del lavoro e mantenendo un'occupazione;

113.

ritiene che occorra prestare particolare attenzione alle nuove forme di lavoro, come i lavori nell'ambito della «gig economy» e mediante piattaforme digitali, risultanti dall'applicazione delle nuove tecnologie in tale contesto; sottolinea che nel disciplinare le condizioni del telelavoro in tutta l'Unione e garantire condizioni di lavoro e di impiego dignitose nell'economia digitale si deve altresì tenere conto dell'impatto dell'IA; invita la Commissione a consultarsi con le parti sociali, gli sviluppatori di IA, i ricercatori e altre parti interessate a tale riguardo;

114.

sottolinea che l'intelligenza artificiale, la robotica e le tecnologie correlate non devono in alcun modo pregiudicare l'esercizio dei diritti fondamentali riconosciuti dagli Stati membri e a livello dell'Unione, compresi il diritto o la libertà di sciopero o il diritto o la libertà di intraprendere altre azioni contemplate dalla specifica disciplina delle relazioni industriali negli Stati membri, in conformità della legislazione e/o delle prassi nazionali, né pregiudicare il diritto di negoziare, concludere ed eseguire accordi collettivi o di intraprendere azioni collettive in conformità della legislazione e/o delle prassi nazionali;

115.

ribadisce l'importanza dell'istruzione e dell'apprendimento continuo per ottenere le qualifiche necessarie nell'era digitale e contrastare l'esclusione digitale; invita gli Stati membri a investire in sistemi d'istruzione, formazione professionale e apprendimento permanente reattivi, inclusivi e di elevata qualità nonché in politiche di riqualificazione e miglioramento delle competenze dei lavoratori nei settori in cui l'IA può avere ripercussioni più gravi; sottolinea la necessità di dotare i lavoratori attuali e futuri delle competenze alfabetiche, matematiche e digitali necessarie, di conoscenze in ambito scientifico, tecnologico, ingegneristico e matematico (STEM) nonché di competenze trasversali, quali il pensiero critico, la creatività e l'imprenditorialità; pone l'accento sulla necessità di prestare particolare attenzione all'inclusione dei gruppi svantaggiati a tale riguardo;

116.

ricorda che l'intelligenza artificiale, la robotica e le tecnologie correlate utilizzate sul posto di lavoro devono essere accessibili a tutti, sulla base del principio della progettazione universale;

Istruzione e cultura

117.

sottolinea la necessità di elaborare criteri per lo sviluppo, la diffusione e l'utilizzo dell'IA tenendo conto del relativo impatto nell'ambito dell'istruzione, dei media, della gioventù, della ricerca, dello sport e dei settori culturali e creativi, sviluppando parametri di riferimento e definendo principi per utilizzi eticamente responsabili e accettati delle tecnologie di IA che è possibile applicare adeguatamente in tali settori, tra cui un chiaro regime di responsabilità per i prodotti derivanti dall'utilizzo dell'IA;

118.

osserva che ogni bambino gode del diritto a un'istruzione pubblica di qualità a tutti i livelli; chiede pertanto lo sviluppo, la diffusione e l'utilizzo di sistemi di IA di qualità che facilitino e forniscano strumenti educativi di qualità per tutti a tutti i livelli e sottolinea che la diffusione di nuovi sistemi di IA nelle scuole non dovrebbe condurre alla creazione di un divario digitale più ampio nella società; riconosce l'enorme contributo potenziale che l'intelligenza artificiale e la robotica possono apportare all'istruzione; osserva che i sistemi di apprendimento personalizzati basati sull'IA non dovrebbero sostituire le relazioni educative che coinvolgono gli insegnanti e che le forme tradizionali di istruzione non dovrebbero essere lasciate indietro, sottolineando nel contempo che occorre fornire sostegno finanziario, tecnologico ed educativo, compresa una formazione specializzata nelle tecnologie dell'informazione e della comunicazione, agli insegnanti che cercano di acquisire competenze adeguate per adattarsi ai cambiamenti tecnologici, e non sfruttare soltanto le potenzialità dell'IA, ma comprenderne anche i limiti; chiede che a livello dell'Unione sia sviluppata una strategia intesa a contribuire a trasformare e aggiornare i sistemi di istruzione, preparare gli istituti di istruzione a tutti i livelli e dotare gli insegnanti e gli alunni delle competenze e abilità necessarie;

119.

evidenzia che gli istituti di istruzione dovrebbero impegnarsi a utilizzare i sistemi di IA per gli scopi educativi per i quali è stato rilasciato un certificato europeo di conformità etica;

120.

sottolinea che le opportunità offerte dalla digitalizzazione e dalle nuove tecnologie non devono condurre a una perdita complessiva di posti di lavoro nei settori culturali e creativi, trascurare la conservazione degli originali e sminuire l'accesso tradizionale al patrimonio culturale, che dovrebbe essere parimenti incoraggiato; osserva che i sistemi di intelligenza artificiale sviluppati, diffusi e utilizzati nell'Unione devono rispecchiare la sua diversità culturale e il suo multilinguismo;

121.

riconosce le crescenti potenzialità dell'IA nei settori dell'informazione, dei media e delle piattaforme online, anche come strumento di lotta alla disinformazione nel rispetto del diritto dell'Unione; sottolinea che, se non regolamentata, l'IA potrebbe avere effetti negativi sul piano etico attraverso lo sfruttamento delle distorsioni nei dati e negli algoritmi, il che può condurre alla diffusione di disinformazione e alla creazione di bolle informative; evidenzia l'importanza della trasparenza e della responsabilità degli algoritmi utilizzati dalle piattaforme di condivisione di video e dalle piattaforme di streaming al fine di garantire l'accesso a contenuti culturalmente e linguisticamente diversificati;

Autorità nazionali di controllo

122.

rileva il valore aggiunto della presenza in ogni Stato membro di specifiche autorità nazionali di controllo incaricate di garantire, valutare e monitorare il rispetto degli obblighi giuridici e dei principi etici relativi allo sviluppo, alla diffusione e all'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate ad alto rischio, il che contribuirà ad assicurare la conformità giuridica ed etica di tali tecnologie;

123.

ritiene che dette autorità debbano cooperare con le autorità responsabili dell'attuazione della normativa settoriale, evitando qualsiasi duplicazione dei compiti, al fine di individuare tecnologie ad alto rischio da un punto di vista etico e vigilare sull'attuazione delle misure opportune e necessarie quando tali tecnologie vengono individuate;

124.

osserva che tali autorità dovrebbero assicurare il coordinamento non solo tra loro ma anche con la Commissione europea e con le istituzioni, gli organi e gli organismi dell'Unione pertinenti per garantire la coerenza dell'azione transfrontaliera;

125.

suggerisce che, nel quadro di tale cooperazione, siano sviluppati criteri comuni e una procedura per la presentazione delle domande ai fini del rilascio di un certificato europeo di conformità etica, che potrà altresì essere richiesto da qualsiasi sviluppatore, operatore o utente di tecnologie non considerate ad alto rischio che desideri certificare la valutazione positiva della conformità da parte dell'autorità nazionale di controllo competente;

126.

chiede che tali autorità siano incaricate di favorire scambi regolari con la società civile e di promuovere l'innovazione nell'Unione fornendo assistenza a ricercatori, sviluppatori e altre parti interessate, ma anche a imprese meno mature sotto il profilo digitale, in particolare le piccole e medie imprese o le start-up, segnatamente per quanto concerne attività di sensibilizzazione e sostegno riguardanti lo sviluppo, la diffusione, la formazione e l'acquisizione di talenti, in modo da assicurare un efficace trasferimento di tecnologia e l'accesso a tecnologie, progetti, risultati e reti;

127.

invita ogni Stato membro a garantire finanziamenti sufficienti alle proprie autorità nazionali di controllo designate e sottolinea la necessità di rafforzare le autorità nazionali di vigilanza del mercato in termini di capacità, abilità e competenze, come pure per quanto concerne la conoscenza dei rischi specifici posti dall'intelligenza artificiale, dalla robotica e dalle tecnologie correlate;

Coordinamento a livello di Unione

128.

sottolinea l'importanza del coordinamento a livello di Unione assicurato dalla Commissione e/o dalle istituzioni, dagli organi e dagli organismi competenti dell'Unione che potrebbero essere designati in tale contesto nell'ottica di evitare la frammentazione, come pure l'importanza di garantire un approccio armonizzato in tutta l'Unione; ritiene che il coordinamento debba concentrarsi sul mandato e le azioni delle autorità nazionali di controllo di ciascuno Stato membro di cui alla precedente sezione come pure sulla condivisione delle migliori prassi tra dette autorità e sul contributo alla collaborazione nelle attività di ricerca e sviluppo svolte nel settore in tutta l'Unione; invita la Commissione a valutare e trovare la soluzione più appropriata per strutturare tale coordinamento; osserva che tra le istituzioni, gli organi e gli organismi competenti dell'Unione figurano l'ENISA, il GEPD e il Mediatore europeo;

129.

ritiene che tale coordinamento, come pure la certificazione europea di conformità etica, contribuirebbero non solo a favorire lo sviluppo dell'innovazione e dell'industria dell'Unione in tale contesto ma anche a sensibilizzare i cittadini riguardo alle opportunità e ai rischi inerenti a tali tecnologie;

130.

propone di creare un centro di competenze, che riunisca esperti del mondo accademico, della ricerca e dell'industria nonché singoli esperti a livello di Unione, nell'ottica di favorire lo scambio di conoscenze e competenze tecniche e facilitare la collaborazione nell'Unione e oltre; chiede inoltre che tale centro di competenze assicuri la partecipazione delle organizzazioni delle parti interessate, quali le organizzazioni per la tutela dei consumatori, al fine di garantire un'ampia rappresentanza dei consumatori; ritiene che, a causa del possibile impatto sproporzionato dei sistemi algoritmici sulle donne e sulle minoranze, i livelli decisionali di tale struttura dovrebbero essere eterogenei e assicurare la parità di genere; evidenzia che gli Stati membri devono elaborare strategie di gestione del rischio per l'IA nel contesto delle loro strategie nazionali di vigilanza del mercato;

131.

propone che la Commissione e/o le istituzioni, gli organi e gli organismi competenti dell'Unione che potrebbero essere designati in tale contesto forniscano la necessaria assistenza alle autorità nazionali di controllo riguardo al loro ruolo di primo punto di contatto in caso di presunta violazione degli obblighi giuridici e dei principi etici sanciti dal quadro normativo dell'Unione in materia di IA, incluso il principio di non discriminazione; osserva che dovrebbero altresì fornire la necessaria assistenza alle autorità nazionali di controllo che effettuano valutazioni della conformità a tutela del diritto dei cittadini di impugnare una decisione e ottenere riparazione, segnatamente favorendo, se del caso, la consultazione di altre autorità competenti dell'Unione, in particolare la rete di cooperazione per la tutela dei consumatori, gli organismi nazionali di tutela dei consumatori, le organizzazioni della società civile e le parti sociali situate in altri Stati membri;

132.

riconosce il prezioso contributo del gruppo di esperti ad alto livello sull'intelligenza artificiale, che comprende rappresentanti del mondo accademico, della società civile e dell'industria, nonché dell'Alleanza europea per l'IA, con particolare riferimento agli «Orientamenti etici per un'intelligenza artificiale affidabile», e suggerisce che tali soggetti potrebbero fornire consulenza alla Commissione e/o alle istituzioni, agli organi e agli organismi competenti dell'Unione che potrebbero essere designati in tale contesto;

133.

prende atto dell'inclusione di progetti relativi all'IA nell'ambito del programma europeo di sviluppo del settore industriale della difesa (EDIDP); ritiene che il futuro Fondo europeo per la difesa (FED) e la cooperazione strutturata permanente (PESCO) possano altresì offrire quadri per i futuri progetti relativi all'IA che sarebbero in grado di contribuire a ottimizzare gli sforzi dell'Unione in tale settore e promuovere, allo stesso tempo, l'obiettivo dell'Unione di un rafforzamento dei diritti umani, del diritto internazionale e delle soluzioni multilaterali; sottolinea che i progetti relativi all'IA dovrebbero essere sincronizzati con i più ampi programmi civili dell'Unione dedicati all'IA; osserva che, in linea con il Libro bianco della Commissione europea del 19 febbraio 2020 sull'intelligenza artificiale, è opportuno istituire strutture di eccellenza e di prova che si occupino di ricerca e sviluppo dell'IA nel settore della sicurezza e della difesa, con specifiche rigorose alla base della partecipazione e degli investimenti dei soggetti privati;

134.

prende nota del Libro bianco della Commissione del 19 febbraio 2020 sull'intelligenza artificiale e si rammarica che gli aspetti militari non siano stati tenuti in considerazione; invita la Commissione e l'AR/VP a presentare, anche nell'ambito di un approccio globale, una strategia settoriale di IA per le attività connesse al settore della difesa nel quadro dell'Unione, che garantisca il rispetto sia dei diritti dei cittadini sia degli interessi strategici dell'Unione e che si fondi su un approccio coerente che vada dall'introduzione di sistemi basati sull'IA fino al loro utilizzo militare, nonché a istituire, nell'ambito del gruppo di esperti ad alto livello sull'intelligenza artificiale, un gruppo di lavoro sulla sicurezza e la difesa che affronti specificamente le questioni riguardanti le politiche, gli investimenti nonché gli aspetti etici dell'IA nel settore della sicurezza e della difesa; invita il Consiglio, la Commissione e l'AR/VP ad avviare a tal fine un dialogo strutturato con il Parlamento europeo;

Certificazione europea di conformità etica

135.

suggerisce di sviluppare, nel contesto di un coordinamento a livello dell'Unione, criteri comuni e una procedura per la presentazione delle domande ai fini del rilascio di un certificato europeo di conformità etica, che potrà anche essere richiesto da qualsiasi sviluppatore, operatore o utente di tecnologie ritenute non ad alto rischio che desideri certificare la valutazione positiva della conformità da parte dell'autorità nazionale di controllo competente;

136.

ritiene che tale certificato europeo di conformità etica incentiverebbe un approccio etico fin dalla progettazione lungo tutta la catena di approvvigionamento degli ecosistemi dell'intelligenza artificiale; osserva pertanto che tale certificazione potrebbe costituire, nel caso delle tecnologie ad alto rischio, un presupposto obbligatorio per l'ammissibilità alle procedure di appalto pubblico relative all'intelligenza artificiale, alla robotica e alle tecnologie correlate;

Cooperazione internazionale

137.

è del parere che una cooperazione transfrontaliera e norme etiche efficaci possano essere raggiunte soltanto se tutte le parti interessate si impegneranno a garantire l'intervento e la supervisione umani, la solidità e la sicurezza tecnica, la trasparenza e la responsabilità, la diversità, la non discriminazione e l'equità, il benessere della società e dell'ambiente, e rispetteranno i principi stabiliti in materia di tutela della vita privata, governance dei dati e protezione dei dati, in particolare quelli sanciti dal regolamento (UE) 2016/679;

138.

sottolinea che gli obblighi giuridici e i principi etici dell'Unione relativi allo sviluppo, alla diffusione e all'utilizzo delle tecnologie in questione potrebbero fare dell'Europa un leader mondiale nel campo dell'intelligenza artificiale e dovrebbero pertanto essere promossi su scala mondiale attraverso la cooperazione con i partner internazionali, proseguendo nel contempo il dialogo critico ed etico con i paesi terzi dotati di modelli alternativi di regolamentazione, sviluppo e diffusione dell'intelligenza artificiale;

139.

ricorda che le opportunità e i rischi intrinseci a tali tecnologie hanno una dimensione globale, dato che i software e i dati utilizzati sono spesso importati nell'Unione europea ed esportati fuori da essa, e che è pertanto necessario un approccio di cooperazione coerente a livello internazionale; invita la Commissione a prendere l'iniziativa e valutare quali trattati e accordi bilaterali e multilaterali dovrebbero essere adattati al fine di garantire un approccio coerente e promuovere il modello europeo di conformità etica a livello mondiale;

140.

pone l'accento sul valore aggiunto che il coordinamento a livello di Unione sopra menzionato apporterebbe anche in questo contesto;

141.

chiede di creare sinergie e reti tra i vari centri europei di ricerca sull'IA e altri forum multilaterali, quali il Consiglio d'Europa, l'Organizzazione delle Nazioni unite per l'educazione, la scienza e la cultura (UNESCO), l'Organizzazione per la cooperazione e lo sviluppo economici (OCSE), l'Organizzazione mondiale del commercio (OMC) e l'Unione internazionale delle telecomunicazioni (UIT), per armonizzare gli sforzi e coordinare meglio lo sviluppo dell'intelligenza artificiale, della robotica e delle tecnologie correlate;

142.

sottolinea che l'Unione deve essere in prima linea nel sostenere gli sforzi multilaterali per discutere, nel quadro del gruppo di esperti governativi della Convenzione delle Nazioni Unite sulle armi convenzionali e negli altri consessi pertinenti, un quadro normativo internazionale efficace capace di garantire un controllo umano significativo sui sistemi d'arma autonomi al fine di padroneggiare tali tecnologie, stabilendo processi ben definiti e basati su parametri di riferimento e adottando una legislazione per il loro uso etico, in consultazione con le parti interessate del settore militare, dell'industria, delle autorità di contrasto, del mondo accademico e della società civile, per comprendere gli aspetti etici correlati e per mitigare i rischi intrinseci di tali tecnologie e impedirne l'impiego a fini dolosi;

143.

riconosce il ruolo della NATO nel promuovere la sicurezza euro-atlantica e caldeggia una cooperazione in seno a tale organizzazione ai fini della definizione di norme comuni e dell'interoperabilità dei sistemi di IA nel settore della difesa; sottolinea che le relazioni transatlantiche sono importanti per preservare i valori condivisi e contrastare le minacce future ed emergenti;

144.

sottolinea l'importanza dell'elaborazione di un codice etico di condotta che disciplini l'uso dei sistemi basati sull'IA e dotati di armi nelle operazioni militari e che sia simile al quadro normativo esistente che vieta l'impiego di armi chimiche e biologiche; è del parere che la Commissione dovrebbe procedere alla definizione di norme sull'uso in guerra dei sistemi d'arma basati sull'IA conformemente al diritto internazionale umanitario, e ritiene che l'Unione dovrebbe perseguire l'adozione di tali norme a livello internazionale; ritiene che l'Unione dovrebbe partecipare ai consessi internazionali della diplomazia dell'IA insieme ai partner animati dagli stessi principi, come il G7, il G20 e l'OCSE;

Considerazioni conclusive

145.

conclude, alla luce delle summenzionate osservazioni sugli aspetti legati alla dimensione etica dell'intelligenza artificiale, della robotica e delle tecnologie correlate, che le dimensioni giuridica ed etica dovrebbero essere sancite in un quadro normativo efficace, lungimirante e globale a livello di Unione, sostenuto dalle autorità di controllo competenti, coordinato e rafforzato dalla Commissione e/o dalle istituzioni, dagli organi e dagli organismi competenti dell'Unione che potrebbero essere designati in tale contesto, regolarmente supportato dal summenzionato centro di competenze sopra menzionato e debitamente rispettato e certificato nel mercato interno;

146.

chiede, in conformità della procedura di cui all'articolo 225 del trattato sul funzionamento dell'Unione europea, che la Commissione presenti una proposta di regolamento sui principi etici relativi allo sviluppo, alla diffusione e all'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, a norma dell'articolo 114 del trattato sul funzionamento dell'Unione europea e sulla base delle raccomandazioni particolareggiate figuranti in allegato; sottolinea che la proposta non dovrebbe pregiudicare le normative settoriali, ma colmare unicamente le lacune individuate;

147.

raccomanda alla Commissione, dopo essersi consultata con tutte le pertinenti parti interessate, di procedere a un riesame, ove necessario, del diritto dell'Unione applicabile all'intelligenza artificiale, alla robotica e alle tecnologie correlate al fine di affrontare il rapido sviluppo delle stesse in linea con le raccomandazioni figuranti in allegato, evitando un'eccessiva regolamentazione, anche per le PMI;

148.

ritiene che una valutazione periodica e un riesame, ove necessario, del quadro normativo dell'Unione relativo all'intelligenza artificiale, alla robotica e alle tecnologie correlate saranno essenziali per assicurarsi che le norme applicabili siano al passo con i progressi tecnologici in rapida evoluzione;

149.

ritiene che la proposta legislativa richiesta avrebbe incidenze finanziarie laddove un eventuale organismo europeo venisse incaricato delle mansioni di coordinamento sopra descritte e ad esso venissero assegnate le risorse tecniche e umane necessarie all'assolvimento dei suoi nuovi compiti;

o

o o

150.

incarica il suo Presidente di trasmettere la presente risoluzione e le raccomandazioni particolareggiate figuranti in allegato alla Commissione e al Consiglio.

(1)  GU L 252 dell'8.10.2018, pag. 1.

(2)  GU L 180 del 19.7.2000, pag. 22.

(3)  GU L 303 del 2.12.2000, pag. 16.

(4)  GU L 119 del 4.5.2016, pag. 1.

(5)  GU L 119 del 4.5.2016, pag. 89.

(6)  GU L 123 del 12.5.2016, pag. 1.

(7)  GU C 252 del 18.7.2018, pag. 239.

(8)  GU C 307 del 30.8.2018, pag. 163.

(9)  GU C 433 del 23.12.2019, pag. 86.

(10)  Testi approvati, P8_TA(2018)0332.

(11)  Testi approvati, P8_TA(2019)0081.

(12)  https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654179

(13)  Direttiva (UE) 2019/882 del Parlamento europeo e del Consiglio, del 17 aprile 2019, sui requisiti di accessibilità dei prodotti e dei servizi (GU L 151 del 7.6.2019, pag. 70).

(14)  Decisione n. 768/2008/CE del Parlamento europeo e del Consiglio, del 9 luglio 2008, relativa a un quadro comune per la commercializzazione dei prodotti e che abroga la decisione 93/465/CEE (GU L 218 del 13.8.2008, pag. 82).


ALLEGATO ALLA RISOLUZIONE:

RACCOMANDAZIONI PARTICOLAREGGIATE CONCERNENTI IL CONTENUTO DELLA PROPOSTA RICHIESTA

A.   PRINCIPI E OBIETTIVI DELLA PROPOSTA RICHIESTA

I.

I principi e gli obiettivi principali della proposta richiesta sono:

creare fiducia a tutti i livelli delle parti interessate e della società nei confronti dell'intelligenza artificiale, della robotica e delle tecnologie correlate, in particolare laddove queste siano considerate ad alto rischio;

sostenere lo sviluppo dell'intelligenza artificiale, della robotica e delle tecnologie correlate nell'Unione, anche aiutando le aziende, le start-up e le piccole e medie imprese a valutare e affrontare con certezza i requisiti normativi e i rischi attuali e futuri durante il processo di innovazione e sviluppo aziendale e durante la successiva fase di utilizzo da parte di professionisti e individui privati, riducendo al minimo gli oneri amministrativi e gli adempimenti burocratici;

sostenere la diffusione dell'intelligenza artificiale, della robotica e delle tecnologie correlate nell'Unione fornendo un quadro normativo appropriato e proporzionato da applicare fatta salva la normativa settoriale vigente o futura, nell'ottica di incentivare la certezza normativa e l'innovazione, garantendo nel contempo la tutela dei diritti fondamentali e la protezione dei consumatori;

sostenere l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate nell'Unione, garantendo che tali tecnologie siano sviluppate, diffuse e utilizzate in maniera conforme ai principi etici;

chiedere trasparenza e migliori flussi di informazione tra i cittadini e all'interno delle organizzazioni che sviluppano, diffondono o utilizzano l'intelligenza artificiale, la robotica e le tecnologie correlate, al fine di garantire che tali tecnologie siano conformi alla normativa, ai diritti fondamentali e ai valori dell'Unione nonché ai principi etici della proposta di regolamento richiesta.

II.

La proposta si compone dei seguenti elementi:

un «regolamento sui principi etici per lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate»;

il ruolo di coordinamento a livello di Unione assicurato dalla Commissione e/o dalle istituzioni, dagli organi e dagli organismi competenti dell'Unione che potrebbero essere designati in tale contesto e una certificazione europea di conformità etica;

il ruolo di sostegno della Commissione europea;

il ruolo dell'«Autorità di controllo» in ciascuno Stato membro per garantire l'applicazione dei principi etici all'intelligenza artificiale, alla robotica e alle tecnologie correlate;

il coinvolgimento e la consultazione dei pertinenti progetti di ricerca e sviluppo e dei soggetti interessati, incluse start-up, piccole e medie imprese, aziende, parti sociali e altri rappresentanti della società civile, nonché la fornitura di sostegno agli stessi;

un allegato contenente un elenco esaustivo e cumulativo dei settori ad alto rischio così come degli usi e delle finalità ad alto rischio;

III.

Il «regolamento sui principi etici per lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate» si basa sui principi seguenti:

un'intelligenza artificiale, una robotica e tecnologie correlate antropocentriche, realizzate e controllate dall'uomo;

una valutazione obbligatoria della conformità dell'intelligenza artificiale, della robotica e delle tecnologie correlate ad alto rischio;

sicurezza, trasparenza e responsabilità;

garanzie e mezzi di ricorso contro le distorsioni e le discriminazioni;

il diritto di ricorso;

la responsabilità sociale e la parità di genere nell'ambito dell'intelligenza artificiale, della robotica e delle tecnologie correlate;

un'intelligenza artificiale, una robotica e tecnologie correlate sostenibili sul piano ambientale;

il rispetto della vita privata e restrizioni all'utilizzo del riconoscimento biometrico;

una buona governance in materia di intelligenza artificiale, robotica e tecnologie correlate, inclusi i dati utilizzati o prodotti da tali tecnologie.

IV.

Ai fini del coordinamento a livello di Unione, la Commissione e/o le istituzioni, gli organi e gli organismi competenti dell'Unione che potrebbero essere designati in tale contesto dovrebbero svolgere i seguenti compiti principali:

cooperare al monitoraggio dell'attuazione della proposta di regolamento richiesta e della pertinente normativa settoriale dell'Unione;

cooperare per quanto riguarda la pubblicazione di orientamenti relativi all'applicazione coerente della proposta di regolamento richiesta, vale a dire l'applicazione dei criteri in base ai quali l'intelligenza artificiale, la robotica e le tecnologie correlate vanno classificate ad alto rischio e l'elenco dei settori ad alto rischio e degli usi e delle finalità ad alto rischio di cui all'allegato del regolamento;

cooperare con l'«Autorità di controllo» di ciascuno Stato membro per quanto riguarda l'elaborazione di un certificato europeo di conformità ai principi etici e agli obblighi giuridici stabiliti nella proposta di regolamento richiesta e nel pertinente diritto dell'Unione, nonché per quanto riguarda l'elaborazione di una procedura per la presentazione delle domande da parte di qualsiasi sviluppatore, operatore o utente di tecnologie ritenute non ad alto rischio che desideri certificarne la conformità alla proposta di regolamento richiesta;

cooperare per quanto riguarda il sostegno alla cooperazione intersettoriale e transfrontaliera attraverso scambi regolari con le parti interessate e la società civile nell'UE e nel mondo, in particolare con le aziende, le parti sociali, i ricercatori e le autorità competenti, anche relativamente allo sviluppo di norme tecniche a livello internazionale;

cooperare con l'«Autorità di controllo» di ciascuno Stato membro per definire orientamenti vincolanti sulla metodologia da seguire per la valutazione della conformità che ciascuna «Autorità di controllo» deve effettuare;

cooperare per mantenere i contatti con l'«Autorità di controllo» di ciascuno Stato membro e coordinarne il mandato e i compiti;

cooperare per sensibilizzare, fornire informazioni e avviare scambi di opinioni con sviluppatori, operatori e utenti in tutta l'Unione;

cooperare per sensibilizzare, fornire informazioni, promuovere l'alfabetizzazione, la formazione e le competenze digitali e avviare scambi di opinioni con progettisti, sviluppatori, operatori, cittadini, utenti e organismi istituzionali in tutta l'Unione e a livello internazionale;

cooperare per quanto concerne il coordinamento di un quadro comune per la governance dello sviluppo, della diffusione e dell'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, che dovrà essere attuato dall'«Autorità di controllo» di ciascuno Stato membro;

cooperare per fungere da centro di competenze promuovendo lo scambio di informazioni e sostenendo lo sviluppo di un'intesa comune nel mercato unico;

cooperare per ospitare un gruppo di lavoro sulla sicurezza e la difesa.

V.

Inoltre, la Commissione dovrebbe svolgere i seguenti compiti:

redigere e aggiornare successivamente, mediante atti delegati, un elenco comune delle tecnologie ad alto rischio individuate all'interno dell'Unione in cooperazione con l'«Autorità di controllo» di ciascuno Stato membro;

aggiornare, mediante atti delegati, l'elenco contenuto nell'allegato del regolamento.

VI.

L'«Autorità di controllo» di ciascuno Stato membro dovrebbe svolgere i seguenti compiti principali:

contribuire all'applicazione coerente del quadro normativo stabilito nella proposta di regolamento richiesta in cooperazione con l'«Autorità di controllo» degli altri Stati membri, nonché con le altre autorità responsabili dell'attuazione della normativa settoriale, la Commissione e/o le istituzioni, gli organi e gli organismi competenti dell'Unione che potrebbero essere designati in tale contesto, in particolare per quanto riguarda l'applicazione dei criteri di valutazione del rischio previsti nella proposta di regolamento richiesta e dell'elenco dei settori ad alto rischio e degli usi e delle finalità ad alto rischio di cui al relativo allegato, nonché la conseguente vigilanza sull'attuazione delle misure opportune e necessarie laddove, grazie a tale applicazione, vengano individuate tecnologie ad alto rischio;

valutare se l'intelligenza artificiale, la robotica e le tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, che sono sviluppate, diffuse o utilizza nell'Unione sono da ritenersi tecnologie ad alto rischio conformemente ai criteri di valutazione del rischio definiti nella proposta di regolamento richiesta e nell'elenco contenuto nel suo allegato;

rilasciare un certificato europeo di conformità ai principi etici e agli obblighi giuridici stabiliti nella proposta di regolamento richiesta e nel pertinente diritto dell'Unione, anche a seguito di una procedura di domanda da parte di qualsiasi sviluppatore, operatore o utente di tecnologie ritenute non ad alto rischio che desideri certificarne la conformità alla proposta di regolamento richiesta, quale elaborata dalla Commissione e/o dalle istituzioni, dagli organi e dagli organismi competenti dell'Unione che potrebbero essere designati in tale contesto;

valutare e monitorare la loro conformità ai principi etici e agli obblighi giuridici stabiliti nella proposta di regolamento richiesta e nel pertinente diritto dell'Unione;

essere responsabile dell'elaborazione e dell'attuazione di norme di governance dell'intelligenza artificiale, della robotica e delle tecnologie correlate, tra l'altro instaurando e sostenendo un dialogo periodico con tutte le parti interessate e tutti i rappresentanti della società civile; cooperare, a tal fine, con la Commissione e/o le istituzioni, gli organi e/o gli organismi competenti dell'Unione che potrebbero essere designati in tale contesto per quanto concerne il coordinamento di un quadro comune a livello di Unione;

sensibilizzare, fornire informazioni al pubblico sull'intelligenza artificiale, la robotica e le tecnologie correlate e sostenere la formazione delle professioni pertinenti, anche nel settore giudiziario, assicurando in tal modo ai cittadini e ai lavoratori l'alfabetizzazione digitale e fornendo loro le competenze e gli strumenti necessari per una transizione equa;

fungere da primo punto di contatto nel caso di una sospetta violazione degli obblighi giuridici e dei principi etici stabiliti nella proposta di regolamento richiesta ed effettuare una valutazione della conformità in tali casi; nel contesto di tale valutazione della conformità, l'Autorità può consultare e/o informare le altre autorità competenti dell'Unione, in particolare la rete di cooperazione per la tutela dei consumatori, gli organismi nazionali per la tutela dei consumatori, le organizzazioni della società civile e le parti sociali.

VII.

Il ruolo principale delle parti interessate dovrebbe consistere nel cooperare con la Commissione e/o le istituzioni, gli organi e gli organismi competenti dell'Unione che potrebbero essere designati in tale contesto e con l'«Autorità di controllo» di ciascuno Stato membro.

B.   TESTO DELLA PROPOSTA LEGISLATIVA RICHIESTA

Proposta di

REGOLAMENTO DEL PARLAMENTO EUROPEO E DEL CONSIGLIO

sui principi etici per lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate

IL PARLAMENTO EUROPEO E IL CONSIGLIO DELL'UNIONE EUROPEA,

visto il trattato sul funzionamento dell'Unione europea, in particolare l'articolo 114,

vista la proposta della Commissione europea,

previa trasmissione del progetto di atto legislativo ai parlamenti nazionali,

visto il parere del Comitato economico e sociale europeo,

deliberando secondo la procedura legislativa ordinaria,

considerando quanto segue:

(1)

Lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, dovrebbero essere basati sulla volontà di servire la società. Dette tecnologie possono comportare opportunità e rischi, che dovrebbero essere affrontati e disciplinati da un quadro normativo globale a livello dell'Unione che rifletta i principi etici da rispettare dal momento dello sviluppo e della diffusione di tali tecnologie fino al loro utilizzo.

(2)

La conformità a tale quadro normativo per quanto riguarda lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, all'interno dell'Unione dovrebbe essere di un livello equivalente in tutti gli Stati membri, al fine di cogliere efficacemente le opportunità e affrontare in modo coerente i rischi di tali tecnologie nonché evitare la frammentazione normativa. È opportuno garantire l'applicazione omogenea delle norme stabilite nel presente regolamento in tutta l'Unione.

(3)

In tale contesto, l'attuale diversità delle norme e delle prassi da seguire in tutta l'Unione comporta un rischio di frammentazione significativo del mercato unico così come un rischio per la protezione del benessere e della prosperità dei singoli e della società e per uno studio coerente del pieno potenziale che l'intelligenza artificiale, la robotica e le tecnologie correlate hanno ai fini della promozione dell'innovazione e della tutela del benessere e della prosperità. Differenze nel grado di considerazione, da parte di sviluppatori, operatori e utenti, della dimensione etica intrinseca a tali tecnologie possono impedire che queste ultime siano liberamente sviluppate, diffuse o utilizzate all'interno dell'Unione e possono costituire un ostacolo alla parità di condizioni, al perseguimento del progresso tecnologico e all'esercizio di attività economiche a livello dell'Unione, distorcere la concorrenza e ostacolare le autorità nell'adempimento dei loro obblighi ai sensi del diritto dell'Unione. Inoltre, l'assenza di un quadro normativo comune, che rifletta i principi etici, per lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, determina incertezza giuridica per tutti i soggetti coinvolti, in particolare gli sviluppatori, gli operatori e gli utenti.

(4)

Tuttavia, pur contribuendo a un approccio coerente a livello di Unione e nei limiti definiti, il presente regolamento dovrebbe lasciare agli Stati membri un margine per l'attuazione di provvedimenti, anche per quanto riguarda le modalità di esecuzione del mandato della rispettiva autorità nazionale di controllo in vista dell'obiettivo da perseguire quale stabilito nel presente regolamento.

(5)

Il presente regolamento lascia impregiudicata la normativa settoriale vigente o futura. Esso dovrebbe essere proporzionato rispetto all'obiettivo perseguito, in modo da non ostacolare indebitamente l'innovazione nell'Unione ed essere conforme a un approccio basato sul rischio.

(6)

L'ambito di applicazione geografico di tale quadro dovrebbe coprire tutti gli aspetti dell'intelligenza artificiale, della robotica e delle tecnologie correlate durante tutte le fasi di sviluppo, diffusione e utilizzo nell'Unione, anche nei casi in cui una parte delle tecnologie possa essere situata al di fuori dell'Unione o non avere una sede unica o specifica, come nel caso dei servizi di cloud computing.

(7)

È necessaria un'interpretazione comune nell'Unione di nozioni quali intelligenza artificiale, robotica, tecnologie correlate e riconoscimento biometrico, al fine di consentire un approccio normativo unificato, garantendo così certezza giuridica ai cittadini e alle imprese. Dovrebbero essere tecnologicamente neutre e soggette a riesame quando necessario.

(8)

Inoltre, occorre tenere presente il fatto che esistono tecnologie correlate all'intelligenza artificiale e alla robotica che consentono al software di controllare processi fisici o virtuali con un grado variabile di autonomia (1). A titolo di esempio, per la guida automatizzata dei veicoli, la norma J3016 di SAE International ha proposto sei livelli di automazione.

(9)

Lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, dovrebbero integrare le capacità umane e non sostituirsi ad esse, ma anche garantire che la loro attuazione non sia in contrasto con l'interesse superiore dei cittadini e rispetti il diritto dell'Unione, i diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea («la Carta»), la giurisprudenza consolidata della Corte di giustizia dell'Unione europea e altri strumenti europei e internazionali vigenti nell'Unione.

(10)

Le decisioni prese o influenzate dall'intelligenza artificiale, dalla robotica e dalle tecnologie correlate dovrebbero rimanere soggette a un riesame, una valutazione, un intervento e un controllo significativi da parte dell'uomo. La complessità tecnica e operativa di tali tecnologie non dovrebbe mai impedire all'operatore o all'utente di poter, come minimo, disattivarle in modo sicuro, alterare o arrestare le loro operazioni ovvero tornare a uno stato precedente per ripristinare funzionalità sicure nei casi in cui sia a rischio il rispetto del diritto dell'Unione, dei principi etici e degli obblighi giuridici stabiliti nel presente regolamento.

(11)

È opportuno considerare ad alto rischio l'intelligenza artificiale, la robotica e le tecnologie correlate il cui sviluppo, la cui diffusione e il cui utilizzo comportino un rischio significativo di causare lesioni o danni agli individui o alla società, in violazione dei diritti fondamentali e delle norme di sicurezza di cui al diritto dell'Unione. Al fine di valutare se tali tecnologie comportino un rischio simile, è auspicabile tenere conto del settore in cui sono sviluppate, diffuse o utilizzate, del loro uso o scopo specifico e della gravità della lesione o del danno che si potrebbe verificare. Il livello di gravità dovrebbe essere accertato sulla base dell'entità della lesione o del danno potenziale, del numero di persone interessate, del valore totale del pregiudizio causato e del danno inflitto alla società nel suo insieme. Le tipologie gravi di lesione e danno sono, a titolo di esempio, le violazioni dei diritti dei minori, dei consumatori o dei lavoratori che, a causa della loro portata, del numero di bambini, consumatori o lavoratori colpiti o del loro impatto sulla società nel suo complesso, comportano un rischio significativo di violazione dei diritti fondamentali e delle norme di sicurezza di cui al diritto dell'Unione. Il presente regolamento dovrebbe fornire un elenco esaustivo e cumulativo dei settori ad alto rischio e degli usi e delle finalità ad alto rischio.

(12)

Gli obblighi stabiliti nel presente regolamento, in particolare quelli riguardanti le tecnologie ad alto rischio, dovrebbero applicarsi solo all'intelligenza artificiale, alla robotica e alle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, che sono sviluppate, diffuse o utilizzate nell'Unione e che, a seguito della valutazione del rischio di cui al presente regolamento, sono considerate ad alto rischio. Tali obblighi devono essere rispettati fatto salvo l'obbligo generale secondo cui l'intelligenza artificiale, la robotica e le tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, devono essere sviluppate, diffuse e utilizzate nell'Unione in modo antropocentrico e sulla base dei principi dell'autonomia umana e della sicurezza umana, conformemente al diritto dell'Unione e nel pieno rispetto dei diritti fondamentali quali la dignità umana, il diritto alla libertà e alla sicurezza e il diritto all'integrità della persona.

(13)

Le tecnologie ad alto rischio dovrebbero rispettare i principi di sicurezza, trasparenza, responsabilità, assenza di distorsioni e di discriminazioni, responsabilità sociale e parità di genere, diritto di ricorso, sostenibilità ambientale, tutela della vita privata e buona governance, a seguito di una valutazione del rischio imparziale, obiettiva ed esterna da parte dell'autorità nazionale di controllo conformemente ai criteri di cui al presente regolamento e all'elenco di cui al relativo allegato. Tale valutazione dovrebbe tenere conto delle opinioni e di eventuali autovalutazioni effettuate dallo sviluppatore o dall'operatore.

(14)

La Commissione e/o le istituzioni, gli organi e gli organismi competenti dell'Unione che potrebbero essere designati a tal fine dovrebbero elaborare orientamenti di attuazione non vincolanti per gli sviluppatori, gli operatori e gli utenti sulla metodologia ai fini della conformità al presente regolamento. Nell'elaborazione di tali orientamenti, essi dovrebbero consultare le pertinenti parti interessate.

(15)

È opportuno assicurare coerenza all'interno dell'Unione per quanto riguarda la valutazione del rischio di tali tecnologie, in particolare quando queste ultime sono valutate sia alla luce del presente regolamento sia in conformità di qualsiasi normativa settoriale applicabile. Di conseguenza, laddove a seguito della valutazione del rischio di cui al presente regolamento tali tecnologie risultino ad alto rischio, le autorità nazionali di controllo dovrebbero informare al riguardo le altre autorità che effettuano valutazioni del rischio in conformità di qualsiasi normativa settoriale.

(16)

Per essere affidabili, l'intelligenza artificiale, la robotica e le tecnologie correlate ad alto rischio, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, dovrebbero essere sviluppate, diffuse e utilizzate in modo sicuro, trasparente e responsabile, in conformità alle caratteristiche di sicurezza quali solidità, resilienza, sicurezza, precisione e individuazione degli errori, spiegabilità, interpretabilità, verificabilità, trasparenza e identificabilità, e in modo che sia possibile disattivare le funzionalità in questione ovvero tornare a uno stato precedente per ripristinare funzionalità sicure in caso di mancato rispetto di tali caratteristiche. La trasparenza dovrebbe essere garantita consentendo l'accesso da parte delle autorità pubbliche, ove strettamente necessario, alla tecnologia, ai dati e ai sistemi informatici alla base di tali tecnologie.

(17)

Gli sviluppatori, gli operatori e gli utenti dell'intelligenza artificiale, della robotica e delle tecnologie correlate, in particolare quelle ad alto rischio, sono responsabili, a titoli diversi, del rispetto dei principi di sicurezza, trasparenza e responsabilità nella misura in cui partecipano alle tecnologie in questione, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie. Gli sviluppatori dovrebbero garantire che le tecnologie in questione siano progettate e costruite in linea con le caratteristiche di sicurezza di cui al presente regolamento, mentre gli operatori e gli utenti dovrebbero diffondere e utilizzare le tecnologie in questione nel pieno rispetto di tali caratteristiche. A tal fine, gli sviluppatori di tecnologie ad alto rischio dovrebbero valutare e prevedere i rischi di abuso che ci si può ragionevolmente attendere riguardo alle tecnologie da essi sviluppate. Essi devono inoltre garantire che i sistemi sviluppati indichino, per quanto possibile e attraverso mezzi adeguati, quali messaggi di esclusione di responsabilità, la probabilità di errori o imprecisioni.

(18)

Gli sviluppatori e gli operatori dovrebbero mettere a disposizione degli utenti qualsiasi successivo aggiornamento delle tecnologie in questione, in particolare in termini di software, secondo quanto stabilito dal contratto o sancito dalla normativa nazionale o dell'Unione. Inoltre, qualora la valutazione del rischio dia indicazioni in tal senso, gli sviluppatori e gli operatori dovrebbero fornire alle autorità pubbliche la documentazione pertinente sull'uso delle tecnologie in questione e le istruzioni di sicurezza al riguardo, compresi, ove strettamente necessario e nel pieno rispetto del diritto dell'Unione in materia di protezione dei dati, tutela della vita privata e diritti di proprietà intellettuale e segreti commerciali, il codice sorgente, gli strumenti di sviluppo e i dati utilizzati dal sistema.

(19)

Gli individui hanno il diritto di attendersi che la tecnologia utilizzata funzioni in modo ragionevole e rispetti la loro fiducia. La fiducia che i cittadini ripongono nell'intelligenza artificiale, nella robotica e nelle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, dipende dalla comprensione e dalla conoscenza dei processi tecnici. Il grado di spiegabilità di tali processi dovrebbe dipendere dal contesto di tali processi tecnici e dalla gravità delle conseguenze di un risultato errato o impreciso, e deve essere sufficiente per poterli impugnare e chiedere un risarcimento. La verificabilità, la tracciabilità e la trasparenza dovrebbero sopperire all'eventuale inintelligibilità di tali tecnologie.

(20)

La fiducia della società nell'intelligenza artificiale, nella robotica e nelle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, dipende dal grado di valutazione, verificabilità e tracciabilità consentito per le tecnologie in questione. Laddove la misura della loro partecipazione lo richieda, gli sviluppatori dovrebbero garantire che tali tecnologie siano concepite e costruite in modo tale da consentire tale valutazione, verifica e tracciabilità. Nei limiti di quanto tecnicamente possibile, gli sviluppatori, gli operatori e gli utenti dovrebbero garantire che l'intelligenza artificiale, la robotica le tecnologie correlate siano diffuse e utilizzate nel pieno rispetto dei requisiti di trasparenza e in modo da consentirne la verifica e la tracciabilità.

(21)

Per assicurare trasparenza e responsabilità, i cittadini dovrebbero essere informati quando un sistema utilizza l'intelligenza artificiale, quando i sistemi di intelligenza artificiale personalizzano un prodotto o un servizio per i loro utenti e sussiste la possibilità di disattivare o limitare tale personalizzazione e quando un sistema si avvale di un processo decisionale automatizzato. Inoltre, le misure di trasparenza dovrebbero essere accompagnate, ove tecnicamente possibile, da spiegazioni chiare e comprensibili in merito ai dati utilizzati, all'algoritmo, al suo scopo, ai suoi risultati e ai suoi potenziali pericoli.

(22)

Le distorsioni contenute nei software, negli algoritmi e nei dati e le discriminazioni da essi create sono illecite e dovrebbero essere affrontate disciplinando i processi mediante i quali essi sono progettati e diffusi. Le distorsioni possono derivare sia da decisioni influenzate o prese da un sistema automatizzato sia dagli insiemi di dati utilizzati per addestrare il sistema o su cui la decisione si basa.

(23)

I software, gli algoritmi e i dati utilizzati o prodotti dall'intelligenza artificiale, dalla robotica e dalle tecnologie correlate dovrebbero essere considerati distorti se, per esempio, mostrano risultati non ottimali in relazione a qualsiasi persona o gruppo di persone, sulla base di una percezione inficiata da pregiudizio personale o sociale e del successivo trattamento dei dati relativi alle loro caratteristiche.

(24)

In linea con il diritto dell'Unione, i software, gli algoritmi e i dati utilizzati o prodotti dall'intelligenza artificiale, dalla robotica e dalle tecnologie correlate dovrebbero essere considerati discriminatori se producono risultati capaci di avere effetti negativi sproporzionati o di provocare differenze di trattamento di una persona o un gruppo di persone, anche ponendoli in una situazione di svantaggio rispetto ad altri, in base a motivi quali le caratteristiche personali, senza una giustificazione oggettiva o ragionevole e indipendentemente da eventuali rivendicazioni di neutralità delle tecnologie.

(25)

In linea con il diritto dell'Unione, le finalità legittime che, in virtù del presente regolamento, potrebbero essere considerate tali da giustificare oggettivamente qualsiasi disparità di trattamento tra persone o gruppi di persone sono: la tutela della sicurezza pubblica, dell'incolumità pubblica e della salute pubblica, la prevenzione dei reati, la protezione dei diritti e delle libertà fondamentali, una rappresentanza equa e requisiti obiettivi per l'esercizio di un'attività professionale.

(26)

L'intelligenza artificiale, la robotica e le tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, dovrebbero contribuire a un progresso sostenibile. Tali tecnologie non dovrebbero essere in contrasto con l'obiettivo della salvaguardia dell'ambiente o della transizione verde. Esse possono svolgere un ruolo importante nel conseguimento degli obiettivi di sviluppo sostenibile delle Nazioni Unite nell'ottica di consentire alle generazioni future di prosperare. Tali tecnologie possono contribuire al monitoraggio di progressi adeguati sulla base di indicatori di sostenibilità e coesione sociale nonché utilizzando strumenti di ricerca e innovazione responsabili, che richiedono la mobilitazione di risorse da parte dell'Unione e dei suoi Stati membri per sostenere e investire in progetti volti a conseguire tali obiettivi.

(27)

Lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, non dovrebbero in nessun caso provocare intenzionalmente o accettare fin dalla progettazione lesioni o danni di alcun tipo agli individui o alla società. Di conseguenza, le tecnologie ad alto rischio dovrebbero essere sviluppate, diffuse e utilizzate in modo socialmente responsabile.

(28)

Pertanto, gli sviluppatori, gli operatori e gli utenti dovrebbero essere ritenuti responsabili, nella misura della loro partecipazione all'intelligenza artificiale, alla robotica e alle tecnologie correlate in questione e conformemente alle norme dell'Unione e nazionali sulla responsabilità, per qualsiasi lesione o danno inflitto agli individui o alla società.

(29)

In particolare, gli sviluppatori che adottano decisioni che determinano e controllano il corso o le modalità di sviluppo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, nonché gli operatori che partecipano alla loro diffusione adottando decisioni in merito a tale diffusione ed esercitando il controllo sui rischi associati o traendo vantaggio da tale diffusione, con una funzione di controllo o di gestione, dovrebbero essere generalmente considerati responsabili per evitare il verificarsi di tali lesioni o danni, rispettivamente adottando misure adeguate durante il processo di sviluppo e rispettando appieno tali misure durante la fase di diffusione.

(30)

Un'intelligenza artificiale, una robotica e tecnologie correlate improntate alla responsabilità sociale, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, possono essere definiti come tecnologie capaci di contribuire a trovare soluzioni che tutelano e promuovono diverse finalità concernenti la società, in particolare la democrazia, la salute e la prosperità economica, la parità di opportunità, i diritti sociali e dei lavoratori, la pluralità e l'indipendenza dei media e l'obiettività e la disponibilità delle informazioni, che consentono un dibattito pubblico, la qualità dell'istruzione, la diversità culturale e linguistica, l'equilibrio di genere, l'alfabetizzazione digitale, l'innovazione e la creatività. In tale categoria rientrano anche le tecnologie sviluppate, diffuse e utilizzate tenendo nel debito conto il loro impatto finale sul benessere fisico e mentale dei cittadini, nonché quelle che non promuovono l'incitamento all'odio o la violenza. Tali finalità dovrebbero essere conseguite in particolare mediante tecnologie ad alto rischio.

(31)

L'intelligenza artificiale, la robotica e le tecnologie correlate dovrebbero essere sviluppate, diffuse e utilizzate anche al fine di sostenere l'inclusione sociale, la democrazia, la pluralità, la solidarietà, l'equità, l'uguaglianza e la cooperazione, e il loro potenziale in tale contesto dovrebbe essere massimizzato e studiato attraverso progetti di ricerca e innovazione. L'Unione e i suoi Stati membri dovrebbero pertanto mobilitare le rispettive risorse finanziarie, amministrative e di comunicazione al fine di sostenere tali progetti e investire in questi ultimi.

(32)

I progetti relativi alle potenzialità dell'intelligenza artificiale, della robotica e delle tecnologie correlate di affrontare la questione del benessere sociale dovrebbero essere realizzati sulla base di strumenti di ricerca e innovazione responsabili, al fine di garantire fin dall'inizio il rispetto dei principi etici da parte di tali progetti.

(33)

Lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, dovrebbero tenere in considerazione la loro impronta ambientale. In linea con gli obblighi stabiliti dal diritto dell'Unione applicabile, tali tecnologie non dovrebbero causare danni all'ambiente durante il loro ciclo di vita e lungo l'intera catena di approvvigionamento e dovrebbero essere sviluppate, diffuse e utilizzate in modo da preservare l'ambiente, attenuare e correggere la loro impronta ambientale, contribuire alla transizione verde e sostenere il conseguimento degli obiettivi di neutralità climatica e di economia circolare.

(34)

Ai fini del presente regolamento, gli sviluppatori, gli operatori e gli utenti dovrebbero essere ritenuti responsabili, nella misura della loro rispettiva partecipazione allo sviluppo, alla diffusione o all'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate considerate ad alto rischio, per qualsiasi danno causato all'ambiente, conformemente alle norme applicabili in materia di responsabilità ambientale.

(35)

Tali tecnologie dovrebbero essere sviluppate, diffuse e utilizzate anche al fine di sostenere il conseguimento degli obiettivi ambientali in linea con gli obblighi stabiliti dal diritto dell'Unione applicabile, quali la riduzione della produzione di rifiuti, la diminuzione dell'impronta di carbonio, la lotta al cambiamento climatico e la salvaguardia dell'ambiente, e il loro potenziale in tale contesto dovrebbe essere massimizzato e studiato attraverso progetti di ricerca e innovazione. L'Unione e gli Stati membri dovrebbero pertanto mobilitare le rispettive risorse finanziarie, amministrative e di comunicazione al fine di sostenere tali progetti e investire in questi ultimi.

(36)

I progetti relativi alle potenzialità dell'intelligenza artificiale, della robotica e delle tecnologie correlate di affrontare le questioni ambientali dovrebbero essere realizzati sulla base di strumenti di ricerca e innovazione responsabili, al fine di garantire fin dall'inizio il rispetto dei principi etici da parte di tali progetti.

(37)

L'intelligenza artificiale, la robotica e le tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, che sono sviluppate, diffuse o utilizzate nell'Unione dovrebbero rispettare appieno i diritti dei cittadini alla tutela della vita privata e dei dati personali. In particolare, il loro sviluppo, la loro diffusione e il loro utilizzo dovrebbero essere conformi con il regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio (2) e la direttiva 2002/58/CE del Parlamento europeo e del Consiglio (3).

(38)

Nello specifico, i limiti etici dell'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, dovrebbero essere tenuti in debita considerazione in sede di utilizzo di tecnologie di riconoscimento a distanza, quali il riconoscimento di elementi biometrici, segnatamente il riconoscimento facciale, ai fini dell'identificazione automatica degli individui. Laddove tali tecnologie siano utilizzate dalle autorità pubbliche per motivi di interesse pubblico rilevante, vale a dire per garantire la sicurezza delle persone e affrontare emergenze nazionali, e non per garantire la sicurezza delle proprietà, l'uso dovrebbe sempre essere divulgato, proporzionato, mirato e limitato a obiettivi specifici e limitato nel tempo conformemente al diritto dell'Unione e nel debito rispetto della dignità e dell'autonomia umana e dei diritti fondamentali sanciti dalla Carta. I criteri e i limiti di tale utilizzo dovrebbero essere soggetti a controllo giurisdizionale e sottoposti a un controllo e a un dibattito democratici che coinvolgano la società civile.

(39)

Una governance basata su norme pertinenti migliora la sicurezza e promuove l'aumento della fiducia dei cittadini nello sviluppo, nella diffusione e nell'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie.

(40)

Prima di diffondere tecnologie ad alto rischio che sostengono decisioni adottate nel settore pubblico e che hanno un impatto diretto e significativo sui diritti e i doveri dei cittadini, le autorità pubbliche dovrebbero condurre valutazioni d'impatto in materia di diritti fondamentali.

(41)

Tra le norme pertinenti vigenti in materia di governance figurano, ad esempio, gli «Orientamenti etici per un'IA affidabile» elaborati dal gruppo di esperti ad alto livello sull'intelligenza artificiale istituito dalla Commissione, e altre norme tecniche, come quelle adottate, a livello europeo, dal Comitato europeo di normazione (CEN), dal Comitato europeo di normalizzazione elettrotecnica (Cenelec) e dall'Istituto europeo per le norme di telecomunicazione (ETSI) e, a livello internazionale, dall'Organizzazione internazionale per la normazione (ISO) e dall'Istituto degli ingegneri elettronici ed elettrotecnici (IEEE).

(42)

La condivisione e l'utilizzo di dati da parte di più partecipanti sono questioni sensibili e pertanto lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate dovrebbero essere disciplinati da regole, norme e protocolli pertinenti che rispecchino i requisiti di qualità, integrità, sicurezza, affidabilità, tutela della vita privata e controllo. La strategia di governance dei dati dovrebbe concentrarsi sul trattamento e la condivisione dei dati e l'accesso a questi ultimi, incluse una loro corretta gestione, verificabilità e tracciabilità, e garantire una protezione adeguata dei dati appartenenti a gruppi vulnerabili, tra cui le persone con disabilità, i pazienti, i bambini, le minoranze e i migranti o altri gruppi a rischio di esclusione. Inoltre, gli sviluppatori, gli operatori e gli utenti dovrebbero, ove opportuno, poter contare su indicatori chiave di prestazione nella valutazione dei set di dati che utilizzano, al fine di migliorare l'affidabilità delle tecnologie che sviluppano, diffondono e utilizzano.

(43)

Gli Stati membri dovrebbero nominare un'autorità amministrativa indipendente che funga da autorità di controllo. In particolare, ciascuna autorità nazionale di controllo dovrebbe essere responsabile di individuare l'intelligenza artificiale, la robotica e le tecnologie correlate considerate ad alto rischio alla luce dei criteri di valutazione del rischio previsti dal presente regolamento, nonché di valutare e monitorare la conformità di tali tecnologie agli obblighi di cui al presente regolamento.

(44)

Ciascuna autorità nazionale di controllo dovrebbe inoltre essere responsabile della buona governance di tali tecnologie, con il coordinamento della Commissione e/o delle istituzioni, degli organi o degli organismi competenti dell'Unione che possono essere designati a tal fine. Esse hanno pertanto un ruolo importante da svolgere nel promuovere la fiducia e la sicurezza dei cittadini dell'Unione nonché nel conseguire una società democratica, pluralista ed equa.

(45)

Al fine di valutare le tecnologie ad alto rischio ai sensi del presente regolamento e di monitorare la loro conformità a quest'ultimo, le autorità nazionali di controllo dovrebbero, ove opportuno, cooperare con le autorità responsabili della valutazione e del monitoraggio di tali tecnologie e della verifica della loro conformità alla legislazione settoriale.

(46)

Le autorità nazionali di controllo dovrebbero instaurare una cooperazione sostanziale e regolare tra di loro nonché con la Commissione europea e con altre istituzioni e altri organi e organismi dell'Unione competenti, al fine di garantire un'azione transfrontaliera coerente e consentire uno sviluppo, una diffusione e un utilizzo coerenti di tali tecnologie all'interno dell'Unione, nel rispetto dei principi etici e degli obblighi giuridici stabiliti nel presente regolamento.

(47)

Nel contesto di tale cooperazione e al fine di conseguire la piena armonizzazione a livello dell'Unione, le autorità nazionali di controllo dovrebbero assistere la Commissione nell'elaborazione di un elenco comune ed esaustivo dell'intelligenza artificiale, della robotica e delle tecnologie correlate ad alto rischio, in linea con i criteri previsti nel presente regolamento e nel relativo allegato. È inoltre opportuno sviluppare una procedura per il rilascio di un certificato europeo di conformità etica, inclusa una procedura per la presentazione volontaria delle domande destinata agli sviluppatori, agli operatori o agli utenti di tecnologie considerate non ad alto rischio che desiderino certificare la propria conformità al presente regolamento.

(48)

Le autorità nazionali di controllo dovrebbero garantire l'incontro del massimo numero di parti interessate, tra cui industria, imprese, parti sociali, ricercatori, consumatori e organizzazioni della società civile, e mettere a disposizione un forum pluralistico per la riflessione e lo scambio di opinioni al fine di conseguire conclusioni comprensibili e accurate volte a fungere da guida per la regolamentazione della governance.

(49)

Le autorità nazionali di controllo dovrebbero garantire l'incontro del massimo numero di parti interessate, tra cui industria, imprese, parti sociali, ricercatori, consumatori e organizzazioni della società civile, e mettere a disposizione un forum pluralistico per la riflessione e lo scambio di opinioni, al fine di agevolare la cooperazione e la collaborazione fra le parti interessate, in particolare singoli esperti ed esponenti del mondo accademico, della ricerca, dell'industria e della società civile, e di conseguire conclusioni comprensibili e accurate volte a fungere da guida per la regolamentazione della governance.

(50)

Inoltre, tali autorità nazionali di controllo dovrebbero fornire orientamenti professionali e amministrativi e sostegno agli sviluppatori, agli operatori e agli utenti, in particolare alle piccole e medie imprese o alle start-up, che incontrano difficoltà nel conformarsi ai principi etici e agli obblighi giuridici stabiliti nel presente regolamento.

(51)

La Commissione e/o le istituzioni, gli organi e gli organismi competenti dell'Unione che possono essere designati a tal fine dovrebbero stabilire linee guida vincolanti sulla metodologia utilizzata dalle autorità nazionali di controllo nello svolgimento della loro valutazione della conformità.

(52)

La denuncia di irregolarità porta all'attenzione delle autorità violazioni potenziali e reali del diritto dell'Unione, al fine di prevenire lesioni, danni o pregiudizi che altrimenti si verificherebbero. Inoltre, le procedure di notifica migliorano il flusso di informazioni all'interno delle imprese e delle organizzazioni, attenuando così il rischio di sviluppare prodotti o servizi difettosi o errati. Le imprese e le organizzazioni che sviluppano, diffondono o utilizzano l'intelligenza artificiale, la robotica e le tecnologie correlate, compresi i dati utilizzati o prodotti da tali tecnologie, dovrebbero istituire canali di segnalazione e coloro che segnalano le violazioni dovrebbero essere protetti contro ritorsioni.

(53)

Il rapido sviluppo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, nonché dell'apprendimento tecnico automatico, dei processi di ragionamento e delle altre tecnologie alla base di tale sviluppo è imprevedibile. È pertanto opportuno e necessario istituire un meccanismo di riesame in base al quale, oltre alla relazione sull'applicazione del regolamento, la Commissione presenti periodicamente una relazione concernente l'eventuale modifica dell'ambito di applicazione del presente regolamento.

(54)

Poiché l'obiettivo del presente regolamento, vale a dire l'istituzione di un quadro normativo comune di principi etici e obblighi giuridici per lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate nell'Unione, non può essere conseguito in misura sufficiente dagli Stati membri ma può, a motivo della sua portata e dei suoi effetti, essere conseguito meglio a livello di Unione, quest'ultima può intervenire in base al principio di sussidiarietà sancito dall'articolo 5 del trattato sull'Unione europea. Il presente regolamento si limita a quanto è necessario per conseguire tale obiettivo in ottemperanza al principio di proporzionalità enunciato nello stesso articolo.

(55)

Il coordinamento a livello di Unione di cui al presente regolamento sarebbe conseguito al meglio dalla Commissione e/o dalle istituzioni, dagli organi e dagli organismi competenti dell'Unione che possono essere designati in tale contesto nell'ottica di evitare la frammentazione e garantire l'applicazione coerente del presente regolamento. La Commissione dovrebbe pertanto essere incaricata di trovare una soluzione appropriata per strutturare tale coordinamento a livello di Unione al fine di coordinare i mandati e le azioni delle autorità nazionali di controllo in ciascuno Stato membro, segnatamente valutando il rischio dell'intelligenza artificiale, della robotica e delle tecnologie correlate, istituendo un quadro comune per la governance in relazione allo sviluppo, alla diffusione e all'utilizzo di tali tecnologie, elaborando e rilasciando un certificato di conformità ai principi etici e agli obblighi giuridici di cui al presente regolamento, favorendo scambi regolari con le parti interessate e la società civile e creando un centro di competenze che riunisca singoli esperti ed esponenti del mondo accademico, della ricerca e dell'industria per favorire lo scambio di conoscenze e competenze tecniche, nonché promuovendo l'approccio dell'Unione attraverso la cooperazione internazionale e garantendo una risposta coerente in tutto il mondo per quanto riguarda le opportunità e i rischi inerenti a tali tecnologie.

HANNO ADOTTATO IL PRESENTE REGOLAMENTO:

Capo I

Disposizioni generali

Articolo 1

Finalità

Finalità del presente regolamento è istituire un quadro normativo dell'Unione di principi etici e obblighi giuridici per lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate nell'Unione che sia completo e adeguato alle esigenze future.

Articolo 2

Ambito di applicazione

Il presente regolamento si applica all'intelligenza artificiale, alla robotica e alle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, sviluppati, diffusi o utilizzati nell'Unione.

Articolo 3

Ambito di applicazione geografico

Il presente regolamento si applica all'intelligenza artificiale, alla robotica e alle tecnologie correlate quando ogni parte di esse è sviluppata, diffusa o utilizzata nell'Unione, indipendentemente dal fatto che i software, gli algoritmi o i dati utilizzati o prodotti da tali tecnologie siano situati al di fuori dell'Unione o non abbiano una specifica ubicazione geografica.

Articolo 4

Definizioni

Ai fini del presente regolamento si intende per:

a)

«intelligenza artificiale», un sistema basato su software o integrato in dispositivi hardware che mostra un comportamento intelligente, tra l'altro raccogliendo e trattando dati, analizzando e interpretando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi (4);

b)

«autonomia», un sistema basato sull'intelligenza artificiale che opera interpretando determinati dati forniti e utilizzando una serie di istruzioni predeterminate, senza essere limitato a tali istruzioni, nonostante il comportamento del sistema sia legato e volto al conseguimento dell'obiettivo impartito e ad altre scelte operate dallo sviluppatore in sede di progettazione;

c)

«robotica», tecnologie che consentono a macchine governate automaticamente, riprogrammabili e multiscopo (5) di eseguire azioni nel modo fisico tradizionalmente svolte o avviate da esseri umani, anche ricorrendo a intelligenza artificiale o tecnologie correlate;

d)

«tecnologie correlate», tecnologie che consentono al software di controllare, con un grado di autonomia parziale o integrale, un processo fisico o virtuale, tecnologie in grado di rilevare dati biometrici, genetici o di altro tipo e tecnologie che copiano o altrimenti utilizzano caratteristiche umane;

e)

«alto rischio», rischio significativo associato allo sviluppo, alla diffusione e all'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate di causare lesioni o danni a individui o società in violazione delle norme in materia di diritti fondamentali e sicurezza stabilite dal diritto dell'Unione, in considerazione del loro utilizzo o della loro finalità specifici, del settore nel quale sono sviluppate, diffuse o utilizzate e della gravità della lesione o del danno che ci si può attendere;

f)

«sviluppo», la costruzione e la progettazione di algoritmi, la redazione e la progettazione di software o la raccolta, la conservazione e la gestione di dati allo scopo di creare o addestrare l'intelligenza artificiale, la robotica e le tecnologie correlate, o al fine di creare una nuova applicazione per l'intelligenza artificiale, la robotica e le tecnologie correlate esistenti;

g)

«sviluppatore», la persona fisica o giuridica che prende decisioni volte a determinare e controllare la direzione o la modalità di sviluppo dell'intelligenza artificiale, della robotica e delle tecnologie correlate;

h)

«diffusione», l'esercizio e la gestione dell'intelligenza artificiale, della robotica e delle tecnologie correlate, nonché la loro immissione sul mercato o altra modalità di messa a disposizione degli utenti;

i)

«operatore», la persona fisica o giuridica che partecipa alla diffusione specifica dell'intelligenza artificiale, della robotica e delle tecnologie correlate con una funzione di controllo o di gestione, adottando decisioni, esercitando il controllo sul rischio e beneficiando di tale diffusione;

j)

«utilizzo», ogni azione relativa all'intelligenza artificiale, alla robotica e alle tecnologie correlate, diversa dallo sviluppo o dalla diffusione;

k)

«utente», la persona fisica o giuridica che utilizza l'intelligenza artificiale, la robotica e le tecnologie correlate per finalità diverse dallo sviluppo o dalla diffusione;

l)

«distorsione», qualsiasi percezione personale o sociale inficiata da un pregiudizio da parte di una persona o di un gruppo di persone sulla base delle loro caratteristiche personali;

m)

«discriminazione», qualsiasi trattamento differenziato di una persona o di un gruppo di persone per un motivo privo di giustificazione obiettiva o ragionevole e, pertanto, vietato dal diritto dell'Unione;

n)

«lesione o danno», lesioni fisiche o mentali e danni materiali o immateriali, anche se causati da incitamento all'odio, distorsione, discriminazione o stigmatizzazione, quali perdite economiche o finanziarie, perdite di opportunità di lavoro o di istruzione, indebite restrizioni della libertà di scelta o di espressione o perdite in termini di riservatezza, e qualsivoglia violazione del diritto dell'Unione che arrechi pregiudizio a una persona;

o)

«buona governance», il modo di garantire che gli adeguati e ragionevoli standard e protocolli di comportamento siano adottati e osservati da sviluppatori, operatori e utenti, sulla base di un insieme formale di norme, procedure e valori, e che consenta loro di trattare in modo appropriato le questioni etiche nel momento in cui si presentano o prima che emergano.

Articolo 5

Principi etici dell'intelligenza artificiale, della robotica e delle tecnologie correlate

1.   L'intelligenza artificiale, la robotica e le tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, sono sviluppate, diffuse e utilizzate nell'Unione in conformità del diritto dell'Unione e nel pieno rispetto della dignità, dell'autonomia e della sicurezza umane e degli altri diritti fondamentali sanciti dalla Carta.

2.   Qualsiasi trattamento di dati personali nell'ambito dello sviluppo, della diffusione e dell'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, compresi i dati personali ottenuti da dati non personali e dati biometrici, è effettuato in conformità del regolamento (UE) 2016/679 e della direttiva 2002/58/CE.

3.   L'Unione e i suoi Stati membri incoraggiano progetti di ricerca volti a fornire soluzioni basate sull'intelligenza artificiale, la robotica e le tecnologie correlate che mirino a promuovere l'inclusione sociale, la democrazia, la pluralità, la solidarietà, l'equità, l'uguaglianza e la cooperazione.

Capo II

Obblighi per le tecnologie ad alto rischio

Articolo 6

Obblighi per le tecnologie ad alto rischio

1.   Le disposizioni del presente capo si applicano esclusivamente all'intelligenza artificiale, alla robotica e alle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, sviluppate, diffuse o utilizzate nell'Unione, che sono considerate ad alto rischio.

2.   L'intelligenza artificiale, la robotica e le tecnologie correlate ad alto rischio, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, sono sviluppate, diffuse e utilizzate in modo da garantire che non siano violati i principi etici stabiliti dal presente regolamento.

Articolo 7

Intelligenza artificiale antropocentrica e antropogenica

1.   Le tecnologie dell'intelligenza artificiale ad alto rischio, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, sono sviluppate, diffuse e utilizzate in modo da garantire il pieno controllo umano in qualsiasi momento.

2.   Le tecnologie di cui al paragrafo 1 sono sviluppate, diffuse e utilizzate in modo da consentire, ove necessario, la ripresa del pieno controllo umano, anche mediante la loro alterazione o disattivazione.

Articolo 8

Sicurezza, trasparenza e responsabilità

1.   L'intelligenza artificiale, la robotica e le tecnologie correlate ad alto rischio, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, sono sviluppate, diffuse e utilizzate in modo da garantire che siano:

a)

sviluppate, diffuse e utilizzate in modo resiliente, così da assicurare un livello adeguato di sicurezza, rispettando parametri minimi in materia di cibersicurezza proporzionati al rischio individuato, e da impedire che eventuali vulnerabilità tecniche siano sfruttate a fini dolosi o illeciti;

b)

sviluppate, diffuse e utilizzate in modo sicuro, così da assicurare l'esistenza di garanzie che prevedano un piano e un'azione di ripiego in caso di rischio per la sicurezza;

c)

sviluppate, diffuse e utilizzate in modo tale da garantire prestazioni affidabili, in linea con le ragionevoli aspettative dell'utente, per quanto riguarda il conseguimento degli obiettivi e lo svolgimento delle attività per cui sono state concepite, assicurando tra l'altro che tutte le operazioni siano riproducibili;

d)

sviluppate, diffuse e utilizzate in modo da garantire che gli obiettivi e le attività delle specifiche tecnologie siano realizzati con precisione; laddove non sia possibile evitare inesattezze occasionali, il sistema segnala agli operatori e agli utenti, per quanto possibile e attraverso mezzi adeguati, la probabilità che si verifichino errori e inesattezze;

e)

sviluppate, diffuse e utilizzate in modo facile da spiegare, così da garantire che i processi tecnici delle tecnologie possano essere riesaminati;

f)

sviluppate, diffuse e utilizzate in modo tale da informare gli utenti del fatto che essi interagiscono con sistemi di intelligenza artificiale, riferendo debitamente e in maniera esaustiva le capacità, l'accuratezza e le limitazioni di tali sistemi agli sviluppatori, agli operatori e agli utenti dell'intelligenza artificiale;

g)

sviluppate, diffuse e utilizzate in modo da consentire che, conformemente all'articolo 6, in caso di non conformità alle caratteristiche di sicurezza di cui alle lettere da a) a g), le funzionalità interessate siano temporaneamente disattivate e sia ripristinato uno stato precedente che ristabilisca funzionalità sicure.

2.   Conformemente all'articolo 6, paragrafo 1, del presente articolo, le tecnologie di cui al paragrafo 1, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, sono sviluppate, diffuse e utilizzate in modo trasparente e tracciabile affinché i loro elementi, i loro processi e le loro fasi siano documentati secondo i più elevati standard possibili e applicabili, e affinché sia possibile per le autorità nazionali di controllo di cui all'articolo 18 valutare la conformità di tali tecnologie agli obblighi stabiliti nel presente regolamento. In particolare, gli sviluppatori, gli operatori o gli utenti di tali tecnologie sono responsabili della conformità alle caratteristiche di sicurezza di cui al paragrafo 1 e sono in grado di dimostrarla.

3.   Lo sviluppatore, l'operatore o l'utente delle tecnologie di cui al paragrafo 1 provvede affinché le misure adottate per garantire la conformità alle caratteristiche di sicurezza di cui al paragrafo 1 possano essere verificate dalle autorità nazionali di controllo di cui all'articolo 18 o, se del caso, da altri organismi di controllo settoriali a livello nazionale o europeo.

Articolo 9

Assenza di distorsioni e di discriminazioni

1.   I software, gli algoritmi o i dati utilizzati o prodotti dall'intelligenza artificiale, dalla robotica e dalle tecnologie correlate ad alto rischio sviluppate, diffuse o utilizzate nell'Unione sono imparziali e, fatto salvo il paragrafo 2, non operano discriminazioni in base a motivi quali razza, genere, orientamento sessuale, stato di gravidanza, disabilità, caratteristiche fisiche o genetiche, età, minoranza nazionale, origine etnica o sociale, lingua, religione o convinzioni personali, opinioni politiche o partecipazione civica, cittadinanza, status civile o economico, istruzione o precedenti penali.

2.   In deroga al paragrafo 1, e fatto salvo il diritto dell'Unione in materia di discriminazioni illecite, una disparità di trattamento tra persone o gruppi di persone può essere giustificata solo qualora sussista una finalità obiettiva, ragionevole e legittima che sia al contempo proporzionata e necessaria, nella misura in cui non esista alcuna alternativa che incida in minor misura sul principio della parità di trattamento.

Articolo 10

Responsabilità sociale e parità di genere

L'intelligenza artificiale, la robotica e le tecnologie correlate ad alto rischio, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, sviluppate, diffuse e utilizzate nell'Unione sono sviluppate, diffuse e utilizzate in conformità del diritto, dei principi e dei valori pertinenti dell'Unione, in modo tale che non interferiscano nelle elezioni né contribuiscano alla divulgazione di disinformazione, rispettino i diritti dei lavoratori, promuovano un'istruzione di qualità e l'alfabetizzazione digitale, non accrescano il divario di genere creando ostacoli alle pari opportunità per tutti e non violino i diritti di proprietà intellettuale né alcuna limitazione o restrizione in tal senso.

Articolo 11

Sostenibilità ambientale

L'intelligenza artificiale, la robotica e le tecnologie correlate ad alto rischio, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, sono valutate per quanto riguarda la loro sostenibilità ambientale dalle autorità nazionali di controllo di cui all'articolo 18 o, se del caso, da altri organismi di controllo settoriali a livello nazionale o europeo, assicurando l'introduzione di misure volte ad attenuare il loro impatto generale in termini di risorse naturali, consumo energetico, produzione di rifiuti, impronta di carbonio, emergenza legata ai cambiamenti climatici e degrado ambientale, come pure a porvi rimedio, al fine di garantire la conformità al diritto nazionale o dell'Unione applicabile nonché a qualsiasi altro impegno in materia ambientale assunto dall'Unione a livello internazionale.

Articolo 12

Rispetto della vita privata e protezione dei dati personali

L'uso e la raccolta di dati biometrici a scopo di identificazione a distanza nei luoghi pubblici, come il riconoscimento biometrico o facciale, comportano rischi specifici per i diritti fondamentali e sono diffusi o utilizzati solo dalle autorità pubbliche degli Stati membri per finalità di interesse pubblico rilevante. Dette autorità garantiscono che tale diffusione o utilizzo siano comunicati al pubblico, proporzionati, mirati e limitati a obiettivi e a un luogo specifici nonché limitati nel tempo, in conformità del diritto dell'Unione e nazionale, in particolare del regolamento (UE) 2016/679 e della direttiva 2002/58/CE, e nel debito rispetto della dignità e dell'autonomia umane e dei diritti fondamentali sanciti dalla Carta, segnatamente il diritto al rispetto della vita privata e alla protezione dei dati personali.

Articolo 13

Diritto di ricorso

Qualsiasi persona fisica o giuridica ha il diritto di presentare ricorso in caso di lesioni o danni causati dallo sviluppo, dalla diffusione e dall'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate ad alto rischio, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, in violazione del diritto dell'Unione e degli obblighi stabiliti dal presente regolamento.

Articolo 14

Valutazione del rischio

1.   Ai fini del presente regolamento, l'intelligenza artificiale, la robotica e le tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, sono considerate tecnologie ad alto rischio se, a seguito di una valutazione del rischio basata su criteri obiettivi, quali il loro utilizzo o la loro finalità specifici, il settore nel quale sono sviluppate, diffuse o utilizzate e la gravità delle lesioni o dei danni eventualmente causati, il loro sviluppo, la loro diffusione e il loro utilizzo comportano un rischio significativo di causare lesioni o danni prevedibili a individui o società in violazione delle norme in materia di diritti fondamentali e sicurezza stabilite dal diritto dell'Unione.

2.   Fatta salva la legislazione settoriale applicabile, la valutazione del rischio dell'intelligenza artificiale, della robotica e delle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, è effettuata, conformemente ai criteri obiettivi previsti dal paragrafo 1 e all'elenco esaustivo e cumulativo che figura nell'allegato del presente regolamento, dalle autorità nazionali di controllo di cui all'articolo 18, con il coordinamento della Commissione e/o delle istituzioni, degli organi e degli organismi competenti dell'Unione che possono essere designati a tal fine nell'ambito della loro cooperazione.

3.   In cooperazione con le autorità nazionali di controllo di cui al paragrafo 2, la Commissione, mediante atti delegati a norma dell'articolo 20, elabora e, successivamente, aggiorna un elenco comune delle tecnologie ad alto rischio identificate nell'Unione.

4.   La Commissione, mediante atti delegati a norma dell'articolo 20, aggiorna inoltre regolarmente l'elenco che figura nell'allegato del presente regolamento.

Articolo 15

Valutazione della conformità

1.   L'intelligenza artificiale, la robotica e le tecnologie correlate ad alto rischio formano l'oggetto di una valutazione della conformità agli obblighi di cui agli articoli da 6 a 12 del presente regolamento, nonché di un successivo monitoraggio, il cui svolgimento è affidato alle autorità nazionali di controllo di cui all'articolo 18, con il coordinamento della Commissione e/o delle istituzioni, degli organi e degli organismi competenti dell'Unione che possono essere designati a tal fine.

2.   I software, gli algoritmi e i dati utilizzati o prodotti dalle tecnologie ad alto rischio che sono stati ritenuti conformi agli obblighi di cui al presente regolamento conformemente al paragrafo 1 sono altresì considerati conformi a tali obblighi, a meno che l'autorità nazionale di controllo competente non decida di effettuare una valutazione di propria iniziativa o su richiesta dello sviluppatore, dell'operatore o dell'utente.

3.   Fatta salva la legislazione settoriale, la Commissione e/o le istituzioni, gli organi e gli organismi competenti dell'Unione che possono essere specificamente designati a tal fine elaborano linee guida vincolanti sulla metodologia utilizzata dalle autorità nazionali di controllo per la valutazione della conformità di cui al paragrafo 1 entro la data di entrata in vigore del presente regolamento.

Articolo 16

Certificato europeo di conformità etica

1.   In caso di esito positivo della valutazione della conformità dell'intelligenza artificiale, della robotica e delle tecnologie correlate ad alto rischio, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, effettuata in linea con l'articolo 15, l'autorità nazionale di controllo competente rilascia un certificato europeo di conformità etica.

2.   Gli sviluppatori, gli operatori o gli utenti dell'intelligenza artificiale, della robotica e delle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie, che non sono considerati ad alto rischio e che, pertanto, non sono soggetti agli obblighi di cui agli articoli da 6 a 12 né alla valutazione del rischio o alla valutazione della conformità di cui agli articoli 14 e 15, possono altresì chiedere la certificazione della conformità agli obblighi previsti dal presente regolamento, o di una parte di essi, ove giustificato dalla natura della tecnologia in questione, conformemente a quanto stabilito dalle autorità nazionali di controllo. Il rilascio del certificato avviene solo se l'autorità nazionale di controllo competente ha effettuato una valutazione della conformità e se l'esito di quest'ultima risulta positivo.

3.   Ai fini del rilascio del certificato di cui al paragrafo 2, la Commissione e/o le istituzioni, gli organi e gli organismi competenti dell'Unione che possono essere designati a tal fine elaborano una procedura per la presentazione delle domande.

Capo III

Controllo istituzionale

Articolo 17

Norme in materia di governance e orientamenti attuativi

1.   L'intelligenza artificiale, la robotica e le tecnologie correlate sviluppate, diffuse o utilizzate nell'Unione sono conformi alle pertinenti norme in materia di governance stabilite in conformità del diritto, dei principi e dei valori dell'Unione dalle autorità nazionali di controllo di cui all'articolo 18 a norma del diritto, dei principi e dei valori dell'Unione, con il coordinamento della Commissione e/o delle istituzioni, degli organi e degli organismi competenti dell'Unione che possono essere designati a tal fine e in consultazione con le pertinenti parti interessate.

2.   Le norme di cui al paragrafo 1 includono orientamenti attuativi non vincolanti sulla metodologia per la conformità degli sviluppatori, degli operatori e degli utenti al presente regolamento e sono pubblicate entro la data di entrata in vigore del presente regolamento.

3.   I dati utilizzati o prodotti dall'intelligenza artificiale, dalla robotica e dalle tecnologie correlate sviluppate, diffuse o utilizzate nell'Unione sono gestiti da sviluppatori, operatori e utenti conformemente alle pertinenti regole e norme nazionali, dell'Unione, di altre organizzazioni europee e internazionali, nonché ai pertinenti protocolli industriali e commerciali. In particolare, gli sviluppatori e gli operatori effettuano, ove possibile, controlli della qualità delle fonti esterne dei dati utilizzati dall'intelligenza artificiale, dalla robotica e dalle tecnologie correlate e mettono in atto meccanismi di monitoraggio per quanto riguarda la loro raccolta, conservazione ed elaborazione nonché il loro utilizzo.

4.   Fatti salvi i diritti di portabilità e i diritti delle persone il cui utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate ha generato dati, la raccolta, la conservazione, il trattamento e la condivisione di dati, nonché l'accesso a questi ultimi, utilizzati o prodotti dall'intelligenza artificiale, dalla robotica e dalle tecnologie correlate sviluppate, diffuse o utilizzate nell'Unione sono conformi alle pertinenti regole e norme nazionali, dell'Unione, di altre organizzazioni europee e internazionali, nonché ai pertinenti protocolli industriali e commerciali. In particolare, gli sviluppatori e gli operatori garantiscono l'applicazione di tali protocolli in fase di sviluppo e diffusione dell'intelligenza artificiale, della robotica e delle tecnologie correlate, definendo chiaramente i requisiti per il trattamento dei dati utilizzati o prodotti da tali tecnologie e per la concessione dell'accesso a questi ultimi, nonché lo scopo, l'ambito e i destinatari del trattamento di tali dati e della concessione dell'accesso a questi ultimi, che sono verificabili e tracciabili in qualsiasi momento nella loro totalità.

Articolo 18

Autorità di controllo

1.   Ogni Stato membro designa un'autorità pubblica indipendente responsabile di monitorare l'applicazione del presente regolamento («autorità di controllo»), nonché di effettuare le valutazioni del rischio e della conformità e di rilasciare il certificato a norma degli articoli 14, 15 e 16, fatta salva la legislazione settoriale.

2.   Ogni autorità nazionale di controllo contribuisce all'applicazione coerente del presente regolamento in tutta l'Unione. A tal fine, le autorità di controllo di ciascuno Stato membro cooperano tra di loro, con la Commissione e/o con le istituzioni, gli organi e gli organismi competenti dell'Unione che possono essere designati a tal fine.

3.   Ogni autorità nazionale di controllo funge da primo punto di contatto nei casi di presunta violazione dei principi etici e degli obblighi giuridici di cui al presente regolamento, compresi i casi di trattamento discriminatorio o di violazione di altri diritti, riconducibili allo sviluppo, alla diffusione o all'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate. In tali casi, l'autorità nazionale di controllo competente effettua una valutazione della conformità al fine di sostenere il diritto di contestazione e ricorso dei cittadini.

4.   Ogni autorità nazionale di controllo è responsabile di vigilare sull'applicazione delle pertinenti regole e norme nazionali, europee e internazionali in materia di governance di cui all'articolo 17 all'intelligenza artificiale, alla robotica e alle tecnologie correlate, segnatamente intrattenendo contatti con il maggior numero possibile di parti interessate. A tal fine, le autorità di controllo di ciascuno Stato membro istituiscono un forum per lo scambio regolare con e tra le parti interessate del mondo accademico, della ricerca, dell'industria e della società civile.

5.   Ogni autorità nazionale di controllo fornisce orientamenti e sostegno professionali e amministrativi con riguardo all'attuazione generale del diritto dell'Unione applicabile all'intelligenza artificiale, alla robotica e alle tecnologie correlate, nonché ai principi etici stabiliti dal presente regolamento, destinandoli in particolare alle organizzazioni di ricerca e sviluppo pertinenti nonché alle piccole e medie imprese o alle start-up.

6.   Ogni Stato membro notifica alla Commissione europea le disposizioni giuridiche adottate a norma del presente articolo entro il … [un anno dall'entrata in vigore del presente regolamento] e la informano senza indugio di eventuali modifiche successive.

7.   Gli Stati membri adottano tutte le misure necessarie per garantire l'attuazione dei principi etici e degli obblighi giuridici stabiliti dal presente regolamento. Gli Stati membri sostengono le pertinenti parti interessate e la società civile, a livello sia di Unione che nazionale, nei loro sforzi volti a garantire una risposta tempestiva, etica e ben informata alle nuove opportunità e sfide, in particolare quelle di natura transfrontaliera, derivanti dagli sviluppi tecnologici in materia di intelligenza artificiale, robotica e tecnologie correlate.

Articolo 19

Segnalazione delle violazioni e protezione di coloro che segnalano le violazioni

La direttiva (UE) 2019/1937 del Parlamento europeo e del Consiglio (6) si applica alla segnalazione di violazioni del presente regolamento e alla protezione delle persone che segnalano tali violazioni.

Articolo 20

Coordinamento a livello di Unione

1.   La Commissione e/o le istituzioni, gli organi e gli organismi competenti dell'Unione che possono essere designati in tale contesto hanno i seguenti compiti:

garantire una valutazione del rischio coerente dell'intelligenza artificiale, della robotica e delle tecnologie correlate di cui all'articolo 14 da parte delle autorità nazionali di controllo di cui all'articolo 18, sulla base dei criteri obiettivi comuni previsti dall'articolo 8, paragrafo 1, e dall'elenco dei settori ad alto rischio e degli utilizzi o delle finalità ad alto rischio di cui all'allegato del presente regolamento;

prendere atto della valutazione della conformità e del successivo monitoraggio dell'intelligenza artificiale, della robotica e delle tecnologie correlate ad alto rischio di cui all'articolo 15 da parte delle autorità nazionali di controllo di cui all'articolo 18;

sviluppare la procedura per la presentazione delle domande per il rilascio del certificato di cui all'articolo 16 da parte delle autorità nazionali di controllo di cui all'articolo 18;

fatta salva la legislazione settoriale, elaborare le linee guida vincolanti di cui all'articolo 17, paragrafo 4, sulla metodologia utilizzata dalle autorità nazionali di controllo di cui all'articolo 18;

coordinare la definizione delle pertinenti norme di governance di cui all'articolo 17 da parte delle autorità nazionali di controllo di cui all'articolo 18, inclusi orientamenti attuativi non vincolanti destinati agli sviluppatori, agli operatori e agli utenti sulla metodologia di conformità al presente regolamento;

cooperare con le autorità nazionali di controllo di cui all'articolo 18 per quanto riguarda il loro contributo all'applicazione coerente del presente regolamento in tutta l'Unione a norma dell'articolo 18, paragrafo 2;

fungere da centro di competenze promuovendo lo scambio di informazioni in materia di intelligenza artificiale, robotica e tecnologie correlate e favorendo lo sviluppo di un'intesa comune nel mercato unico, formulando orientamenti, pareri e consulenze supplementari rivolti alle autorità nazionali di controllo di cui all'articolo 18, monitorando l'attuazione del diritto pertinente dell'Unione, individuando le norme per le migliori pratiche e, se del caso, definendo raccomandazioni in materia di misure di regolamentazione; così facendo, intrattenere contatti con il maggior numero possibile di parti interessate e garantire che la composizione dei suoi livelli decisionali sia diversificata e assicuri la parità di genere;

ospitare un gruppo di lavoro sulla sicurezza e la difesa inteso a esaminare le questioni riguardanti le politiche e gli investimenti relative nello specifico all'uso etico dell'intelligenza artificiale, della robotica e delle tecnologie correlate nel settore della sicurezza e della difesa.

Articolo 21

Esercizio della delega

1.   Il potere di adottare atti delegati è conferito alla Commissione alle condizioni stabilite nel presente articolo.

2.   Il potere di adottare atti delegati di cui all'articolo 14, paragrafi 3 e 4, è conferito alla Commissione per un periodo di cinque anni a decorrere da [data di entrata in vigore del presente regolamento].

3.   La delega di potere di cui all'articolo 14, paragrafi 3 e 4, può essere revocata in qualsiasi momento dal Parlamento europeo o dal Consiglio. La decisione di revoca pone fine alla delega di potere ivi specificata. Gli effetti della decisione decorrono dal giorno successivo alla pubblicazione della decisione nella Gazzetta ufficiale dell'Unione europea o da una data successiva ivi specificata. Essa non pregiudica la validità degli atti delegati già in vigore.

4.   Prima dell'adozione di un atto delegato, la Commissione consulta gli esperti designati da ciascuno Stato membro nel rispetto dei principi stabiliti nell'accordo interistituzionale «Legiferare meglio» del 13 aprile 2016.

5.   Non appena adotta un atto delegato, la Commissione ne dà contestualmente notifica al Parlamento europeo e al Consiglio.

6.   L'atto delegato adottato a norma dell'articolo 14, paragrafi 3 e 4, entra in vigore solo se né il Parlamento europeo né il Consiglio hanno sollevato obiezioni entro il termine di tre mesi dalla data in cui esso è stato loro notificato o se, prima della scadenza di tale termine, sia il Parlamento europeo che il Consiglio hanno informato la Commissione che non intendono sollevare obiezioni. Tale termine è prorogato di tre mesi su iniziativa del Parlamento europeo o del Consiglio.

Articolo 22

Modifica della direttiva (UE) 2019/1937

La direttiva (UE) 2019/1937 è così modificata:

(1)

all'articolo 2, paragrafo 1, lettera a), è aggiunto il punto seguente:

«xi)

sviluppo, diffusione e utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate;»;

(2)

nell'allegato, parte I, è aggiunto il punto seguente:

«K.

Articolo 2, paragrafo 1, lettera a), punto xi) — sviluppo, diffusione e utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate

“xxi)

Regolamento [XXX] del Parlamento europeo e del Consiglio sui principi etici per lo sviluppo, la diffusione e l'utilizzo dell'intelligenza artificiale, della robotica e delle tecnologie correlate”.»

Articolo 23

Riesame

La Commissione vigilerà regolarmente sullo sviluppo dell'intelligenza artificiale, della robotica e delle tecnologie correlate, compresi i software, gli algoritmi e i dati utilizzati o prodotti da tali tecnologie entro il … [tre anni dall'entrata in vigore del presente regolamento], e successivamente ogni tre anni, la Commissione presenta una relazione al Parlamento europeo, al Consiglio e al comitato economico e sociale europeo sull'applicazione del presente regolamento, comprendente una valutazione delle possibili modifiche al campo di applicazione dello stesso.

Articolo 24

Entrata in vigore

Il presente regolamento entra in vigore il ventesimo giorno successivo alla pubblicazione nella Gazzetta ufficiale dell'Unione europea.

Esso si applica a decorrere dal [XX].

Il presente regolamento è obbligatorio in tutti i suoi elementi e direttamente applicabile in ciascuno degli Stati membri.

Fatto a …,

Il Parlamento europeo

Il presidente

Per il Consiglio

Il presidente

ALLEGATO

Elenco esaustivo e cumulativo dei settori ad alto rischio e degli utilizzi o delle finalità ad alto rischio che comportano un rischio di violazione dei diritti fondamentali e delle norme in materia di sicurezza.

Settori ad alto rischio

Occupazione

Istruzione

Assistenza sanitaria

Trasporti

Energia

Settore pubblico (asilo, migrazione, controlli alle frontiere, sistema giudiziario e servizi di sicurezza sociale)

Difesa e sicurezza

Finanza, banche, assicurazioni

Utilizzi o finalità ad alto rischio

Assunzione

Valutazione degli studenti e assegnazione di voti

Stanziamento di fondi pubblici

Concessione di prestiti

Commercio, intermediazione, fiscalità, ecc.

Trattamenti e interventi medici

Processi elettorali e campagne politiche

Decisioni del settore pubblico con un impatto diretto significativo sui diritti e gli obblighi delle persone fisiche o giuridiche

Guida automatizzata

Gestione del traffico

Sistemi militari autonomi

Produzione e distribuzione di energia

Gestione dei rifiuti

Controllo delle emissioni


(1)  Per la guida automatizzata dei veicoli, la norma J3016 di SAE International, il cui ultimo aggiornamento è la norma J3016_201806 del 2018, ha proposto sei livelli di automazione. Cfr. https://www.sae.org/standards/content/j3016_201806.

(2)  Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati) (GU L 119 del 4.5.2016, pag. 1).

(3)  Direttiva 2002/58/CE del Parlamento europeo e del Consiglio, del 12 luglio 2002, relativa al trattamento dei dati personali e alla tutela della vita privata nel settore delle comunicazioni elettroniche (direttiva relativa alla vita privata e alle comunicazioni elettroniche) (GU L 201 del 31.7.2002, pag. 37).

(4)  Definizione tratta dalla comunicazione della Commissione COM(2018)0237, 25.4.2018, pag. 1, adattata.

(5)  Dalla definizione ISO 8373 di «robot industriale».

(6)  Direttiva (UE) 2019/1937 del Parlamento europeo e del Consiglio, del 23 ottobre 2019, riguardante la protezione delle persone che segnalano violazioni del diritto dell'Unione (GU L 305 del 26.11.2019, pag. 17).