Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Regole per un’intelligenza artificiale affidabile nell’Unione europea

SINTESI DI:

Regolamento (UE) 2024/1689 che stabilisce regole armonizzate sull’intelligenza artificiale (regolamento sull’intelligenza artificiale)

QUAL È L’OBIETTIVO DEL REGOLAMENTO?

Il regolamento (UE) 2024/1689 mira a incoraggiare lo sviluppo e l’adozione di sistemi di intelligenza artificiale (IA) sicuri e affidabili in tutto il mercato unico dell’Unione europea (Unione) sia nel settore pubblico che in quello privato, garantendo al contempo la salute e la sicurezza dei cittadini dell’Unione e il rispetto dei diritti fondamentali. Il regolamento stabilisce norme basate sul rischio per quanto riguarda:

  • l’immissione sul mercato, la messa in servizio e l’utilizzo di taluni sistemi IA;
  • il divieto di determinate pratiche di IA;
  • i requisiti e gli obblighi relativi ai sistemi di IA ad alto rischio;
  • la trasparenza per taluni sistemi di IA;
  • la trasparenza e la gestione dei rischi per i modelli di IA per finalità generali (modelli IA potenti che supportano i sistemi IA in grado di svolgere una vasta gamma di compiti);
  • il monitoraggio del mercato, la vigilanza del mercato, la governance e l’esecuzione;
  • il sostegno all’innovazione, concentrandosi sulle piccole e medie imprese (PMI) e sulle start-up.

Sono previste alcune esenzioni, come ad esempio per i sistemi utilizzati esclusivamente a fini militari e di difesa o a fini di ricerca.

PUNTI CHIAVE

Cos’è un sistema IA?

Un sistema di IA è un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può:

  • presentare adattabilità dopo la diffusione;
  • generare output quali previsioni, contenuti, raccomandazioni o decisioni dall’input che riceve per obiettivi espliciti o impliciti.

Un approccio basato sul rischio

La normativa segue un approccio basato sul rischio, il che significa che tanto più alto è il rischio di provocare danni alla società, tanto più rigoroso è il livello delle regole. Il regolamento definisce l’utilizzo dell’IA nelle aree seguenti come ad alto rischio, a causa del potenziale impatto sui diritti fondamentali, la sicurezza e il benessere:

  • componenti di sicurezza di prodotti disciplinati dalla normativa di armonizzazione dell’Unione (o in qualità di prodotti autonomi) che sono tenuti a sottoporsi a una valutazione di conformità di terze parti ai sensi della stessa normativa;
  • biometrica, se usata per l’identificazione remota, per classificare le persone da attributi sensibili (come la razza o la religione), o per il riconoscimento delle emozioni, salvo quando utilizzata per verificarne semplicemente l’identità;
  • infrastrutture critiche, quando l’IA è una componente di sicurezza in settori quali le infrastrutture digitali, il traffico, l’acqua, il gas, il riscaldamento e l’elettricità;
  • istruzione e formazione professionale, compreso l’accesso alle questioni educative, la valutazione dei risultati dell’apprendimento, la valutazione dei livelli di istruzione o il monitoraggio del comportamento durante le prove;
  • occupazione, comprese l’assunzione, la selezione dei candidati, l’adozione di decisioni in materia di condizioni di impiego (promozioni, cessazioni del rapporto di lavoro), l’assegnazione dei compiti o il monitoraggio delle prestazioni;
  • servizi essenziali: sistemi di IA utilizzati dalle autorità pubbliche per valutare l’ammissibilità alle prestazioni e ai servizi di assistenza pubblica (compresi i servizi di assistenza sanitaria), il merito di credito, la valutazione del rischio di assicurazione e la priorità delle risposte di emergenza;
  • attività di contrasto: sistemi di AI utilizzati per valutare i rischi di reato, poligrafi, valutare l’attendibilità delle prove, prevedere la recidività o la profilazione di persone per le indagini penali;
  • migrazione e controllo delle frontiere: sistemi di AI utilizzati per valutare i rischi legati alla migrazione, alle domande di asilo e ai visti, o per individuare e identificare le persone in contesti migratori;
  • gestione della giustizia e dei processi democratici: sistemi di IA utilizzati dalle autorità giudiziarie per la ricerca e l’interpretazione legale o sistemi che potrebbero influenzare i risultati delle elezioni.

Il regolamento vieta le seguenti pratiche di IA con un livello di rischio inaccettabile:

  • tecniche subliminali o ingannevoli per manipolare comportamenti individuali o di gruppo, compromettendone la capacità di prendere decisioni informate e potenzialmente provocando danni;
  • sfruttamento delle vulnerabilità basate su età, disabilità o situazioni socioeconomiche per manipolare persone o gruppi, causando potenziali danni;
  • assegnazione di un punteggio sociale, ossia una valutazione o una classificazione delle persone in base al comportamento o alle caratteristiche, che risulta in un trattamento iniquo, indipendentemente dal contesto in cui i dati sono stati raccolti, o sproporzionato rispetto alla gravità del comportamento;
  • valutazione del rischio penale, che prevede la probabilità di commettere un reato sulla base unicamente di tratti comportamentali o di personalità, a eccezione di indagini penali obiettive;
  • riconoscimento facciale mediante scraping di banche di date da Internet o videocamere di sicurezza senza target specifico;
  • inferire emozioni in settori sensibili, come ad esempio nell’ambito del luogo di lavoro e degli istituti di istruzione, tranne quando sia usato per motivi medici o di sicurezza;
  • categorizzazione biometrica basata su dati per trarre deduzioni o inferenze in merito a razza, religione o opinioni politiche, tranne per l’uso legittimo nel settore delle attività di contrasto;
  • identificazione biometrica remota in tempo reale in spazi accessibili al pubblico a fini di attività di contrasto, a meno che non sia strettamente necessaria per la ricerca mirata di persone scomparse, la prevenzione di una minaccia specifica o l’identificazione di una persona sospettata di aver commesso un reato grave. Ciò deve seguire rigorose procedure giuridiche, compresa l’autorizzazione preventiva, un ambito di applicazione limitato e garanzie per proteggere i diritti e le libertà.

Il regolamento introduce obblighi di divulgazione qualora un rischio possa derivare da una mancanza di trasparenza circa l’uso dell’intelligenza artificiale:

  • AI progettata per impersonare esseri umani (ad esempio, un chatbot) deve informare la persona con la quale sta interagendo;
  • l’output dell’IA generativa deve essere indicato come generato dall’IA e leggibile meccanicamente;
  • in alcuni casi, l’output dell’IA generativa deve essere chiaramente indicato, vale a dire in caso di deepfake e di testi destinati a informare il pubblico in merito a questioni di interesse pubblico.

Tutti gli altri sistemi di IA sono considerati a rischio limitato e pertanto il regolamento non introduce ulteriori regole.

Uso affidabile dei grandi modelli di IA

  • I modelli di AI per finalità generali sono modelli di IA che vengono addestrati su grandi quantità di dati e possono svolgere un’ampia gamma di attività. Possono essere componenti dei sistemi di AI.
  • Il regolamento introduce obblighi di trasparenza per i fornitori di tali modelli di IA per finalità generali, ovvero la documentazione tecnica, la fornitura di informazioni agli sviluppatori a valle di sistemi IA e la divulgazione dei dati utilizzati nell’addestramento del modello.
  • I più potenti modelli di AI per per finalità generali possono presentare rischi sistemici. Se un modello soddisfa una determinata soglia di capacità, il fornitore di tale modello deve adempiere a ulteriori obblighi di gestione del rischio e di cibersicurezza.

Governance

  • Il regolamento istituisce diversi organismi di regolamentazione attivi dal :
    • autorità nazionali competenti che sovrintenderanno e applicheranno le regole per i sistemi di IA;
    • un ufficio per l’IA all’interno della Commissione europea che coordinerà l’applicazione coerente delle norme comuni in tutta l’Unione, fungendo da organo di regolamentazione per i modelli di IA per finalità generali.
  • Gli Stati membri dell’Unione e l’ufficio per l’IA collaboreranno strettamente nell’ambito di un comitato per l’IA, composto dai rappresentanti degli Stati membri, per garantire un’applicazione coerente ed efficace del regolamento.
  • Il regolamento istituisce due organi consultivi per l’ufficio per l’IA e il comitato per l’IA:
    • un gruppo scientifico di esperti indipendenti per fornire pareri scientifici;
    • un forum consultivo per le parti interessate al fine di fornire consulenza tecnica al comitato per l’IA e alla Commissione.

Sanzioni

Le ammende per le violazioni sono definite come percentuale del fatturato totale annuo o di un importo predeterminato a carico dell’azienda responsabile, a seconda di quale sia più elevato. Le piccole e medie imprese e le start-up sono soggette a sanzioni amministrative proporzionate.

Trasparenza e tutela dei diritti fondamentali

La maggiore trasparenza si applica allo sviluppo e all’uso di sistemi di IA ad alto rischio:

  • prima che un sistema di IA ad alto rischio sia utilizzato da entità che forniscono servizi pubblici, deve esserne valutato l’impatto sui diritti fondamentali;
  • i sistemi di IA ad alto rischio e le entità che li usano devono essere registrati in una banca dati dell’Unione.

Innovazione

Il regolamento fornisce un quadro giuridico favorevole all’innovazione e mira a promuovere un apprendimento normativo basato su dati concreti. Prevede spazi di sperimentazione normativa per l’IA, consentendo un ambiente controllato in cui è possibile sviluppare, testare e convalidare sistemi di IA innovativi, anche in condizioni reali. Inoltre, il regolamento consente, a determinate condizioni, la prova in tempo reale di sistemi di IA ad alto rischio.

Valutazione e revisione

La Commissione valuta la necessità di modificare ogni anno l’elenco degli usi ad alto rischio dell’IA e l’elenco delle pratiche vietate. Entro il , e successivamente ogni quattro anni, la Commissione valuta e riferisce su quanto segue:

  • aggiunta o ampliamento dell’elenco delle categorie ad alto rischio;
  • modifiche all’elenco dei sistemi di IA che richiedono ulteriori misure di trasparenza;
  • modifiche per migliorare la vigilanza e la governance.

A PARTIRE DA QUANDO SI APPLICA IL REGOLAMENTO?

Il presente regolamento si applicherà a partire dal . Tuttavia, vi sono alcune eccezioni:

  • i divieti, le definizioni e gli obblighi relativi all’alfabetizzazione in materia di IA si applicano dal ;
  • alcune regole entreranno in vigore il , comprese quelle sulla struttura di governance, le sanzioni e gli obblighi per i fornitori di modelli di IA per finalità generali.

CONTESTO

Per ulteriori informazioni, si veda:

DOCUMENTO PRINCIPALE

Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del , che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale) (GU L, 2024/1689 del ).

ultimo aggiornamento:

Top