EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52023AP0236

Emendamenti del Parlamento europeo, approvati il 14 giugno 2023, alla proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione (COM(2021)0206 — C9-0146/2021 — 2021/0106(COD))

GU C, C/2024/506, 23.1.2024, ELI: http://data.europa.eu/eli/C/2024/506/oj (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

ELI: http://data.europa.eu/eli/C/2024/506/oj

European flag

Gazzetta ufficiale
dell'Unione europea

IT

Serie C


C/2024/506

23.1.2024

P9_TA(2023)0236

Legge sull'intelligenza artificiale

Emendamenti del Parlamento europeo, approvati il 14 giugno 2023, alla proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione (COM(2021)0206 — C9-0146/2021 — 2021/0106(COD)) (1)

(Procedura legislativa ordinaria: prima lettura)

(C/2024/506)

Emendamento 1

Proposta di regolamento

Visto 4 bis (nuovo)

Testo della Commissione

Emendamento

 

visto il parere della Banca centrale europea,

Emendamento 2

Proposta di regolamento

Visto 4 ter (nuovo)

Testo della Commissione

Emendamento

 

visto il parere congiunto del comitato europeo per la protezione dei dati e del Garante europeo della protezione dei dati,

Emendamento 3

Proposta di regolamento

Considerando 1

Testo della Commissione

Emendamento

(1)

Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, la commercializzazione e l'uso dell'intelligenza artificiale (IA) in conformità ai valori dell'Unione . Il presente regolamento persegue una serie di motivi imperativi di interesse pubblico, quali un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali, e garantisce la libera circolazione transfrontaliera di beni e servizi basati sull'IA, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all'uso di sistemi di IA, salvo espressa autorizzazione del presente regolamento.

(1)

Lo scopo del presente regolamento è promuovere la diffusione di un'intelligenza artificiale antropocentrica e affidabile e garantire un livello elevato di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto, nonché dell'ambiente, dagli effetti nocivi dei sistemi di intelligenza artificiale nell'Unione, sostenendo nel contempo l'innovazione e migliorando il funzionamento del mercato interno. Il presente regolamento istituisce un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, l'immissione sul mercato, la messa in servizio e l'uso dell'intelligenza artificiale (IA) in conformità ai valori dell'Unione e garantisce la libera circolazione transfrontaliera di beni e servizi basati sull'IA, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all'uso di sistemi di intelligenza artificiale (sistemi di IA), salvo espressa autorizzazione del presente regolamento. Alcuni sistemi di IA possono anche avere un impatto sulla democrazia, sullo Stato di diritto e sull'ambiente. Tali preoccupazioni sono affrontate specificamente nei settori e nei casi d'uso critici elencati negli allegati del presente regolamento.

Emendamento 4

Proposta di regolamento

Considerando 1 bis (nuovo)

Testo della Commissione

Emendamento

 

(1 bis)

Il presente regolamento dovrebbe preservare i valori dell'Unione agevolando la diffusione dei benefici apportati dall'intelligenza artificiale nell'intera società, proteggendo le persone, le imprese, la democrazia, lo Stato di diritto e l'ambiente dai rischi, promuovendo nel contempo l'innovazione e l'occupazione e rendendo l'Unione un leader nel settore.

Emendamento 5

Proposta di regolamento

Considerando 2

Testo della Commissione

Emendamento

(2)

I sistemi di intelligenza artificiale ( sistemi di IA) possono essere facilmente impiegati in molteplici settori dell'economia e della società, anche a livello transfrontaliero, e circolare in tutta l'Unione. Alcuni Stati membri hanno già preso in esame l'adozione di regole nazionali per garantire che l'intelligenza artificiale sia sicura e sia sviluppata e utilizzata nel rispetto degli obblighi in materia di diritti fondamentali. Normative nazionali divergenti possono determinare una frammentazione del mercato interno e diminuire la certezza del diritto per gli operatori che sviluppano o utilizzano sistemi di IA. È pertanto opportuno garantire un livello di protezione costante ed elevato in tutta l'Unione, mentre dovrebbero essere evitate le divergenze che ostacolano la libera circolazione dei sistemi di IA e dei relativi prodotti e servizi nel mercato interno, stabilendo obblighi uniformi per gli operatori e garantendo la tutela uniforme dei motivi imperativi di interesse pubblico e dei diritti delle persone in tutto il mercato interno, sulla base dell'articolo 114 del trattato sul funzionamento dell'Unione europea (TFUE). Nella misura in cui il presente regolamento prevede regole specifiche sulla protezione delle persone fisiche con riguardo al trattamento dei dati personali, consistenti in limitazioni dell'uso dei sistemi di IA per l'identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto, è opportuno basare il presente regolamento, per quanto riguarda tali regole specifiche, sull'articolo 16 TFUE. Alla luce di tali regole specifiche e del ricorso all'articolo 16 TFUE, è opportuno consultare il comitato europeo per la protezione dei dati.

(2)

I sistemi di IA possono essere facilmente impiegati in molteplici settori dell'economia e della società, anche a livello transfrontaliero, e circolare in tutta l'Unione. Alcuni Stati membri hanno già preso in esame l'adozione di regole nazionali per garantire che l'intelligenza artificiale sia affidabile e sicura e sia sviluppata e utilizzata nel rispetto degli obblighi in materia di diritti fondamentali. Normative nazionali divergenti possono determinare una frammentazione del mercato interno e diminuire la certezza del diritto per gli operatori che sviluppano o utilizzano sistemi di IA. È pertanto opportuno garantire un livello di protezione costante ed elevato in tutta l'Unione al fine di conseguire un'IA affidabile , mentre dovrebbero essere evitate le divergenze che ostacolano la libera circolazione , l'innovazione, la diffusione e l'adozione dei sistemi di IA e dei relativi prodotti e servizi nel mercato interno, stabilendo obblighi uniformi per gli operatori e garantendo la tutela uniforme dei motivi imperativi di interesse pubblico e dei diritti delle persone in tutto il mercato interno, sulla base dell'articolo 114 del trattato sul funzionamento dell'Unione europea (TFUE).

Emendamento 6

Proposta di regolamento

Considerando 2 bis (nuovo)

Testo della Commissione

Emendamento

 

(2 bis)

Dal momento che l'intelligenza artificiale spesso si basa sul trattamento di grandi volumi di dati e che molti sistemi e applicazioni di IA si fondano sul trattamento di dati personali, è opportuno basare il presente regolamento sull'articolo 16 TFUE, che sancisce il diritto alla protezione delle persone fisiche con riguardo al trattamento dei dati personali e prevede l'adozione di regole sulla protezione delle persone fisiche con riguardo al trattamento dei dati personali.

Emendamento 7

Proposta di regolamento

Considerando 2 ter (nuovo)

Testo della Commissione

Emendamento

 

(2 ter)

Il diritto fondamentale alla protezione dei dati personali è garantito in particolare dai regolamenti(UE) 2016/679 e (UE) 2018/1725 e dalla direttiva (UE) 2016/680. La direttiva 2002/58/CE tutela inoltre la vita privata e la riservatezza delle comunicazioni, in particolare stabilendo le condizioni per l'archiviazione di dati personali e non personali e l'accesso ai dati archiviati in apparecchi terminali. Tali atti giuridici costituiscono la base di un trattamento dei dati sostenibile e responsabile, anche laddove i set di dati includano una combinazione di dati personali e non personali. Il presente regolamento non mira a pregiudicare l'applicazione del diritto dell'Unione esistente che disciplina il trattamento dei dati personali, inclusi i compiti e i poteri delle autorità di controllo indipendenti competenti a monitorare la conformità con tali strumenti. Inoltre, esso non pregiudica il diritto fondamentale alla vita privata e alla protezione dei dati personali previsto dal diritto dell'Unione in materia di protezione dei dati e della vita privata e sancito dalla Carta dei diritti fondamentali dell'Unione europea (la «Carta»).

Emendamento 8

Proposta di regolamento

Considerando 2 quater (nuovo)

Testo della Commissione

Emendamento

 

(2 quater)

I sistemi di intelligenza artificiale nell'Unione sono soggetti alla pertinente legislazione in materia di sicurezza dei prodotti, che prevede un quadro per la protezione dei consumatori dai prodotti pericolosi in generale, e tale legislazione dovrebbe continuare ad applicarsi. Il presente regolamento lascia inoltre impregiudicate le norme stabilite da altri atti giuridici dell'Unione in materia di protezione dei consumatori e sicurezza dei prodotti, tra cui il regolamento (UE) 2017/2394, il regolamento (UE) 2019/1020, la direttiva 2001/95/CE sulla sicurezza generale dei prodotti e la direttiva 2013/11/UE.

Emendamento 9

Proposta di regolamento

Considerando 2 quinquies (nuovo)

Testo della Commissione

Emendamento

 

(2 quinquies)

In conformità dell'articolo 114, paragrafo 2, TFUE, il presente regolamento integra e non dovrebbe pregiudicare i diritti e gli interessi dei lavoratori dipendenti. Il presente regolamento non dovrebbe pertanto incidere sulla normativa dell'Unione in materia di politica sociale né sulla normativa e sulle pratiche nazionali in materia di lavoro, vale a dire qualsiasi disposizione giuridica e contrattuale relativa alle condizioni di impiego, alle condizioni di lavoro, comprese la salute e la sicurezza sul luogo di lavoro, e al rapporto tra datori di lavoro e lavoratori, incluse l'informazione, la consultazione e la partecipazione. Il presente regolamento non dovrebbe pregiudicare l'esercizio dei diritti fondamentali riconosciuti dagli Stati membri e a livello di Unione, compresi il diritto o la libertà di sciopero o il diritto o la libertà di intraprendere altre azioni contemplate dalla disciplina delle relazioni industriali negli Stati membri, in conformità della normativa e/o delle prassi nazionali. Esso non dovrebbe neppure pregiudicare le pratiche di concertazione o il diritto di negoziare, concludere ed eseguire accordi collettivi, o di intraprendere azioni collettive in conformità della normativa e/o delle prassi nazionali. Il presente regolamento non dovrebbe in alcun caso impedire alla Commissione di proporre una legislazione specifica sui diritti e sulle libertà dei lavoratori interessati dai sistemi di IA.

Emendamento 10

Proposta di regolamento

Considerando 2 sexies (nuovo)

Testo della Commissione

Emendamento

 

(2 sexies)

Il presente regolamento dovrebbe lasciare impregiudicate le disposizioni volte a migliorare le condizioni di lavoro nel lavoro mediante piattaforme digitali di cui alla direttiva … [2021/0414(COD)].

Emendamento 11

Proposta di regolamento

Considerando 2 septies (nuovo)

Testo della Commissione

Emendamento

 

(2 septies)

È opportuno che il presente regolamento contribuisca a sostenere la ricerca e l'innovazione, non comprometta le attività di ricerca e sviluppo e rispetti la libertà della ricerca scientifica. È pertanto necessario escludere dal suo ambito di applicazione i sistemi di IA specificamente sviluppati al solo scopo di ricerca e sviluppo in ambito scientifico e garantire che il regolamento non incida altrimenti sulle attività scientifiche di ricerca e sviluppo relative ai sistemi di IA. In ogni circostanza, qualsiasi attività di ricerca e sviluppo dovrebbe essere svolta conformemente alla Carta, al diritto dell'Unione nonché al diritto nazionale.

Emendamento 12

Proposta di regolamento

Considerando 3

Testo della Commissione

Emendamento

(3)

L'intelligenza artificiale consiste in una famiglia di tecnologie in rapida evoluzione che può contribuire al conseguimento di un'ampia gamma di benefici a livello economico e sociale nell'intero spettro delle attività industriali e sociali. L'uso dell'intelligenza artificiale, garantendo un miglioramento delle previsioni, l'ottimizzazione delle operazioni e dell'assegnazione delle risorse e la personalizzazione delle soluzioni digitali disponibili per i singoli e le organizzazioni, può fornire vantaggi competitivi fondamentali alle imprese e condurre a risultati vantaggiosi sul piano sociale ed ambientale, ad esempio in materia di assistenza sanitaria, agricoltura, istruzione e formazione, gestione delle infrastrutture, energia, trasporti e logistica, servizi pubblici, sicurezza, giustizia, efficienza dal punto di vista energetico e delle risorse, mitigazione dei cambiamenti climatici e adattamento ad essi.

(3)

L'intelligenza artificiale consiste in una famiglia di tecnologie in rapida evoluzione che può contribuire e già contribuisce al conseguimento di un'ampia gamma di benefici a livello economico , ambientale e sociale nell'intero spettro delle attività industriali e sociali se sviluppata in conformità di principi generali pertinenti in linea con la Carta e i valori su cui si fonda l'Unione . L'uso dell'intelligenza artificiale, garantendo un miglioramento delle previsioni, l'ottimizzazione delle operazioni e dell'assegnazione delle risorse e la personalizzazione delle soluzioni digitali disponibili per i singoli e le organizzazioni, può fornire vantaggi competitivi fondamentali alle imprese e condurre a risultati vantaggiosi sul piano sociale ed ambientale, ad esempio in materia di assistenza sanitaria, agricoltura, sicurezza alimentare, istruzione e formazione, media, sport, cultura, gestione delle infrastrutture, energia, trasporti e logistica, gestione delle crisi, servizi pubblici, sicurezza, giustizia, efficienza dal punto di vista energetico e delle risorse, monitoraggio ambientale, conservazione e ripristino della biodiversità e degli ecosistemi, mitigazione dei cambiamenti climatici e adattamento ad essi.

Emendamento 13

Proposta di regolamento

Considerando 3 bis (nuovo)

Testo della Commissione

Emendamento

 

(3 bis)

Al fine di contribuire al conseguimento degli obiettivi di neutralità in termini di emissioni di carbonio, le imprese europee dovrebbero tentare di avvalersi di tutti i progressi tecnologici disponibili che possano contribuire al raggiungimento di tali obiettivi. L'intelligenza artificiale è una tecnologia potenzialmente in grado di essere utilizzata per il trattamento del volume sempre crescente di dati creati nell'ambito dei processi industriali, ambientali, sanitari e di altro tipo. Al fine di agevolare gli investimenti in strumenti di analisi e ottimizzazione basati sull'IA, il presente regolamento dovrebbe creare un contesto prevedibile e proporzionato per soluzioni industriali a basso rischio.

Emendamento 14

Proposta di regolamento

Considerando 4

Testo della Commissione

Emendamento

(4)

L'intelligenza artificiale può nel contempo, a seconda delle circostanze relative alla sua applicazione e al suo utilizzo specifici, comportare rischi e pregiudicare gli interessi pubblici e i diritti tutelati dalla legislazione dell'Unione. Tale pregiudizio può essere sia materiale sia immateriale.

(4)

L'intelligenza artificiale può nel contempo, a seconda delle circostanze relative alla sua applicazione e al suo utilizzo specifici, nonché del livello di sviluppo tecnologico, comportare rischi e pregiudicare gli interessi pubblici o privati e i diritti fondamentali delle persone fisiche tutelati dalla legislazione dell'Unione. Tale pregiudizio può essere sia materiale sia immateriale , compreso il pregiudizio fisico, psicologico, sociale o economico .

Emendamento 15

Proposta di regolamento

Considerando 4 bis (nuovo)

Testo della Commissione

Emendamento

 

(4 bis)

In considerazione dell'impatto significativo che l'intelligenza artificiale può avere sulla società e della necessità di creare maggiore fiducia, è essenziale che l'intelligenza artificiale e il suo quadro normativo siano sviluppati conformemente ai valori dell'Unione sanciti dall'articolo 2 TUE, ai diritti e alle libertà fondamentali sanciti dai trattati, alla Carta e al diritto internazionale in materia di diritti umani. Come prerequisito, l'intelligenza artificiale dovrebbe essere una tecnologia antropocentrica. Essa non dovrebbe sostituire l'autonomia umana o presupporre la perdita della libertà individuale e dovrebbe essere principalmente al servizio della società e del bene comune. È opportuno prevedere misure per garantire lo sviluppo e l'utilizzo di un'intelligenza artificiale eticamente integrata che rispetti i valori dell'Unione e la Carta.

Emendamento 16

Proposta di regolamento

Considerando 5

Testo della Commissione

Emendamento

(5)

Si rende pertanto necessario un quadro giuridico dell'Unione che istituisca regole armonizzate in materia di intelligenza artificiale per promuovere lo sviluppo, l'uso e l'adozione dell'intelligenza artificiale nel mercato interno, garantendo nel contempo un elevato livello di protezione degli interessi pubblici, quali la salute e la sicurezza e la protezione dei diritti fondamentali, come riconosciuti e tutelati dal diritto dell'Unione. Per conseguire tale obiettivo, è opportuno stabilire regole che disciplinino l'immissione sul mercato e la messa in servizio di determinati sistemi di IA, garantendo in tal modo il buon funzionamento del mercato interno e consentendo a tali sistemi di beneficiare del principio della libera circolazione di beni e servizi. Stabilendo tali regole, il presente regolamento contribuisce all'obiettivo dell'Unione di essere un leader mondiale nello sviluppo di un'intelligenza artificiale sicura, affidabile ed etica, come affermato dal Consiglio europeo (33), e garantisce la tutela dei principi etici, come specificamente richiesto dal Parlamento europeo (34).

(5)

Si rende pertanto necessario un quadro giuridico dell'Unione che istituisca regole armonizzate in materia di intelligenza artificiale per promuovere lo sviluppo, l'uso e l'adozione dell'intelligenza artificiale nel mercato interno, garantendo nel contempo un elevato livello di protezione degli interessi pubblici, quali la salute e la sicurezza, la protezione dei diritti fondamentali, la democrazia, lo Stato di diritto e l'ambiente, come riconosciuti e tutelati dal diritto dell'Unione. Per conseguire tale obiettivo, è opportuno stabilire regole che disciplinino l'immissione sul mercato, la messa in servizio e l'uso di determinati sistemi di IA, garantendo in tal modo il buon funzionamento del mercato interno e consentendo a tali sistemi di beneficiare del principio della libera circolazione di beni e servizi. Tali norme dovrebbero essere chiare e solide nel tutelare i diritti fondamentali, sostenere nuove soluzioni innovative e consentire un ecosistema europeo di attori pubblici e privati che creino sistemi di IA in linea con i valori dell'Unione. Stabilendo tali regole nonché le misure a sostegno dell'innovazione, con particolare attenzione alle PMI e alle start-up , il presente regolamento contribuisce all'obiettivo di promuovere l'IA «Made in Europe» e all'obiettivo dell'Unione di essere un leader mondiale nello sviluppo di un'intelligenza artificiale sicura, affidabile ed etica, come affermato dal Consiglio europeo (33), e garantisce la tutela dei principi etici, come specificamente richiesto dal Parlamento europeo (34).

Emendamento 17

Proposta di regolamento

Considerando 5 bis (nuovo)

Testo della Commissione

Emendamento

 

(5 bis)

Inoltre, al fine di promuovere lo sviluppo dei sistemi di IA conformemente ai valori dell'Unione, quest'ultima deve far fronte alle principali lacune e barriere che bloccano il potenziale della trasformazione digitale, tra cui la carenza di lavoratori dotati di competenze digitali, le preoccupazioni legate alla cibersicurezza, la mancanza di investimenti e di accesso agli investimenti, nonché i divari esistenti e potenziali tra le grandi imprese, le PMI e le start-up. Occorre prestare particolare attenzione a garantire che i benefici dell'IA e dell'innovazione nelle nuove tecnologie siano percepiti in tutte le regioni dell'Unione e che siano previsti investimenti e risorse sufficienti, soprattutto per le regioni che possono registrare ritardi in relazione ad alcuni indicatori digitali.

Emendamento 18

Proposta di regolamento

Considerando 6

Testo della Commissione

Emendamento

(6)

La nozione di sistema di IA dovrebbe essere definita in maniera chiara al fine di garantire la certezza del diritto, prevedendo nel contempo la flessibilità necessaria per agevolare i  futuri sviluppi tecnologici. La definizione dovrebbe essere basata sulle principali caratteristiche funzionali del software , in particolare sulla capacità, per una determinata serie di obiettivi definiti dall'uomo, di generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano l'ambiente con cui il sistema interagisce, tanto in una dimensione fisica quanto in una dimensione digitale . I sistemi di IA possono essere progettati per funzionare con livelli di autonomia variabili e  per essere utilizzati come elementi indipendenti (stand-alone) o come componenti di un prodotto, a prescindere dal fatto che il sistema sia fisicamente incorporato nel prodotto (integrato) o assista la funzionalità del prodotto senza esservi incorporato (non integrato) . La definizione di sistema di IA dovrebbe essere completata da un elenco di tecniche e approcci specifici utilizzati per il suo sviluppo , che dovrebbe essere tenuto aggiornato alla luce degli sviluppi di mercato e tecnologici mediante l'adozione da parte della Commissione di atti delegati volti a modificare tale elenco .

(6)

La nozione di sistema di IA di cui al presente regolamento dovrebbe essere definita in maniera chiara e strettamente allineata al lavoro delle organizzazioni internazionali che si occupano di intelligenza artificiale al fine di garantire la certezza del diritto, l'armonizzazione e un'ampia accettazione, prevedendo nel contempo la flessibilità necessaria per agevolare i  rapidi sviluppi tecnologici in questo ambito . Inoltre, essa dovrebbe essere basata sulle principali caratteristiche dell'intelligenza artificiale , quali le sue capacità di apprendimento, ragionamento o modellizzazione, in modo da distinguerla da sistemi software o approcci di programmazione più semplici . I sistemi di IA sono progettati per funzionare con livelli di autonomia variabili , il che significa che dispongono almeno di un certo grado di autonomia di azione rispetto ai controlli umani di capacità di funzionare senza l'intervento umano . Il termine «automatizzato» si riferisce al fatto che il funzionamento dei sistemi di IA prevede l'uso di macchine. Il riferimento a obiettivi espliciti o impliciti sottolinea che i sistemi di IA possono operare in base a obiettivi espliciti definiti dall'uomo o a obiettivi impliciti. Gli obiettivi del sistema di IA possono essere diversi dalla finalità prevista del sistema di IA in un contesto specifico. Il riferimento alle previsioni comprende il contenuto , che nel presente regolamento è considerato una forma di previsione, in quanto uno dei possibili output prodotti da un sistema di IA. Ai fini del presente regolamento, gli ambienti dovrebbero essere intesi come i contesti in cui operano i sistemi di IA, mentre gli output generati dal sistema di IA, ossia previsioni, raccomandazioni o decisioni, rispondono agli obiettivi del sistema sulla base degli input provenienti da tale ambiente . Tale output influenza ulteriormente detto ambiente, anche solo mediante l'introduzione di nuove informazioni.

Emendamento 19

Proposta di regolamento

Considerando 6 bis (nuovo)

Testo della Commissione

Emendamento

 

(6 bis)

I sistemi di IA sono spesso dotati di capacità di apprendimento automatico che consentono loro di adattarsi e di svolgere nuovi compiti in autonomia. L'apprendimento automatico si riferisce al processo computazionale di ottimizzazione dei parametri di un modello a partire dai dati, una costruzione matematica che genera un output basato su dati di input. Gli approcci di apprendimento automatico comprendono, ad esempio, l'apprendimento supervisionato, l'apprendimento non supervisionato e l'apprendimento per rinforzo e utilizzano una varietà di metodi, tra cui l'apprendimento profondo (deep learning) con reti neurali. Il presente regolamento mira ad affrontare i nuovi rischi potenziali che potrebbero sorgere delegando il controllo ai sistemi di IA, in particolare ai sistemi di IA che possono evolvere in seguito alla loro diffusione. La funzione e gli output di molti di questi sistemi di IA si basano su relazioni matematiche astratte che per gli esseri umani risultano difficili da comprendere e monitorare e i cui input specifici sono difficili da rintracciare. Tali caratteristiche complesse e opache (elemento «scatola nera») incidono sulla rendicontabilità e sulla spiegabilità. Tecniche comparabilmente più semplici, come gli approcci basati sulle conoscenze, le stime bayesiane o gli alberi decisionali, possono altresì comportare lacune giuridiche che devono essere affrontate dal presente regolamento, in particolare se usate in combinazione con gli approcci di apprendimento automatico nei sistemi ibridi.

Emendamento 20

Proposta di regolamento

Considerando 6 ter (nuovo)

Testo della Commissione

Emendamento

 

(6 ter)

I sistemi di IA possono essere utilizzati come sistemi software indipendenti (stand-alone), incorporati in un prodotto fisico (integrati), utilizzati per assistere la funzionalità di un prodotto fisico senza esservi incorporati (non integrati) o utilizzati come componenti di IA di un sistema più ampio. Qualora tale sistema più ampio non funzionasse senza il componente di IA in questione, l'intero sistema più ampio dovrebbe essere considerato un unico sistema di IA a norma del presente regolamento.

Emendamento 21

Proposta di regolamento

Considerando 7

Testo della Commissione

Emendamento

(7)

La nozione di dati biometrici utilizzata nel presente regolamento è in linea e dovrebbe essere interpretata in modo coerente con la nozione di dati biometrici di cui all'articolo 4, punto 14), del regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio (35) , all'articolo 3, punto 18), del regolamento (UE) n. 2018/1725 del Parlamento europeo e del Consiglio  (36) e all'articolo 3, punto 13), della direttiva (UE) 2016/680 del Parlamento europeo e del Consiglio  (37) .

(7)

La nozione di dati biometrici utilizzata nel presente regolamento è in linea e dovrebbe essere interpretata in modo coerente con la nozione di dati biometrici di cui all'articolo 4, punto 14), del regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio (35). I dati basati su elementi biometrici sono dati aggiuntivi ottenuti da un trattamento tecnico specifico in relazione ai segnali fisici, fisiologici o comportamentali di una persona fisica, quali ad esempio le espressioni facciali, i movimenti, la frequenza cardiaca, la voce, la pressione esercitata sui tasti o l'andatura, che possono o non possono consentire o confermare l'identificazione univoca di una persona fisica.

Emendamento 22

Proposta di regolamento

Considerando 7 bis (nuovo)

Testo della Commissione

Emendamento

 

(7 bis)

La nozione di «identificazione biometrica» utilizzata nel presente regolamento dovrebbe essere definita come il riconoscimento automatico di caratteristiche fisiche, fisiologiche, comportamentali e psicologiche di una persona, quali il volto, il movimento degli occhi, le espressioni facciali, la forma del corpo, la voce, il linguaggio, l'andatura, la postura, la frequenza cardiaca, la pressione sanguigna, l'odore, la pressione esercitata sui tasti, le reazioni psicologiche (rabbia, angoscia, dolore, ecc.), allo scopo di determinare l'identità di una persona confrontando i suoi dati biometrici con quelli di altri individui memorizzati in una banca dati (identificazione «uno a molti»), indipendentemente dal fatto che la persona abbia fornito il proprio consenso.

Emendamento 23

Proposta di regolamento

Considerando 7 ter (nuovo)

Testo della Commissione

Emendamento

 

(7 ter)

La nozione di categorizzazione biometrica utilizzata nel presente regolamento dovrebbe essere definita come l'assegnazione di persone fisiche a categorie specifiche o la deduzione delle loro caratteristiche o dei loro attributi, quali il genere, il sesso, l'età, il colore dei capelli, il colore degli occhi, i tatuaggi, l'origine etnica o sociale, la salute, l'abilità mentale o fisica, i tratti comportamentali o di personalità, la lingua, la religione o l'appartenenza a una minoranza nazionale o l'orientamento sessuale o politico, sulla base dei loro dati biometrici o dei dati basati su elementi biometrici o che possono essere dedotti da tali dati.

Emendamento 24

Proposta di regolamento

Considerando 8

Testo della Commissione

Emendamento

(8)

È opportuno definire a livello funzionale la nozione di sistema di identificazione biometrica remota utilizzata nel presente regolamento, quale sistema di IA destinato all'identificazione a distanza di persone fisiche mediante il confronto dei dati biometrici di una persona con i dati biometrici contenuti in una banca dati di riferimento, e senza sapere in anticipo se la persona interessata sarà presente e può essere identificata, a prescindere dalla tecnologia, dai processi o dai tipi specifici di dati biometrici utilizzati. Tenuto conto delle loro diverse caratteristiche e modalità di utilizzo, nonché dei diversi rischi connessi, è opportuno operare una distinzione tra sistemi di identificazione biometrica remota «in tempo reale» e «a posteriori». Nel caso dei sistemi «in tempo reale», il rilevamento dei dati biometrici, il confronto e l'identificazione avvengono tutti istantaneamente, quasi istantaneamente o in ogni caso senza ritardi significativi. A tale riguardo, non dovrebbe essere possibile eludere le regole del presente regolamento per quanto attiene all'uso «in tempo reale» dei sistemi di IA in questione prevedendo ritardi minimi. I sistemi «in tempo reale» comportano l'uso di materiale «dal vivo» o «quasi dal vivo» (ad esempio filmati) generato da una telecamera o da un altro dispositivo con funzionalità analoghe. Nel caso dei sistemi di identificazione «a posteriori», invece, i dati biometrici sono già stati rilevati e il confronto e l'identificazione avvengono solo con un ritardo significativo. Si tratta di materiale, come immagini o filmati generati da telecamere a circuito chiuso o da dispositivi privati, che è stato generato prima che il sistema fosse usato in relazione alle persone fisiche interessate.

(8)

È opportuno definire a livello funzionale la nozione di sistema di identificazione biometrica remota utilizzata nel presente regolamento, quale sistema di IA destinato all'identificazione a distanza di persone fisiche mediante il confronto dei dati biometrici di una persona con i dati biometrici contenuti in una banca dati di riferimento, e senza sapere in anticipo se la persona interessata sarà presente e può essere identificata, a prescindere dalla tecnologia, dai processi o dai tipi specifici di dati biometrici utilizzati , escludendo i sistemi di verifica che si limitano a confrontare i dati biometrici di una persona fisica con i dati biometrici forniti in precedenza («uno a uno») . Tenuto conto delle loro diverse caratteristiche e modalità di utilizzo, nonché dei diversi rischi connessi, è opportuno operare una distinzione tra sistemi di identificazione biometrica remota «in tempo reale» e «a posteriori». Nel caso dei sistemi «in tempo reale», il rilevamento dei dati biometrici, il confronto e l'identificazione avvengono tutti istantaneamente, quasi istantaneamente o in ogni caso senza ritardi significativi. A tale riguardo, non dovrebbe essere possibile eludere le regole del presente regolamento per quanto attiene all'uso «in tempo reale» dei sistemi di IA in questione prevedendo ritardi minimi. I sistemi «in tempo reale» comportano l'uso di materiale «dal vivo» o «quasi dal vivo» (ad esempio filmati) generato da una telecamera o da un altro dispositivo con funzionalità analoghe. Nel caso dei sistemi di identificazione «a posteriori», invece, i dati biometrici sono già stati rilevati e il confronto e l'identificazione avvengono solo con un ritardo significativo. Si tratta di materiale, come immagini o filmati generati da telecamere a circuito chiuso o da dispositivi privati, che è stato generato prima che il sistema fosse usato in relazione alle persone fisiche interessate. Poiché la nozione di identificazione biometrica è indipendente dal consenso della persona, tale definizione si applica anche quando le avvertenze sono collocate nel luogo soggetto alla vigilanza del sistema di identificazione biometrica remota, e non è di fatto annullata dal pre-inserimento.

Emendamento 25

Proposta di regolamento

Considerando 8 bis (nuovo)

Testo della Commissione

Emendamento

 

(8 bis)

L'identificazione a distanza delle persone fisiche è intesa a distinguere i sistemi di identificazione biometrica remota dai sistemi di verifica individuale di prossimità che utilizzano mezzi di identificazione biometrica, il cui unico scopo è quello di confermare se una determinata persona fisica che si presenta per l'identificazione disponga o meno di un'autorizzazione, ad esempio per accedere a un servizio, a un dispositivo o a locali.

Emendamento 26

Proposta di regolamento

Considerando 9

Testo della Commissione

Emendamento

(9)

Ai fini del presente regolamento la nozione di spazio accessibile al pubblico dovrebbe essere intesa come riferita a qualsiasi luogo fisico accessibile al pubblico, a prescindere dal fatto che il luogo in questione sia di proprietà pubblica o privata. La nozione non contempla pertanto i luoghi di natura privata, quali abitazioni, circoli privati, uffici, magazzini e fabbriche, che non sono di norma accessibili a terzi, comprese le autorità di contrasto, a meno che tali soggetti non siano stati specificamente invitati o autorizzati. Non sono del pari contemplati gli spazi online, dato che non sono luoghi fisici. Il semplice fatto che possano applicarsi determinate condizioni di accesso a uno spazio specifico, quali biglietti d'ingresso o limiti di età, non significa tuttavia che lo spazio non sia accessibile al pubblico ai sensi del presente regolamento. Di conseguenza, oltre agli spazi pubblici come le strade, le parti pertinenti degli edifici governativi e la maggior parte delle infrastrutture di trasporto, sono di norma accessibili al pubblico anche spazi quali cinema, teatri, negozi e centri commerciali. L'accessibilità di un determinato spazio al pubblico dovrebbe tuttavia essere determinata caso per caso, tenendo conto delle specificità della singola situazione presa in esame.

(9)

Ai fini del presente regolamento la nozione di spazio accessibile al pubblico dovrebbe essere intesa come riferita a qualsiasi luogo fisico accessibile al pubblico, a prescindere dal fatto che il luogo in questione sia di proprietà pubblica o privata e indipendentemente dalle potenziali restrizioni di capacità . La nozione non contempla pertanto i luoghi di natura privata, quali abitazioni, circoli privati, uffici, magazzini e fabbriche, che non sono di norma accessibili a terzi, comprese le autorità di contrasto, a meno che tali soggetti non siano stati specificamente invitati o autorizzati. Non sono del pari contemplati gli spazi online, dato che non sono luoghi fisici. Il semplice fatto che possano applicarsi determinate condizioni di accesso a uno spazio specifico, quali biglietti d'ingresso o limiti di età, non significa tuttavia che lo spazio non sia accessibile al pubblico ai sensi del presente regolamento. Di conseguenza, oltre agli spazi pubblici come le strade, le parti pertinenti degli edifici governativi e la maggior parte delle infrastrutture di trasporto, sono di norma accessibili al pubblico anche spazi quali cinema, teatri, campi sportivi, scuole, università, parti pertinenti di ospedali e banche, parchi di divertimento, festival, negozi e centri commerciali. L'accessibilità di un determinato spazio al pubblico dovrebbe tuttavia essere determinata caso per caso, tenendo conto delle specificità della singola situazione presa in esame.

Emendamento 27

Proposta di regolamento

Considerando 9 bis (nuovo)

Testo della Commissione

Emendamento

 

(9 bis)

È importante osservare che i sistemi di IA dovrebbero fare il possibile per rispettare i principi generali che istituiscono un quadro di alto livello che promuova un approccio coerente e antropocentrico a un'IA etica e affidabile, in linea con la Carta dei diritti fondamentali dell'Unione europea e i valori su cui si fonda l'Unione, tra cui la protezione dei diritti fondamentali, l'intervento e la sorveglianza umani, la robustezza tecnica e la sicurezza, la riservatezza e la governance dei dati, la trasparenza, la non discriminazione e l'equità nonché il benessere sociale e ambientale.

Emendamento 28

Proposta di regolamento

Considerando 9 ter (nuovo)

Testo della Commissione

Emendamento

 

(9 ter)

L'«alfabetizzazione in materia di IA» si riferisce alle competenze, alle conoscenze e alla comprensione che consentono ai fornitori, agli utenti e alle persone interessate, tenendo conto dei loro rispettivi diritti e obblighi nel contesto del presente regolamento, di procedere a una diffusione informata dei sistemi di IA, nonché di acquisire consapevolezza in merito alle opportunità e ai rischi dell'IA e ai possibili danni che essa può causare, promuovendone in tal modo il controllo democratico. L'alfabetizzazione in materia di IA non dovrebbe limitarsi all'apprendimento di strumenti e tecnologie, ma dovrebbe anche mirare a dotare i fornitori e gli utenti delle nozioni e delle competenze necessarie per garantire la conformità al presente regolamento e la sua applicazione. È pertanto necessario che la Commissione, gli Stati membri, nonché i fornitori e gli utenti dei sistemi di IA, in collaborazione con tutti i pertinenti portatori di interessi, promuovano lo sviluppo di un livello sufficiente di alfabetizzazione in materia di IA in tutti i settori della società, per le persone di tutte le età, ivi comprese le donne e le ragazze, e che i progressi in tal senso siano seguiti con attenzione.

Emendamento 29

Proposta di regolamento

Considerando 10

Testo della Commissione

Emendamento

(10)

Al fine di garantire condizioni di parità e una protezione efficace dei diritti e delle libertà delle persone in tutta l'Unione, è opportuno che le regole stabilite dal presente regolamento si applichino ai fornitori di sistemi di IA in modo non discriminatorio, a prescindere dal fatto che siano stabiliti nell'Unione o in un paese terzo, e agli utenti dei sistemi di IA stabiliti nell'Unione.

(10)

Al fine di garantire condizioni di parità e una protezione efficace dei diritti e delle libertà delle persone in tutta l'Unione e a livello internazionale , è opportuno che le regole stabilite dal presente regolamento si applichino ai fornitori di sistemi di IA in modo non discriminatorio, a prescindere dal fatto che siano stabiliti nell'Unione o in un paese terzo, e agli operatori dei sistemi di IA stabiliti nell'Unione. Affinché l'Unione sia fedele ai suoi valori fondamentali, i sistemi di IA destinati a essere utilizzati per pratiche considerate inaccettabili dal presente regolamento dovrebbero essere considerati inaccettabili anche al di fuori dell'Unione a causa della loro incidenza particolarmente nociva sui diritti fondamentali sanciti dalla Carta. È pertanto opportuno vietare l'esportazione di tali sistemi di IA verso paesi terzi da parte di fornitori residenti nell'Unione.

Emendamento 30

Proposta di regolamento

Considerando 11

Testo della Commissione

Emendamento

(11)

Alla luce della loro natura di sistemi digitali, è opportuno che determinati sistemi di IA rientrino nell'ambito di applicazione del presente regolamento anche quando non sono immessi sul mercato, né messi in servizio, né utilizzati nell'Unione. È il caso, ad esempio, di un operatore stabilito nell'Unione che appalta alcuni servizi a un operatore stabilito al di fuori dell'Unione in relazione a un'attività che deve essere svolta da un sistema di IA che sarebbe classificato ad alto rischio e i cui effetti avrebbero un impatto sulle persone fisiche che si trovano nell'Unione. In tali circostanze il sistema di IA utilizzato dall'operatore al di fuori dell'Unione potrebbe trattare dati raccolti nell'Unione e da lì trasferiti, nel rispetto della legge, e fornire all'operatore appaltante nell'Unione l'output di tale sistema di IA risultante da tale trattamento, senza che tale sistema di IA sia immesso sul mercato, messo in servizio o utilizzato nell'Unione. Al fine di impedire l'elusione del presente regolamento e di garantire una protezione efficace delle persone fisiche che si trovano nell'Unione, è opportuno che il presente regolamento si applichi anche ai fornitori e agli utenti di sistemi di IA stabiliti in un paese terzo, nella misura in cui l'output prodotto da tali sistemi è utilizzato nell'Unione. Cionondimeno, per tener conto degli accordi vigenti e delle esigenze particolari per la cooperazione con partner stranieri con cui sono scambiate informazioni e elementi probatori, il presente regolamento non dovrebbe applicarsi alle autorità pubbliche di un paese terzo e alle organizzazioni internazionali che agiscono nel quadro di accordi internazionali conclusi a livello nazionale o europeo per la cooperazione delle autorità giudiziarie e di contrasto con l'Unione o con i suoi Stati membri. Tali accordi sono stati conclusi bilateralmente tra Stati membri e paesi terzi o tra l'Unione europea, Europol e altre agenzie dell'UE e paesi terzi e organizzazioni internazionali.

(11)

Alla luce della loro natura di sistemi digitali, è opportuno che determinati sistemi di IA rientrino nell'ambito di applicazione del presente regolamento anche quando non sono immessi sul mercato, né messi in servizio, né utilizzati nell'Unione. È il caso, ad esempio, di un operatore stabilito nell'Unione che appalta alcuni servizi a un operatore stabilito al di fuori dell'Unione in relazione a un'attività che deve essere svolta da un sistema di IA che sarebbe classificato ad alto rischio e i cui effetti avrebbero un impatto sulle persone fisiche che si trovano nell'Unione. In tali circostanze il sistema di IA utilizzato dall'operatore al di fuori dell'Unione potrebbe trattare dati raccolti nell'Unione e da lì trasferiti, nel rispetto della legge, e fornire all'operatore appaltante nell'Unione l'output di tale sistema di IA risultante da tale trattamento, senza che tale sistema di IA sia immesso sul mercato, messo in servizio o utilizzato nell'Unione. Al fine di impedire l'elusione del presente regolamento e di garantire una protezione efficace delle persone fisiche che si trovano nell'Unione, è opportuno che il presente regolamento si applichi anche ai fornitori, agli utenti e agli operatori di sistemi di IA stabiliti in un paese terzo, nella misura in cui l'output prodotto da tali sistemi è destinato a essere utilizzato nell'Unione. Cionondimeno, per tener conto degli accordi vigenti e delle esigenze particolari per la cooperazione con partner stranieri con cui sono scambiate informazioni e elementi probatori, il presente regolamento non dovrebbe applicarsi alle autorità pubbliche di un paese terzo e alle organizzazioni internazionali che agiscono nel quadro di accordi internazionali conclusi a livello nazionale o europeo per la cooperazione delle autorità giudiziarie e di contrasto con l'Unione o con i suoi Stati membri. Tali accordi sono stati conclusi bilateralmente tra Stati membri e paesi terzi o tra l'Unione europea, Europol e altre agenzie dell'UE e paesi terzi e organizzazioni internazionali. Tale eccezione dovrebbe, tuttavia, essere limitata ai paesi e alle organizzazioni internazionali affidabili che condividono i valori dell'Unione.

Emendamento 31

Proposta di regolamento

Considerando 12

Testo della Commissione

Emendamento

(12)

È altresì opportuno che il presente regolamento si applichi alle istituzioni, agli uffici, agli organismi e alle agenzie dell'Unione quando agiscono in qualità di fornitori o utenti di un sistema di IA. I sistemi di IA sviluppati o utilizzati esclusivamente per scopi militari dovrebbero essere esclusi dall'ambito di applicazione del presente regolamento nel caso in cui tale uso rientri nell'ambito di competenza esclusiva della politica estera e di sicurezza comune disciplinata dal titolo V del trattato sull'Unione europea (TUE). Il presente regolamento non dovrebbe pregiudicare le disposizioni relative alla responsabilità dei prestatori intermediari di cui alla direttiva 2000/31/CE del Parlamento europeo e del Consiglio [come modificata dalla legge sui servizi digitali].

(12)

È altresì opportuno che il presente regolamento si applichi alle istituzioni, agli uffici, agli organismi e alle agenzie dell'Unione quando agiscono in qualità di fornitori od operatori di un sistema di IA. I sistemi di IA sviluppati o utilizzati esclusivamente per scopi militari dovrebbero essere esclusi dall'ambito di applicazione del presente regolamento nel caso in cui tale uso rientri nell'ambito di competenza esclusiva della politica estera e di sicurezza comune disciplinata dal titolo V del trattato sull'Unione europea (TUE). Il presente regolamento non dovrebbe pregiudicare le disposizioni relative alla responsabilità dei prestatori intermediari di cui alla direttiva 2000/31/CE del Parlamento europeo e del Consiglio [come modificata dalla legge sui servizi digitali].

Emendamento 32

Proposta di regolamento

Considerando 12 bis (nuovo)

Testo della Commissione

Emendamento

 

(12 bis)

I software e i dati che sono condivisi apertamente e che gli utenti possono liberamente consultare, utilizzare, modificare e ridistribuire, comprese le loro versioni modificate, possono contribuire alla ricerca e all'innovazione nel mercato. Dalle ricerche condotte dalla Commissione emerge anche che i software liberi e open source possono contribuire al PIL dell'Unione europea per un valore compreso tra i 65 e i 95 miliardi di EUR e offrire notevoli opportunità di crescita per l'economia europea. Gli utenti possono eseguire, copiare, distribuire, studiare, modificare e migliorare i software e i dati, compresi i modelli, mediante licenze libere e open source. Al fine di favorire lo sviluppo e la diffusione dell'IA, in particolare da parte delle PMI, delle start-up e del mondo della ricerca accademica, ma anche dei singoli individui, il presente regolamento non si dovrebbe applicare a tali componenti di IA liberi e open source, tranne nella misura in cui essi sono immessi sul mercato o messi in servizio da un fornitore nell'ambito di un sistema di IA ad alto rischio o di un sistema di IA che rientra nel titolo II o IV del presente regolamento.

Emendamento 33

Proposta di regolamento

Considerando 12 ter (nuovo)

Testo della Commissione

Emendamento

 

(12 ter)

Né lo sviluppo collaborativo di componenti di IA liberi e open source né la loro messa a disposizione su archivi aperti dovrebbero essere considerati un'immissione sul mercato o una messa in servizio. Un'attività commerciale, nel senso di una messa a disposizione sul mercato, può tuttavia essere caratterizzata dall'applicazione di un prezzo, ad eccezione delle transazioni tra microimprese, per un componente di IA libero e open source, ma anche dall'applicazione di un prezzo per i servizi di assistenza tecnica, dalla fornitura di una piattaforma software attraverso la quale il fornitore monetizza altri servizi o dall'utilizzo di dati personali per motivi diversi dal solo miglioramento della sicurezza, della compatibilità o dell'interoperabilità del software.

Emendamento 34

Proposta di regolamento

Considerando 12 quater (nuovo)

Testo della Commissione

Emendamento

 

(12 quater)

È opportuno che gli sviluppatori indipendenti di componenti di IA liberi e open source non siano obbligati, a norma del presente regolamento, a conformarsi a requisiti relativi alla catena del valore dell'IA e, in particolare, nei confronti dei fornitori che utilizzano tale componente di IA libero e open source. Gli sviluppatori di componenti di IA liberi e open source dovrebbero tuttavia essere incoraggiati ad attuare pratiche di documentazione ampiamente adottate, come modelli e schede dati, al fine di accelerare la condivisione delle informazioni lungo la catena del valore dell'IA, consentendo la promozione di sistemi di IA affidabili nell'Unione.

Emendamento 35

Proposta di regolamento

Considerando 13

Testo della Commissione

Emendamento

(13)

Al fine di garantire un livello costante ed elevato di tutela degli interessi pubblici in materia di salute, sicurezza e diritti fondamentali, è opportuno stabilire norme legislative comuni per tutti i sistemi di IA ad alto rischio. Tali norme dovrebbero essere coerenti con la Carta dei diritti fondamentali dell'Unione europea (la Carta) , non discriminatorie e in linea con gli impegni commerciali internazionali dell'Unione.

(13)

Al fine di garantire un livello costante ed elevato di tutela degli interessi pubblici in materia di salute, sicurezza e diritti fondamentali , nonché di democrazia, Stato di diritto e ambiente , è opportuno stabilire norme legislative comuni per tutti i sistemi di IA ad alto rischio. Tali norme dovrebbero essere coerenti con la Carta, il Green Deal europeo, la dichiarazione comune sui diritti digitali dell'Unione e gli orientamenti etici per un'intelligenza artificiale (IA) affidabile elaborati dal gruppo di esperti ad alto livello sull'intelligenza artificiale, non discriminatorie e in linea con gli impegni commerciali internazionali dell'Unione.

Emendamento 36

Proposta di regolamento

Considerando 14

Testo della Commissione

Emendamento

(14)

Al fine di introdurre un insieme proporzionato ed efficace di regole vincolanti per i sistemi di IA è opportuno avvalersi di un approccio basato sul rischio definito in modo chiaro. Tale approccio dovrebbe adattare la tipologia e il contenuto di dette regole all'intensità e alla portata dei rischi che possono essere generati dai sistemi di IA. È pertanto necessario vietare determinate pratiche di intelligenza artificiale, stabilire requisiti per i sistemi di IA ad alto rischio e obblighi per gli operatori pertinenti, nonché obblighi di trasparenza per determinati sistemi di IA.

(14)

Al fine di introdurre un insieme proporzionato ed efficace di regole vincolanti per i sistemi di IA è opportuno avvalersi di un approccio basato sul rischio definito in modo chiaro. Tale approccio dovrebbe adattare la tipologia e il contenuto di dette regole all'intensità e alla portata dei rischi che possono essere generati dai sistemi di IA. È pertanto necessario vietare determinate pratiche inaccettabili di intelligenza artificiale, stabilire requisiti per i sistemi di IA ad alto rischio e obblighi per gli operatori pertinenti, nonché obblighi di trasparenza per determinati sistemi di IA.

Emendamento 37

Proposta di regolamento

Considerando 15

Testo della Commissione

Emendamento

(15)

L'intelligenza artificiale presenta, accanto a molti utilizzi benefici, la possibilità di essere utilizzata impropriamente e di fornire strumenti nuovi e potenti per pratiche di manipolazione, sfruttamento e controllo sociale. Tali pratiche sono particolarmente dannose e dovrebbero essere vietate poiché contraddicono i valori dell'Unione relativi al rispetto della dignità umana, della libertà, dell'uguaglianza, della democrazia e dello Stato di diritto e dei diritti fondamentali dell'Unione, compresi il diritto alla non discriminazione, alla protezione dei dati e della vita privata e i diritti dei minori.

(15)

L'intelligenza artificiale presenta, accanto a molti utilizzi benefici, la possibilità di essere utilizzata impropriamente e di fornire strumenti nuovi e potenti per pratiche di manipolazione, sfruttamento e controllo sociale. Tali pratiche sono particolarmente dannose e abusive e dovrebbero essere vietate poiché contraddicono i valori dell'Unione relativi al rispetto della dignità umana, della libertà, dell'uguaglianza, della democrazia e dello Stato di diritto e dei diritti fondamentali dell'Unione, compresi il diritto alla non discriminazione, alla protezione dei dati e della vita privata e i diritti dei minori.

Emendamento 38

Proposta di regolamento

Considerando 16

Testo della Commissione

Emendamento

(16)

È opportuno vietare l'immissione sul mercato, la messa in servizio o l'uso di determinati sistemi di IA intesi a distorcere il comportamento umano e che possono provocare danni fisici o psicologici. Tali sistemi di IA impiegano componenti subliminali che i singoli individui non sono in grado di percepire, oppure sfruttano le vulnerabilità di bambini e persone, dovute all'età o a incapacità fisiche o mentali. Si tratta di azioni compiute con l'intento di distorcere materialmente il comportamento di una persona, in un modo che provoca o può provocare un danno a tale persona o a un'altra. Tale intento non può essere presunto se la distorsione del comportamento umano è determinata da fattori esterni al sistema di IA, che sfuggono al controllo del fornitore o dell'utente. Tale divieto non dovrebbe ostacolare la ricerca per scopi legittimi in relazione a tali sistemi di IA, se tale ricerca non equivale a un uso del sistema di IA nelle relazioni uomo-macchina che espone le persone fisiche a danni e se tale ricerca è condotta conformemente a norme etiche riconosciute per la ricerca scientifica.

(16)

È opportuno vietare l'immissione sul mercato, la messa in servizio o l'uso di determinati sistemi di IA che hanno l'obiettivo o l'effetto di distorcere materialmente il comportamento umano e che possono provocare danni fisici o psicologici. Dovrebbero intendersi incluse in tale limitazione le neurotecnologie assistite da sistemi di IA che sono utilizzate per monitorare, sfruttare o influenzare i dati neurali raccolti attraverso interfacce cervello-computer nella misura in cui distorcono materialmente il comportamento di una persona fisica in un modo che provoca o può provocare un danno significativo a tale persona o a un'altra. Tali sistemi di IA impiegano componenti subliminali che i singoli individui non sono in grado di percepire, oppure sfruttano le vulnerabilità di individui gruppi specifici di persone, dovute ai tratti noti o presunti della loro personalità, all'età o a incapacità fisiche o mentali , o alla situazione sociale o economica . Si tratta di azioni compiute con l'intento o l'effetto di distorcere materialmente il comportamento di una persona, in un modo che provoca o può provocare un danno significativo a tale persona o a un'altra o a gruppi di persone, inclusi danni accumulabili nel tempo . Tale intento di distorcere il comportamento non può essere presunto se la distorsione è determinata da fattori esterni al sistema di IA, che sfuggono al controllo del fornitore o dell'utente , come fattori che possono non essere ragionevolmente previsti e attenuati dal fornitore o dall'operatore del sistema di IA . In ogni caso, non è necessario che il fornitore o l'operatore abbiano l'intento di provocare il danno significativo, purché tale danno derivi da pratiche manipolative o di sfruttamento consentite dall'IA. Il divieto di tali pratiche di IA è complementare alle disposizioni della direttiva 2005/29/CE, secondo cui le pratiche commerciali sleali sono vietate, indipendentemente dal fatto che siano attuate ricorrendo a sistemi di IA o in altro modo. In tale contesto, le pratiche commerciali lecite, ad esempio nel settore della pubblicità, che sono conformi al diritto dell'Unione non dovrebbero essere considerate di per sé contrarie al divieto. Tale divieto non dovrebbe ostacolare la ricerca per scopi legittimi in relazione a tali sistemi di IA, se tale ricerca non equivale a un uso del sistema di IA nelle relazioni uomo-macchina che espone le persone fisiche a danni e se tale ricerca è condotta conformemente a norme etiche riconosciute per la ricerca scientifica e sulla base del consenso informato specifico delle persone esposte o, se del caso, del loro tutore legale .

Emendamento 39

Proposta di regolamento

Considerando 16 bis (nuovo)

Testo della Commissione

Emendamento

 

(16 bis)

I sistemi di IA che classificano le persone fisiche assegnandole a categorie specifiche, in base a caratteristiche sensibili o protette note o dedotte, sono particolarmente intrusivi, violano la dignità umana e presentano un elevato rischio di discriminazione. Tali caratteristiche includono il genere e l'identità di genere, la razza, l'origine etnica, lo status di cittadinanza o migrazione, l'orientamento politico, l'orientamento sessuale, la religione, la disabilità o qualsiasi altro motivo in base al quale la discriminazione è vietata a norma dell'articolo 21 della Carta dei diritti fondamentali dell'Unione europea, nonché a norma dell'articolo 9 del regolamento (UE) 2016/769. È pertanto opportuno vietare tali sistemi.

Emendamento 40

Proposta di regolamento

Considerando 17

Testo della Commissione

Emendamento

(17)

I sistemi di IA che forniscono un punteggio sociale delle persone fisiche per finalità generali delle autorità pubbliche o di loro rappresentanti possono portare a risultati discriminatori e all'esclusione di determinati gruppi. Possono inoltre ledere il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia. Tali sistemi di IA valutano o classificano l'affidabilità delle persone fisiche sulla base del loro comportamento sociale in molteplici contesti o di caratteristiche personali o della personalità note o previste. Il punteggio sociale ottenuto da tali sistemi di IA può determinare un trattamento pregiudizievole o sfavorevole di persone fisiche o di interi gruppi in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti, o a un trattamento pregiudizievole che risulta ingiustificato o sproporzionato rispetto alla gravità del loro comportamento sociale. È pertanto opportuno vietare tali sistemi di IA.

(17)

I sistemi di IA che forniscono un punteggio sociale delle persone fisiche per finalità generali possono portare a risultati discriminatori e all'esclusione di determinati gruppi. Ledono inoltre il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia. Tali sistemi di IA valutano o classificano le persone fisiche o i gruppi sulla base di vari punti di dati e occorrenze riguardanti il loro comportamento sociale in molteplici contesti o di caratteristiche personali o della personalità note , dedotte o previste. Il punteggio sociale ottenuto da tali sistemi di IA può determinare un trattamento pregiudizievole o sfavorevole di persone fisiche o di interi gruppi in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti, o a un trattamento pregiudizievole che risulta ingiustificato o sproporzionato rispetto alla gravità del loro comportamento sociale. È pertanto opportuno vietare tali sistemi di IA.

Emendamento 41

Proposta di regolamento

Considerando 18

Testo della Commissione

Emendamento

(18)

L'uso di sistemi di IA di identificazione biometrica remota «in tempo reale» delle persone fisiche in spazi accessibili al pubblico a fini di attività di contrasto è ritenuto particolarmente invasivo dei diritti e delle libertà delle persone interessate , nella misura in cui potrebbe avere ripercussioni sulla vita privata di un'ampia fetta della popolazione, farla sentire costantemente sotto sorveglianza e scoraggiare in maniera indiretta l'esercizio della libertà di riunione e di altri diritti fondamentali. L'immediatezza dell'impatto e le limitate opportunità di eseguire ulteriori controlli o apportare correzioni in relazione all'uso di tali sistemi che operano «in tempo reale» comportano inoltre un aumento dei rischi per quanto concerne i diritti e le libertà delle persone oggetto di attività di contrasto.

(18)

L'uso di sistemi di IA di identificazione biometrica remota «in tempo reale» delle persone fisiche in spazi accessibili al pubblico è particolarmente invasivo dei diritti e delle libertà delle persone interessate e può in ultima analisi avere ripercussioni sulla vita privata di un'ampia fetta della popolazione, farla sentire costantemente sotto sorveglianza , collocare le parti che impiegano l'identificazione biometrica in spazi accessibili al pubblico in una posizione di potere incontrollabile e scoraggiare in maniera indiretta l'esercizio della libertà di riunione e di altri diritti fondamentali che costituiscono l'essenza dello Stato di diritto. Le inesattezze di carattere tecnico dei sistemi di IA destinati all'identificazione biometrica remota delle persone fisiche possono determinare risultati distorti e comportare effetti discriminatori. Ciò diviene particolarmente importante quando si trattano aspetti quali età, etnia, sesso o disabilità . L'immediatezza dell'impatto e le limitate opportunità di eseguire ulteriori controlli o apportare correzioni in relazione all'uso di tali sistemi che operano «in tempo reale» comportano inoltre un aumento dei rischi per quanto concerne i diritti e le libertà delle persone oggetto di attività di contrasto. L'uso di tali sistemi in spazi accessibili al pubblico dovrebbe pertanto essere vietato. Analogamente, anche i sistemi di IA utilizzati per l'analisi di filmati registrati di spazi accessibili al pubblico attraverso sistemi di identificazione biometrica remota «a posteriori» dovrebbero essere vietati, a meno che non vi sia un'autorizzazione giudiziaria preventiva concernente il loro uso a fini di contrasto, ove strettamente necessario per la ricerca mirata connessa a uno specifico reato grave già avvenuto e previa autorizzazione giudiziaria.

Emendamento 42

Proposta di regolamento

Considerando 19

Testo della Commissione

Emendamento

(19)

L'uso di tali sistemi a fini di attività di contrasto dovrebbe pertanto essere vietato, eccezion fatta per tre situazioni elencate in modo esaustivo e definite rigorosamente, nelle quali l'uso è strettamente necessario per perseguire un interesse pubblico rilevante, la cui importanza prevale sui rischi. Tali situazioni comprendono la ricerca di potenziali vittime di reato, compresi i minori scomparsi, determinate minacce per la vita o l'incolumità fisica delle persone fisiche o un attacco terroristico nonché il rilevamento, la localizzazione e l'identificazione degli autori o dei sospettati di reati di cui nella decisione quadro 2002/584/GAI del Consiglio  (38) o l'azione penale nei loro confronti, se tali reati, quali definiti dalla legge dello Stato membro interessato, sono punibili in tale Stato membro con una pena o una misura di sicurezza privativa della libertà personale della durata massima di almeno tre anni. Tale soglia per la pena o la misura di sicurezza privativa della libertà personale in conformità al diritto nazionale contribuisce a garantire che il reato sia sufficientemente grave da giustificare potenzialmente l'uso di sistemi di identificazione biometrica remota «in tempo reale». Inoltre è probabile che, a livello pratico, alcuni dei 32 reati elencati della decisione quadro 2002/584/GAI del Consiglio risultino più pertinenti di altri, poiché il grado di necessità e proporzionalità del ricorso all'identificazione biometrica remota «in tempo reale» sarà prevedibilmente molto variabile per quanto concerne il perseguimento pratico del rilevamento, della localizzazione, dell'identificazione o dell'azione penale nei confronti di un autore o un sospettato dei vari reati elencati e con riguardo alle possibili differenze in termini di gravità, probabilità e portata del danno o delle eventuali conseguenze negative.

soppresso

Emendamento 43

Proposta di regolamento

Considerando 20

Testo della Commissione

Emendamento

(20)

Al fine di garantire che tali sistemi siano utilizzati in modo responsabile e proporzionato, è altresì importante stabilire che, in ciascuna delle tre situazioni elencate in modo esaustivo e definite rigorosamente, è opportuno tener conto di taluni elementi, in particolare per quanto riguarda la natura della situazione all'origine della richiesta e le conseguenze dell'uso per i diritti e le libertà di tutte le persone interessate, nonché le tutele e le condizioni previste per l'uso. L'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto dovrebbe inoltre essere subordinato a limiti di tempo e di spazio adeguati, con particolare riguardo a indicazioni o elementi probatori relativi a minacce, vittime o autori di reati. La banca dati di riferimento delle persone dovrebbe risultare adeguata per ogni caso d'uso in ciascuna delle tre situazioni di cui sopra.

soppresso

Emendamento 44

Proposta di regolamento

Considerando 21

Testo della Commissione

Emendamento

(21)

È opportuno subordinare ogni uso di un sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto a un'autorizzazione esplicita e specifica da parte di un'autorità giudiziaria o di un'autorità amministrativa indipendente di uno Stato membro. Tale autorizzazione dovrebbe, in linea di principio, essere ottenuta prima dell'uso, tranne in situazioni di urgenza debitamente giustificate, vale a dire le situazioni in cui la necessità di utilizzare i sistemi in questione è tale da far sì che sia effettivamente e oggettivamente impossibile ottenere un'autorizzazione prima di iniziare a utilizzare il sistema. In tali situazioni di urgenza, è opportuno limitare l'uso al minimo indispensabile e subordinarlo a tutele e condizioni adeguate, come stabilito dal diritto nazionale e specificato nel contesto di ogni singolo caso d'uso urgente dall'autorità di contrasto stessa. L'autorità di contrasto dovrebbe inoltre in tali situazioni tentare di ottenere nel minor tempo possibile un'autorizzazione, indicando contestualmente i motivi per cui non ha potuto richiederla prima.

soppresso

Emendamento 45

Proposta di regolamento

Considerando 22

Testo della Commissione

Emendamento

(22)

È altresì opportuno prevedere, nell'ambito del quadro esaustivo stabilito dal presente regolamento, che tale uso nel territorio di uno Stato membro in conformità al presente regolamento sia possibile solo nel caso e nella misura in cui lo Stato membro in questione abbia deciso di prevedere espressamente la possibilità di autorizzare tale uso nelle regole dettagliate del proprio diritto nazionale. Gli Stati membri restano di conseguenza liberi, a norma del presente regolamento, di non prevedere affatto tale possibilità o di prevederla soltanto per alcuni degli obiettivi idonei a giustificare l'uso autorizzato di cui nel presente regolamento.

soppresso

Emendamento 46

Proposta di regolamento

Considerando 23

Testo della Commissione

Emendamento

(23)

L'uso di sistemi di IA per l'identificazione biometrica remota «in tempo reale» di persone fisiche in spazi accessibili al pubblico a fini di attività di contrasto comporta necessariamente il trattamento di dati biometrici. Le regole del presente regolamento che, fatte salve alcune eccezioni, vietano tale uso, e che sono basate sull'articolo 16 TFUE, dovrebbero applicarsi come lex specialis rispetto alle regole sul trattamento dei dati biometrici di cui all'articolo 10 della direttiva (UE) 2016/680, disciplinando quindi in modo esaustivo tale uso e il trattamento dei dati biometrici interessati. L'uso e il trattamento di cui sopra dovrebbero pertanto essere possibili solo nella misura in cui siano compatibili con il quadro stabilito dal presente regolamento, senza che al di fuori di tale quadro sia prevista la possibilità, per le autorità competenti, quando agiscono a fini di attività di contrasto, di utilizzare tali sistemi e trattare tali dati in connessione con tali attività per i motivi di cui all'articolo 10 della direttiva (UE) 2016/680. In tale contesto, il presente regolamento non è inteso a fornire la base giuridica per il trattamento dei dati personali a norma dell'articolo 8 della direttiva 2016/680. Tuttavia, l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini diversi dalle attività di contrasto, anche da parte delle autorità competenti, non dovrebbe rientrare nel quadro specifico stabilito dal presente regolamento in relazione a tale uso a fini di attività di contrasto. Tale uso a fini diversi dalle attività di contrasto non dovrebbe pertanto essere subordinato all'obbligo di un'autorizzazione a norma del presente regolamento e delle regole dettagliate applicabili del diritto nazionale che possono darvi attuazione.

soppresso

Emendamento 47

Proposta di regolamento

Considerando 24

Testo della Commissione

Emendamento

(24)

Qualsiasi trattamento di dati biometrici e di altri dati personali interessati dall'uso di sistemi di IA a fini di identificazione biometrica, diverso da quello connesso all'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto disciplinato dal presente regolamento , compresi i casi in cui tali sistemi sono utilizzati dalle autorità competenti in spazi accessibili al pubblico per fini diversi dalle attività di contrasto, dovrebbe continuare a soddisfare tutti i requisiti derivanti dall'articolo 9, paragrafo 1, del regolamento (UE) 2016/679, dall'articolo 10, paragrafo 1, del regolamento (UE) 2018/1725 e dall'articolo 10 della direttiva (UE) 2016/680, a seconda dei casi.

(24)

Qualsiasi trattamento di dati biometrici e di altri dati personali interessati dall'uso di sistemi di IA a fini di identificazione biometrica, diverso da quello connesso all'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico disciplinato dal presente regolamento dovrebbe continuare a soddisfare tutti i requisiti derivanti dall'articolo 9, paragrafo 1, del regolamento (UE) 2016/679, dall'articolo 10, paragrafo 1, del regolamento (UE) 2018/1725 e dall'articolo 10 della direttiva (UE) 2016/680, a seconda dei casi.

Emendamento 48

Proposta di regolamento

Considerando 25

Testo della Commissione

Emendamento

(25)

A norma dell'articolo 6 bis del protocollo n. 21 sulla posizione del Regno Unito e dell'Irlanda rispetto allo spazio di libertà, sicurezza e giustizia, allegato al TUE e al TFUE, l'Irlanda non è vincolata dalle regole stabilite all'articolo 5, paragrafo 1, lettera d), e paragrafi 2 e 3, del presente regolamento, adottate in base all'articolo 16 TFUE, che riguardano il trattamento dei dati personali da parte degli Stati membri nell'esercizio di attività che rientrano nell'ambito di applicazione della parte terza, titolo V, capi 4 o 5, TFUE, laddove l'Irlanda non sia vincolata da regole che disciplinano forme di cooperazione giudiziaria in materia penale o di cooperazione di polizia nell'ambito delle quali devono essere rispettate le disposizioni stabilite in base all'articolo 16 TFUE.

(25)

A norma dell'articolo 6 bis del protocollo n. 21 sulla posizione del Regno Unito e dell'Irlanda rispetto allo spazio di libertà, sicurezza e giustizia, allegato al TUE e al TFUE, l'Irlanda non è vincolata dalle regole stabilite all'articolo 5, paragrafo 1, lettera d), del presente regolamento, adottate in base all'articolo 16 TFUE, che riguardano il trattamento dei dati personali da parte degli Stati membri nell'esercizio di attività che rientrano nell'ambito di applicazione della parte terza, titolo V, capi 4 o 5, TFUE, laddove l'Irlanda non sia vincolata da regole che disciplinano forme di cooperazione giudiziaria in materia penale o di cooperazione di polizia nell'ambito delle quali devono essere rispettate le disposizioni stabilite in base all'articolo 16 TFUE.

Emendamento 49

Proposta di regolamento

Considerando 26

Testo della Commissione

Emendamento

(26)

A norma degli articoli 2 e 2 bis del protocollo n. 22 sulla posizione della Danimarca, allegato al TUE e al TFUE, la Danimarca non è vincolata dalle regole stabilite all'articolo 5, paragrafo 1, lettera d), e paragrafi 2 e 3, del presente regolamento, adottate in base all'articolo 16 TFUE, che riguardano il trattamento dei dati personali da parte degli Stati membri nell'esercizio di attività che rientrano nell'ambito di applicazione della parte terza, titolo V, capi 4 o 5, TFUE, né è soggetta alla loro applicazione.

(26)

A norma degli articoli 2 e 2 bis del protocollo n. 22 sulla posizione della Danimarca, allegato al TUE e al TFUE, la Danimarca non è vincolata dalle regole stabilite all'articolo 5, paragrafo 1, lettera d), del presente regolamento, adottate in base all'articolo 16 TFUE, che riguardano il trattamento dei dati personali da parte degli Stati membri nell'esercizio di attività che rientrano nell'ambito di applicazione della parte terza, titolo V, capi 4 o 5, TFUE, né è soggetta alla loro applicazione.

Emendamento 50

Proposta di regolamento

Considerando 26 bis (nuovo)

Testo della Commissione

Emendamento

 

(26 bis)

I sistemi di IA utilizzati dalle autorità di contrasto o per loro conto per realizzare previsioni, profili o valutazioni del rischio sulla base della profilazione delle persone fisiche o dell'analisi dei dati a partire dai tratti e dalle caratteristiche della personalità, inclusa l'ubicazione della persona, o del comportamento criminale pregresso delle persone fisiche o dei gruppi di persone allo scopo di prevedere il verificarsi o il ripetersi di reati effettivi o potenziali o di altri comportamenti sociali penalmente perseguibili o di illeciti amministrativi, inclusi i sistemi di previsione delle frodi, rischiano in modo particolare di discriminare determinati individui o gruppi di individui, in quanto ledono la dignità umana nonché il principio giuridico fondamentale della presunzione d'innocenza. È pertanto opportuno vietare tali sistemi di IA.

Emendamento 51

Proposta di regolamento

Considerando 26 ter (nuovo)

Testo della Commissione

Emendamento

 

(26 ter)

L'estrapolazione indiscriminata e non mirata dei dati biometrici dai social media o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare o ampliare banche dati di riconoscimento facciale accresce il senso di sorveglianza di massa e può portare a gravi violazioni dei diritti fondamentali, compreso il diritto alla vita privata. L'uso dei sistemi di IA che perseguono tale finalità dovrebbe pertanto essere vietato.

Emendamento 52

Proposta di regolamento

Considerando 26 quater (nuovo)

Testo della Commissione

Emendamento

 

(26 quater)

Sussistono serie preoccupazioni in merito alla base scientifica dei sistemi di IA volti a rilevare le emozioni, le caratteristiche fisiche o fisiologiche come le espressioni facciali, i movimenti, la frequenza cardiaca o la voce. Le emozioni o la loro espressione e percezione variano notevolmente in base alle culture e alle situazioni e persino in relazione a una stessa persona. Tra le principali carenze di tali tecnologie figurano la limitata affidabilità (le categorie di emozioni non sono espresse in modo affidabile attraverso un insieme comune di movimenti fisici o fisiologici né associate in modo inequivocabile agli stessi), la mancanza di specificità (le espressioni fisiche o fisiologiche non corrispondono perfettamente alle categorie di emozioni) e la limitata generalizzabilità (gli effetti del contesto e della cultura non sono sufficientemente presi in considerazione). Possono emergere problemi di affidabilità e, di conseguenza, gravi rischi di abuso in particolare quando il sistema viene utilizzato in situazioni reali relative ad attività di contrasto, alla gestione delle frontiere, al luogo di lavoro e agli istituti di istruzione. Pertanto, è opportuno vietare l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA destinati a essere utilizzati in tali contesti per rilevare lo stato emotivo delle persone fisiche.

Emendamento 53

Proposta di regolamento

Considerando 26 quinquies (nuovo)

Testo della Commissione

Emendamento

 

(26 quinquies)

Il presente regolamento non dovrebbe incidere sulle pratiche vietate dalla legislazione dell'Unione, ivi incluso dalla normativa in materia di protezione dei dati, non discriminazione, protezione dei consumatori e concorrenza.

Emendamento 54

Proposta di regolamento

Considerando 27

Testo della Commissione

Emendamento

(27)

È opportuno che i sistemi di IA ad alto rischio siano immessi sul mercato dell'Unione o messi in servizio solo se soddisfano determinati requisiti obbligatori. Tali requisiti dovrebbero garantire che i sistemi di IA ad alto rischio disponibili nell'Unione o i cui output sono altrimenti utilizzati nell'Unione non presentino rischi inaccettabili per interessi pubblici importanti dell'Unione, come riconosciuti e tutelati dal diritto dell'Unione. È opportuno limitare i sistemi di IA identificati come ad alto rischio a quelli che hanno un impatto nocivo significativo sulla salute, la sicurezza e i diritti fondamentali delle persone nell'Unione, e tale limitazione riduce al minimo eventuali potenziali restrizioni al commercio internazionale.

(27)

È opportuno che i sistemi di IA ad alto rischio siano immessi sul mercato dell'Unione, messi in servizio o utilizzati solo se soddisfano determinati requisiti obbligatori. Tali requisiti dovrebbero garantire che i sistemi di IA ad alto rischio disponibili nell'Unione o i cui output sono altrimenti utilizzati nell'Unione non presentino rischi inaccettabili per interessi pubblici importanti dell'Unione, come riconosciuti e tutelati dal diritto dell'Unione , inclusi i diritti fondamentali, la democrazia, lo Stato di diritto o l'ambiente. Al fine di garantire l'allineamento con la legislazione settoriale ed evitare duplicazioni, i requisiti per i sistemi di IA ad alto rischio dovrebbero tenere conto della legislazione settoriale che stabilisce requisiti per i sistemi di IA ad alto rischio inclusi nell'ambito di applicazione del presente regolamento, come il regolamento (UE) 2017/745 sui dispositivi medici e il regolamento (UE) 2017/746 sui dispositivi diagnostici in vitro o la direttiva 2006/42/CE relativa alle macchine . È opportuno limitare i sistemi di IA identificati come ad alto rischio a quelli che hanno un impatto nocivo significativo sulla salute, la sicurezza e i diritti fondamentali delle persone nell'Unione, e tale limitazione riduce al minimo eventuali potenziali restrizioni al commercio internazionale. In considerazione del rapido ritmo dello sviluppo tecnologico, nonché dei potenziali cambiamenti nell'uso dei sistemi di IA, l'elenco dei settori e dei casi d'uso ad alto rischio di cui all'allegato III dovrebbe comunque essere oggetto di riesame permanente attraverso una valutazione periodica.

Emendamento 55

Proposta di regolamento

Considerando 28

Testo della Commissione

Emendamento

(28)

I sistemi di IA potrebbero avere ripercussioni negative per la salute e  la sicurezza delle persone, in particolare quando tali sistemi sono impiegati come componenti di prodotti. Coerentemente con gli obiettivi della normativa di armonizzazione dell'Unione di agevolare la libera circolazione dei prodotti nel mercato interno e di garantire che solo prodotti sicuri e comunque conformi possano essere immessi sul mercato, è importante che i rischi per la sicurezza che un prodotto nel suo insieme può generare a causa dei suoi componenti digitali, compresi i sistemi di IA, siano debitamente prevenuti e attenuati. Ad esempio, i robot sempre più autonomi, sia nel contesto della produzione sia in quello della cura e dell'assistenza alle persone, dovrebbero essere in misura di operare e svolgere le loro funzioni in condizioni di sicurezza in ambienti complessi. Analogamente, nel settore sanitario, in cui la posta in gioco per la vita e la salute è particolarmente elevata, è opportuno che i sistemi diagnostici e i sistemi di sostegno delle decisioni dell'uomo, sempre più sofisticati, siano affidabili e accurati. La portata dell'impatto negativo del sistema di IA sui diritti fondamentali protetti dalla Carta è di particolare rilevanza ai fini della classificazione di un sistema di IA tra quelli ad alto rischio. Tali diritti comprendono il diritto alla dignità umana, il rispetto della vita privata e della vita familiare, la protezione dei dati personali, la libertà di espressione e di informazione, la libertà di riunione e di associazione e la non discriminazione, la protezione dei consumatori, i diritti dei lavoratori, i diritti delle persone con disabilità, il diritto a un ricorso effettivo e a un giudice imparziale, i diritti della difesa e la presunzione di innocenza e il diritto a una buona amministrazione. Oltre a tali diritti, è importante sottolineare che i minori godono di diritti specifici sanciti dall'articolo 24 della Carta dell'UE e dalla Convenzione delle Nazioni Unite sui diritti del fanciullo (ulteriormente elaborati nell'osservazione generale n. 25 della Convenzione delle Nazioni Unite sui diritti del fanciullo per quanto riguarda l'ambiente digitale), che prevedono la necessità di tenere conto delle loro vulnerabilità e di fornire la protezione e l'assistenza necessarie al loro benessere. È altresì opportuno tenere in considerazione, nel valutare la gravità del danno che un sistema di IA può provocare, anche in relazione alla salute e alla sicurezza delle persone, il diritto fondamentale a un livello elevato di protezione dell'ambiente sancito dalla Carta e attuato nelle politiche dell'Unione.

(28)

I sistemi di IA potrebbero avere un impatto negativo sulla salute e  sulla sicurezza delle persone, in particolare quando tali sistemi sono impiegati come componenti di sicurezza di prodotti. Coerentemente con gli obiettivi della normativa di armonizzazione dell'Unione di agevolare la libera circolazione dei prodotti nel mercato interno e di garantire che solo prodotti sicuri e comunque conformi possano essere immessi sul mercato, è importante che i rischi per la sicurezza che un prodotto nel suo insieme può generare a causa dei suoi componenti digitali, compresi i sistemi di IA, siano debitamente prevenuti e attenuati. Ad esempio, i robot sempre più autonomi, sia nel contesto della produzione sia in quello della cura e dell'assistenza alle persone, dovrebbero essere in misura di operare e svolgere le loro funzioni in condizioni di sicurezza in ambienti complessi. Analogamente, nel settore sanitario, in cui la posta in gioco per la vita e la salute è particolarmente elevata, è opportuno che i sistemi diagnostici e i sistemi di sostegno delle decisioni dell'uomo, sempre più sofisticati, siano affidabili e accurati.

Emendamento 56

Proposta di regolamento

Considerando 28 bis (nuovo)

Testo della Commissione

Emendamento

 

(28 bis)

La portata dell'impatto negativo del sistema di IA sui diritti fondamentali protetti dalla Carta è di particolare rilevanza ai fini della classificazione di un sistema di IA tra quelli ad alto rischio. Tali diritti comprendono il diritto alla dignità umana, il rispetto della vita privata e della vita familiare, la protezione dei dati personali, la libertà di espressione e di informazione, la libertà di riunione e di associazione e la non discriminazione, il diritto all'istruzione, la protezione dei consumatori, i diritti dei lavoratori, i diritti delle persone con disabilità, l'uguaglianza di genere, i diritti di proprietà intellettuale, il diritto a un ricorso effettivo e a un giudice imparziale, i diritti della difesa e la presunzione di innocenza e il diritto a una buona amministrazione. Oltre a tali diritti, è importante sottolineare che i minori godono di diritti specifici sanciti dall'articolo 24 della Carta dell'UE e dalla Convenzione delle Nazioni Unite sui diritti del fanciullo (ulteriormente elaborati nell'osservazione generale n. 25 della Convenzione delle Nazioni Unite sui diritti del fanciullo per quanto riguarda l'ambiente digitale), che prevedono la necessità di tenere conto delle loro vulnerabilità e di fornire la protezione e l'assistenza necessarie al loro benessere. È altresì opportuno tenere in considerazione, nel valutare la gravità del danno che un sistema di IA può provocare, anche in relazione alla salute e alla sicurezza delle persone o all'ambiente, il diritto fondamentale a un livello elevato di protezione dell'ambiente sancito dalla Carta e attuato nelle politiche dell'Unione.

Emendamento 57

Proposta di regolamento

Considerando 29

Testo della Commissione

Emendamento

(29)

Per quanto riguarda i sistemi di IA ad alto rischio che sono componenti di sicurezza di prodotti o sistemi o che sono essi stessi prodotti o sistemi che rientrano nell'ambito di applicazione del regolamento (CE) n. 300/2008 del Parlamento europeo e del Consiglio (39), del regolamento (UE) n. 167/2013 del Parlamento europeo e del Consiglio (40), del regolamento (UE) n. 168/2013 del Parlamento europeo e del Consiglio (41), della direttiva 2014/90/UE del Parlamento europeo e del Consiglio (42), della direttiva (UE) 2016/797 del Parlamento europeo e del Consiglio (43), del regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio (44), del regolamento (UE) 2018/1139 del Parlamento europeo e del Consiglio (45), e del regolamento (UE) 2019/2144 del Parlamento europeo e del Consiglio (46), è opportuno modificare i suddetti atti per garantire che, nell'adottare qualsiasi futuro atto delegato o di esecuzione pertinente sulla base di tali atti, la Commissione tenga conto, sulla base delle specificità tecniche e normative di ciascun settore e senza interferire con i vigenti meccanismi di governance, valutazione della conformità e applicazione e con le autorità da essi stabilite, dei requisiti obbligatori sanciti dal presente regolamento.

(29)

Per quanto riguarda i sistemi di IA ad alto rischio che sono componenti di sicurezza di prodotti o sistemi o che sono essi stessi prodotti o sistemi che rientrano nell'ambito di applicazione del regolamento (CE) n. 300/2008 del Parlamento europeo e del Consiglio (39), del regolamento (UE) n. 167/2013 del Parlamento europeo e del Consiglio (40), del regolamento (UE) n. 168/2013 del Parlamento europeo e del Consiglio (41), della direttiva 2014/90/UE del Parlamento europeo e del Consiglio (42), della direttiva (UE) 2016/797 del Parlamento europeo e del Consiglio (43), del regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio (44), del regolamento (UE) 2018/1139 del Parlamento europeo e del Consiglio (45), e del regolamento (UE) 2019/2144 del Parlamento europeo e del Consiglio (46), è opportuno modificare i suddetti atti per garantire che, nell'adottare qualsiasi futuro atto delegato o di esecuzione pertinente sulla base di tali atti, la Commissione tenga conto, sulla base delle specificità tecniche e normative di ciascun settore e senza interferire con i vigenti meccanismi di governance, valutazione della conformità , vigilanza del mercato e applicazione e con le autorità da essi stabilite, dei requisiti obbligatori sanciti dal presente regolamento.

Emendamento 58

Proposta di regolamento

Considerando 30

Testo della Commissione

Emendamento

(30)

Per quanto riguarda i sistemi di IA che sono componenti di sicurezza di prodotti, o che sono essi stessi prodotti, e rientrano nell'ambito di applicazione di una determinata normativa di armonizzazione dell'Unione, è opportuno classificarli come sistemi ad alto rischio a norma del presente regolamento se il prodotto in questione è sottoposto alla procedura di valutazione della conformità con un organismo terzo di valutazione della conformità a norma della suddetta pertinente normativa di armonizzazione dell'Unione. Tali prodotti sono, in particolare, macchine, giocattoli, ascensori, apparecchi e sistemi di protezione destinati a essere utilizzati in atmosfera potenzialmente esplosiva, apparecchiature radio, attrezzature a pressione, attrezzature per imbarcazioni da diporto, impianti a fune, apparecchi che bruciano carburanti gassosi, dispositivi medici e dispositivi medico-diagnostici in vitro.

(30)

Per quanto riguarda i sistemi di IA che sono componenti di sicurezza di prodotti, o che sono essi stessi prodotti, e rientrano nell'ambito di applicazione di una determinata normativa di armonizzazione dell'Unione di cui all'allegato II , è opportuno classificarli come sistemi ad alto rischio a norma del presente regolamento se il prodotto in questione è sottoposto alla procedura di valutazione della conformità , al fine di garantire la conformità ai requisiti di sicurezza essenziali, con un organismo terzo di valutazione della conformità a norma della suddetta pertinente normativa di armonizzazione dell'Unione. Tali prodotti sono, in particolare, macchine, giocattoli, ascensori, apparecchi e sistemi di protezione destinati a essere utilizzati in atmosfera potenzialmente esplosiva, apparecchiature radio, attrezzature a pressione, attrezzature per imbarcazioni da diporto, impianti a fune, apparecchi che bruciano carburanti gassosi, dispositivi medici e dispositivi medico-diagnostici in vitro.

Emendamento 59

Proposta di regolamento

Considerando 31

Testo della Commissione

Emendamento

(31)

La classificazione di un sistema di IA come ad alto rischio a norma del presente regolamento non dovrebbe necessariamente significare che il prodotto il cui componente di sicurezza è il sistema di IA, o il sistema di IA stesso in quanto prodotto, sia considerato «ad alto rischio» in base ai criteri stabiliti nella pertinente normativa di armonizzazione dell'Unione che si applica al prodotto. Ciò vale in particolare per il regolamento (UE) 2017/745 del Parlamento europeo e del Consiglio (47) e per il regolamento (UE) 2017/746 del Parlamento europeo e del Consiglio (48), in cui è prevista una valutazione della conformità da parte di terzi per i prodotti a medio rischio e ad alto rischio.

(31)

La classificazione di un sistema di IA come ad alto rischio a norma del presente regolamento non dovrebbe significare che il prodotto il cui componente di sicurezza è il sistema di IA, o il sistema di IA stesso in quanto prodotto, sia considerato «ad alto rischio» in base ai criteri stabiliti nella pertinente normativa di armonizzazione dell'Unione che si applica al prodotto. Ciò vale in particolare per il regolamento (UE) 2017/745 del Parlamento europeo e del Consiglio (47) e per il regolamento (UE) 2017/746 del Parlamento europeo e del Consiglio (48), in cui è prevista una valutazione della conformità da parte di terzi per i prodotti a medio rischio e ad alto rischio.

Emendamento 60

Proposta di regolamento

Considerando 32

Testo della Commissione

Emendamento

(32)

Per quanto riguarda i sistemi di IA indipendenti, ossia i sistemi di IA ad alto rischio diversi da quelli che sono componenti di sicurezza di prodotti o che sono essi stessi prodotti, è opportuno classificarli come ad alto rischio se, alla luce della loro finalità prevista, presentano un alto rischio di pregiudicare la salute e la sicurezza o i diritti fondamentali delle persone , tenendo conto sia della gravità del possibile danno sia della probabilità che si verifichi, sono utilizzati in una serie di settori specificamente predefiniti indicati nel regolamento . L'identificazione di tali sistemi si basa sulla stessa metodologia e sui medesimi criteri previsti anche per eventuali future modifiche dell'elenco dei sistemi di IA ad alto rischio.

(32)

Per quanto riguarda i sistemi di IA indipendenti, ossia i sistemi di IA ad alto rischio diversi da quelli che sono componenti di sicurezza di prodotti o che sono essi stessi prodotti e che figurano nell'elenco dei settori e dei casi d'uso di cui all'allegato III , è opportuno classificarli come ad alto rischio se, alla luce della loro finalità prevista, presentano un rischio significativo di pregiudicare la salute e la sicurezza o i diritti fondamentali delle persone e, laddove il sistema di IA sia utilizzato come componente di sicurezza di un'infrastruttura critica, di pregiudicare l'ambiente. Tale rischio significativo di arrecare pregiudizio dovrebbe essere individuato valutando, da un lato, l'effetto di tale rischio rispetto al suo livello di gravità , intensità, probabilità di verificarsi durata in combinazione di tali elementi e, dall'altro, se il rischio può riguardare un individuo, una pluralità di persone o un particolare gruppo di persone. Tale combinazione potrebbe ad esempio comportare una gravità accentuata ma una scarsa probabilità di incidere su una persona fisica, o un'elevata probabilità di colpire un gruppo di persone unita a una debole intensità su un periodo di tempo prolungato, a seconda del contesto . L'identificazione di tali sistemi si basa sulla stessa metodologia e sui medesimi criteri previsti anche per eventuali future modifiche dell'elenco dei sistemi di IA ad alto rischio.

Emendamento 61

Proposta di regolamento

Considerando 32 bis (nuovo)

Testo della Commissione

Emendamento

 

(32 bis)

I fornitori i cui sistemi di IA rientrano in uno dei settori e dei casi d'uso di cui all'allegato III che ritengano che il loro sistema non comporti un rischio significativo di pregiudicare la salute, la sicurezza, i diritti fondamentali o l'ambiente dovrebbero informare le autorità nazionali di controllo presentando una notifica motivata. Ciò potrebbe assumere la forma di una sintesi di una pagina delle informazioni pertinenti sul sistema di IA in questione, compresa la sua finalità prevista e il motivo per cui non comporterebbe un rischio significativo di pregiudicare la salute, la sicurezza, i diritti fondamentali o l'ambiente. La Commissione dovrebbe specificare i criteri per consentire alle imprese di valutare se il loro sistema comporta tali rischi, nonché sviluppare un modello di notifica di facile utilizzo e standardizzato. I fornitori dovrebbero presentare la notifica il prima possibile e in ogni caso prima dell'immissione del sistema di IA sul mercato o della sua messa in servizio, idealmente nella fase di sviluppo, e dovrebbero essere liberi di immetterlo sul mercato in qualsiasi momento successivo alla notifica. Tuttavia, laddove ritenga che il sistema di IA in questione sia stato classificato erroneamente, l'autorità dovrebbe opporsi alla notifica entro un termine di tre mesi. L'obiezione dovrebbe essere motivata e spiegare debitamente il motivo per cui il sistema di IA è stato classificato erroneamente. Il fornitore dovrebbe conservare il diritto di ricorso fornendo ulteriori argomentazioni. In mancanza di obiezioni alla notifica al termine dei tre mesi, le autorità nazionali di controllo potrebbero comunque intervenire se il sistema di IA presenta un rischio a livello nazionale, come per qualsiasi altro sistema di IA sul mercato. Le autorità nazionali di controllo dovrebbero presentare all'ufficio per l'IA relazioni annuali che specifichino le notifiche ricevute e le decisioni adottate.

Emendamento 62

Proposta di regolamento

Considerando 33

Testo della Commissione

Emendamento

(33)

Le inesattezze di carattere tecnico dei sistemi di IA destinati all'identificazione biometrica remota delle persone fisiche possono determinare risultati distorti e comportare effetti discriminatori. Ciò diviene particolarmente importante quando si trattano aspetti quali età, etnia, sesso o disabilità. È pertanto opportuno classificare i sistemi di identificazione biometrica remota «in tempo reale» e «a posteriori» come sistemi ad alto rischio. Alla luce dei rischi che comportano, entrambi i tipi di sistemi di identificazione biometrica remota dovrebbero essere soggetti a requisiti specifici in materia di capacità di registrazione e sorveglianza umana.

soppresso

Emendamento 63

Proposta di regolamento

Considerando 33 bis (nuovo)

Testo della Commissione

Emendamento

 

(33 bis)

Poiché i dati biometrici costituiscono una categoria speciale di dati personali sensibili ai sensi del regolamento (UE) 2016/679, diversi casi critici d'uso di sistemi biometrici e basati su elementi biometrici dovrebbero essere classificati come ad alto rischio. È pertanto opportuno classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati per l'identificazione delle persone fisiche e i sistemi di IA destinati a essere utilizzati per trarre conclusioni sulle caratteristiche personali delle persone fisiche sulla base di dati biometrici o basati su elementi biometrici, compresi i sistemi di riconoscimento delle emozioni, ad eccezione di quelli vietati a norma del presente regolamento. Non dovrebbero essere inclusi i sistemi di IA destinati a essere utilizzati per la verifica biometrica, che include l'autenticazione, la cui unica finalità è confermare che una determinata persona fisica è la persona che dice di essere e confermare l'identità di una persona fisica al solo scopo di accedere a un servizio, a un dispositivo o a locali (verifica «uno a uno»). Non si dovrebbe ritenere che i sistemi biometrici e basati su elementi biometrici previsti dal diritto dell'Unione per consentire misure di cibersicurezza e di protezione dei dati personali presentino un rischio significativo di pregiudicare la salute, la sicurezza e i diritti fondamentali.

Emendamento 64

Proposta di regolamento

Considerando 34

Testo della Commissione

Emendamento

(34)

Per quanto riguarda la gestione e il funzionamento delle infrastrutture critiche, è opportuno classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati come componenti di sicurezza ai fini della gestione del traffico stradale nonché della fornitura di acqua, gas, riscaldamento ed elettricità, in quanto un loro guasto o malfunzionamento può mettere a rischio la vita e la salute di un grande numero di persone e provocare perturbazioni significative del normale svolgimento delle attività sociali ed economiche.

(34)

Per quanto riguarda la gestione e il funzionamento delle infrastrutture critiche, è opportuno classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati come componenti di sicurezza ai fini della gestione della fornitura di acqua, gas, riscaldamento, elettricità e infrastrutture digitali critiche , in quanto un loro guasto o malfunzionamento può violare la sicurezza e l'integrità di tali infrastrutture critiche e mettere a rischio la vita e la salute di un grande numero di persone e provocare perturbazioni significative del normale svolgimento delle attività sociali ed economiche. I componenti di sicurezza delle infrastrutture critiche, comprese le infrastrutture digitali critiche, sono sistemi utilizzati per proteggere direttamente l'integrità fisica delle infrastrutture critiche o la salute e la sicurezza delle persone e dei beni. Un guasto o malfunzionamento di tali componenti potrebbe comportare direttamente rischi per l'integrità fisica delle infrastrutture critiche e quindi per la salute e la sicurezza delle persone e dei beni. I componenti destinati a essere utilizzati esclusivamente a fini di cibersicurezza non dovrebbero essere considerati componenti di sicurezza. Tra gli esempi di tali componenti di sicurezza possono rientrare i sistemi di monitoraggio della pressione idrica o i sistemi di controllo degli allarmi antincendio nei centri di cloud computing.

Emendamento 65

Proposta di regolamento

Considerando 35

Testo della Commissione

Emendamento

(35)

I sistemi di IA utilizzati nell'istruzione o nella formazione professionale, in particolare per determinare l'accesso o  l'assegnazione di persone agli istituti di istruzione e formazione professionale o per valutare le persone che svolgono prove come parte o presupposto della loro istruzione, dovrebbero essere considerati ad alto rischio in quanto possono determinare il percorso d'istruzione e professionale della vita di una persona e quindi incidere sulla sua capacità di garantire il proprio sostentamento. Se progettati e utilizzati in modo inadeguato, tali sistemi possono violare il diritto all'istruzione e alla formazione, nonché il diritto alla non discriminazione, e perpetuare modelli storici di discriminazione.

(35)

La diffusione di sistemi di IA nel settore dell'istruzione è importante per contribuire a modernizzare i sistemi di istruzione nel loro insieme, aumentare la qualità dell'istruzione, sia offline che online, e accelerare l'istruzione digitale, rendendola così disponibile anche a un pubblico più ampio. I sistemi di IA utilizzati nell'istruzione o nella formazione professionale, in particolare per determinare l'accesso o influenzare materialmente le decisioni sull'ammissione sull'assegnazione di persone agli istituti di istruzione e formazione professionale o per valutare le persone che svolgono prove come parte o presupposto della loro istruzione, ovvero per valutare il livello di istruzione adeguato per un individuo e influenzare materialmente il livello di istruzione e formazione che le persone riceveranno o al quale potranno accedere o per monitorare e rilevare comportamenti vietati da parte degli studenti durante le prove, dovrebbero essere classificati come sistemi di IA ad alto rischio in quanto possono determinare il percorso d'istruzione e professionale della vita di una persona e quindi incidere sulla sua capacità di garantire il proprio sostentamento. Se progettati e utilizzati in modo inadeguato, tali sistemi possono essere particolarmente intrusivi e violare il diritto all'istruzione e alla formazione, nonché il diritto alla non discriminazione, e perpetuare modelli storici di discriminazione , ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale .

Emendamento 66

Proposta di regolamento

Considerando 36

Testo della Commissione

Emendamento

(36)

Anche i sistemi di IA utilizzati nel settore dell'occupazione, nella gestione dei lavoratori e nell'accesso al lavoro autonomo, in particolare per l'assunzione e la selezione delle persone, per l'adozione di decisioni in materia di promozione e cessazione del rapporto di lavoro, nonché per l'assegnazione dei compiti, per il monitoraggio o la valutazione delle persone nei rapporti contrattuali legati al lavoro, dovrebbero essere classificati come sistemi ad alto rischio, in quanto tali sistemi possono avere un impatto significativo sul futuro di tali persone in termini di future prospettive di carriera e sostentamento. I pertinenti rapporti contrattuali legati al lavoro dovrebbero coinvolgere i dipendenti e le persone che forniscono servizi tramite piattaforme, come indicato nel programma di lavoro annuale della Commissione per il 2021. In linea di principio, tali persone non dovrebbero essere considerate utenti ai sensi del presente regolamento. Durante tutto il processo di assunzione, nonché ai fini della valutazione e della promozione delle persone o del proseguimento dei rapporti contrattuali legati al lavoro, tali sistemi possono perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale. I sistemi di IA utilizzati per monitorare le prestazioni e il comportamento di tali persone possono inoltre incidere sui loro diritti in materia di protezione dei dati e vita privata.

(36)

Anche i sistemi di IA utilizzati nel settore dell'occupazione, nella gestione dei lavoratori e nell'accesso al lavoro autonomo, in particolare per l'assunzione e la selezione delle persone, per l'adozione di decisioni o l'esercizio di un'influenza materiale sulle decisioni in materia di avvio, promozione e cessazione del rapporto di lavoro, nonché per l'assegnazione di compiti personalizzati sulla base del comportamento individuale, di tratti personali o di dati biometrici , per il monitoraggio o la valutazione delle persone nei rapporti contrattuali legati al lavoro, dovrebbero essere classificati come sistemi ad alto rischio, in quanto tali sistemi possono avere un impatto significativo sul futuro di tali persone in termini di future prospettive di carriera e sostentamento e sui diritti dei lavoratori . I pertinenti rapporti contrattuali legati al lavoro dovrebbero coinvolgere in maniera significativa i dipendenti e le persone che forniscono servizi tramite piattaforme, come indicato nel programma di lavoro annuale della Commissione per il 2021. Durante tutto il processo di assunzione, nonché ai fini della valutazione e della promozione delle persone o del proseguimento dei rapporti contrattuali legati al lavoro, tali sistemi possono perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale. I sistemi di IA utilizzati per monitorare le prestazioni e il comportamento di tali persone possono inoltre compromettere l'essenza dei loro diritti fondamentali in materia di protezione dei dati e vita privata. Il presente regolamento si applica senza pregiudicare le competenze dell'Unione e degli Stati membri di prevedere norme più specifiche per l'utilizzo di sistemi di IA nell'ambito dei rapporti di lavoro.

Emendamento 67

Proposta di regolamento

Considerando 37

Testo della Commissione

Emendamento

(37)

Un altro settore in cui l'utilizzo dei sistemi di IA merita particolare attenzione è l'accesso ad alcuni prestazioni e servizi pubblici e servizi privati essenziali, necessari affinché le persone possano partecipare pienamente alla vita sociale o migliorare il proprio tenore di vita, e la fruizione di tali servizi. È in particolare opportuno classificare i sistemi di IA utilizzati per valutare il merito di credito o l'affidabilità creditizia delle persone fisiche come sistemi di IA ad alto rischio, in quanto determinano l'accesso di tali persone alle risorse finanziarie o a servizi essenziali quali l'alloggio, l'elettricità e i servizi di telecomunicazione. I sistemi di IA utilizzati a tal fine possono portare alla discriminazione di persone o gruppi e perpetuare modelli storici di discriminazione, ad esempio in base all'origine razziale o etnica, alle disabilità, all'età o all'orientamento sessuale, o dar vita a nuove forme di effetti discriminatori. In considerazione della portata molto limitata dell'impatto e delle alternative disponibili sul mercato, è opportuno esentare i sistemi di IA destinati alla valutazione dell'affidabilità creditizia e del merito creditizio nei casi in cui sono messi in servizio da fornitori di piccole dimensioni per uso proprio . Le persone fisiche che chiedono o ricevono prestazioni e servizi di assistenza pubblica dalle autorità pubbliche sono di norma dipendenti da tali prestazioni e servizi e si trovano generalmente in una posizione vulnerabile rispetto alle autorità competenti. I sistemi di IA, se utilizzati per determinare se tali prestazioni e servizi dovrebbero essere negati, ridotti, revocati o recuperati dalle autorità, possono avere un impatto significativo sul sostentamento delle persone e violare i loro diritti fondamentali, quali il diritto alla protezione sociale, alla non discriminazione, alla dignità umana o a un ricorso effettivo. È pertanto opportuno classificare tali sistemi come sistemi ad alto rischio. Cionondimeno, il presente regolamento non dovrebbe ostacolare lo sviluppo e l'utilizzo di approcci innovativi nella pubblica amministrazione, che trarrebbero beneficio da un uso più ampio di sistemi di IA conformi e sicuri, a condizione che tali sistemi non comportino un rischio alto per le persone fisiche e giuridiche. Infine, è opportuno classificare come ad alto rischio anche i sistemi di IA utilizzati per inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all'invio di tali servizi, in quanto prendono decisioni in situazioni molto critiche per la vita e la salute delle persone e per i loro beni.

(37)

Un altro settore in cui l'utilizzo dei sistemi di IA merita particolare attenzione è l'accesso ad alcuni prestazioni e servizi pubblici e servizi privati essenziali, compresi i servizi di assistenza sanitaria e i servizi essenziali, tra cui gli alloggi, l'elettricità, il riscaldamento/raffrescamento e internet, ma non solo, necessari affinché le persone possano partecipare pienamente alla vita sociale o migliorare il proprio tenore di vita, e la fruizione di tali servizi. È in particolare opportuno classificare i sistemi di IA utilizzati per valutare il merito di credito o l'affidabilità creditizia delle persone fisiche come sistemi di IA ad alto rischio, in quanto determinano l'accesso di tali persone alle risorse finanziarie o a servizi essenziali quali l'alloggio, l'elettricità e i servizi di telecomunicazione. I sistemi di IA utilizzati a tal fine possono portare alla discriminazione di persone o gruppi e perpetuare modelli storici di discriminazione, ad esempio in base all'origine razziale o etnica, al genere, alle disabilità, all'età o all'orientamento sessuale, o dar vita a nuove forme di effetti discriminatori. Tuttavia, i sistemi di IA previsti dal diritto dell'Unione al fine di individuare le frodi nell'offerta di servizi finanziari non dovrebbero essere considerati ad alto rischio ai sensi del presente regolamento. Le persone fisiche che chiedono o ricevono prestazioni e servizi di assistenza pubblica dalle autorità pubbliche , compresi i servizi di assistenza sanitaria e i servizi essenziali, tra cui gli alloggi, l'elettricità, il riscaldamento/raffrescamento e internet, ma non solo, sono di norma dipendenti da tali prestazioni e servizi e si trovano generalmente in una posizione vulnerabile rispetto alle autorità competenti. I sistemi di IA, se utilizzati per determinare se tali prestazioni e servizi dovrebbero essere negati, ridotti, revocati o recuperati dalle autorità, possono avere un impatto significativo sul sostentamento delle persone e violare i loro diritti fondamentali, quali il diritto alla protezione sociale, alla non discriminazione, alla dignità umana o a un ricorso effettivo. Analogamente, anche i sistemi di IA destinati a essere utilizzati per prendere decisioni o influenzare materialmente le decisioni sull'ammissibilità delle persone fisiche all'assicurazione sanitaria e sulla vita possono avere un impatto significativo sul sostentamento delle persone e violare i loro diritti fondamentali, ad esempio limitando l'accesso all'assistenza sanitaria o perpetuando la discriminazione basata sulle caratteristiche personali. È pertanto opportuno classificare tali sistemi come sistemi ad alto rischio. Cionondimeno, il presente regolamento non dovrebbe ostacolare lo sviluppo e l'utilizzo di approcci innovativi nella pubblica amministrazione, che trarrebbero beneficio da un uso più ampio di sistemi di IA conformi e sicuri, a condizione che tali sistemi non comportino un rischio alto per le persone fisiche e giuridiche. Infine, è opportuno classificare come ad alto rischio anche i sistemi di IA utilizzati per valutare e classificare le chiamate di emergenza effettuate da persone fisiche o inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all'invio di tali servizi, in quanto prendono decisioni in situazioni molto critiche per la vita e la salute delle persone e per i loro beni.

Emendamento 68

Proposta di regolamento

Considerando 37 bis (nuovo)

Testo della Commissione

Emendamento

 

(37 bis)

In considerazione del ruolo e delle responsabilità delle autorità di polizia e giudiziarie e dell'impatto delle decisioni adottate dalle stesse a fini di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, alcuni casi specifici d'uso di applicazioni di IA nelle attività di contrasto devono essere classificati come ad alto rischio, in particolare nei casi in cui esso possano influire in maniera significativa sulla vita o sui diritti fondamentali delle persone.

Emendamento 69

Proposta di regolamento

Considerando 38

Testo della Commissione

Emendamento

(38)

Le azioni delle autorità di contrasto che prevedono determinati usi dei sistemi di IA sono caratterizzate da un livello significativo di squilibrio di potere e possono portare alla sorveglianza, all'arresto o alla privazione della libertà di una persona fisica, come pure avere altri impatti negativi sui diritti fondamentali garantiti nella Carta. In particolare, il sistema di IA, se non è addestrato con dati di elevata qualità, se non soddisfa requisiti adeguati in termini di accuratezza o robustezza, o se non è adeguatamente progettato e sottoposto a prova prima di essere immesso sul mercato o altrimenti messo in servizio, può individuare le persone in modo discriminatorio o altrimenti errato o ingiusto. Potrebbe inoltre essere ostacolato l'esercizio di importanti diritti procedurali fondamentali, quali il diritto a un ricorso effettivo e a un giudice imparziale, nonché i diritti della difesa e la presunzione di innocenza, in particolare nel caso in cui tali sistemi di IA non siano sufficientemente trasparenti, spiegabili e documentati. È pertanto opportuno classificare come ad alto rischio una serie di sistemi di IA destinati a essere utilizzati nel contesto delle attività di contrasto, in cui l'accuratezza, l'affidabilità e la trasparenza risultano particolarmente importanti per evitare impatti negativi, mantenere la fiducia dei cittadini e garantire la responsabilità e mezzi di ricorso efficaci. In considerazione della natura delle attività in questione e dei rischi a esse connessi, tra tali sistemi di IA ad alto rischio è opportuno includere, in particolare, i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto per valutazioni dei rischi individuali , come poligrafi e strumenti analoghi, oppure per rilevare lo stato emotivo delle persone fisiche, individuare «deep fake», valutare l'affidabilità degli elementi probatori nei procedimenti penali, prevedere il verificarsi o il ripetersi di un reato effettivo o potenziale sulla base della profilazione delle persone fisiche, o valutare i tratti e le caratteristiche della personalità o il comportamento criminale pregresso delle persone fisiche o dei gruppi, nonché ai fini della profilazione nel corso dell'indagine, dell'accertamento e del perseguimento di reati e dell'analisi criminale nei riguardi delle persone fisiche. I sistemi di IA specificamente destinati a essere utilizzati per procedimenti amministrativi dalle autorità fiscali e doganali non dovrebbero essere considerati sistemi di IA ad alto rischio utilizzati dalle autorità di contrasto a fini di prevenzione, accertamento, indagine e perseguimento di reati.

(38)

Le azioni delle autorità di contrasto che prevedono determinati usi dei sistemi di IA sono caratterizzate da un livello significativo di squilibrio di potere e possono portare alla sorveglianza, all'arresto o alla privazione della libertà di una persona fisica, come pure avere altri impatti negativi sui diritti fondamentali garantiti nella Carta. In particolare, il sistema di IA, se non è addestrato con dati di elevata qualità, se non soddisfa requisiti adeguati in termini di prestazioni, accuratezza o robustezza, o se non è adeguatamente progettato e sottoposto a prova prima di essere immesso sul mercato o altrimenti messo in servizio, può individuare le persone in modo discriminatorio o altrimenti errato o ingiusto. Potrebbe inoltre essere ostacolato l'esercizio di importanti diritti procedurali fondamentali, quali il diritto a un ricorso effettivo e a un giudice imparziale, nonché i diritti della difesa e la presunzione di innocenza, in particolare nel caso in cui tali sistemi di IA non siano sufficientemente trasparenti, spiegabili e documentati. È pertanto opportuno classificare come ad alto rischio una serie di sistemi di IA destinati a essere utilizzati nel contesto delle attività di contrasto, in cui l'accuratezza, l'affidabilità e la trasparenza risultano particolarmente importanti per evitare impatti negativi, mantenere la fiducia dei cittadini e garantire la responsabilità e mezzi di ricorso efficaci. In considerazione della natura delle attività in questione e dei rischi a esse connessi, tra tali sistemi di IA ad alto rischio è opportuno includere, in particolare, i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto o per loro conto o da istituzioni, organi e organismi dell'Unione a sostegno delle autorità di contrasto , come poligrafi e strumenti analoghi nella misura in cui il loro utilizzo sia consentito a norma del pertinente diritto nazionale e dell'Unione , per valutare l'affidabilità degli elementi probatori nei procedimenti penali nonché ai fini della profilazione nel corso dell'indagine, dell'accertamento e del perseguimento di reati e dell'analisi criminale nei riguardi delle persone fisiche. I sistemi di IA specificamente destinati a essere utilizzati per procedimenti amministrativi dalle autorità fiscali e doganali non dovrebbero essere classificati come sistemi di IA ad alto rischio utilizzati dalle autorità di contrasto a fini di prevenzione, accertamento, indagine e perseguimento di reati. L'utilizzo degli strumenti di IA da parte delle autorità di contrasto e giudiziarie non dovrebbe diventare un fattore di disuguaglianza, frattura sociale o esclusione. L'impatto dell'utilizzo degli strumenti di IA sul diritto alla difesa degli indagati non dovrebbe essere ignorato, in particolare la difficoltà di ottenere informazioni significative sul loro funzionamento e la conseguente difficoltà nel confutarne i risultati in tribunale, in particolare per gli individui sottoposti a indagini.

Emendamento 70

Proposta di regolamento

Considerando 39

Testo della Commissione

Emendamento

(39)

I sistemi di IA utilizzati nella gestione della migrazione, dell'asilo e del controllo delle frontiere hanno effetti su persone che si trovano spesso in una posizione particolarmente vulnerabile e il cui futuro dipende dall'esito delle azioni delle autorità pubbliche competenti. L'accuratezza, la natura non discriminatoria e la trasparenza dei sistemi di IA utilizzati in tali contesti sono pertanto particolarmente importanti per garantire il rispetto dei diritti fondamentali delle persone interessate, in particolare i loro diritti alla libera circolazione, alla non discriminazione, alla protezione della vita privata e dei dati personali, alla protezione internazionale e alla buona amministrazione. È pertanto opportuno classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti incaricate di compiti in materia di gestione della migrazione, dell'asilo e del controllo delle frontiere, come poligrafi e strumenti analoghi, o per rilevare lo stato emotivo di una persona fisica, per valutare taluni rischi presentati da persone fisiche che entrano nel territorio di uno Stato membro o presentano domanda di visto o di asilo, per verificare l'autenticità dei pertinenti documenti delle persone fisiche, nonché per assistere le autorità pubbliche competenti nell'esame delle domande di asilo, di visto e di permesso di soggiorno e dei relativi reclami in relazione all'obiettivo di determinare l'ammissibilità delle persone fisiche che richiedono tale status. I sistemi di IA nel settore della gestione della migrazione, dell'asilo e dei controlli di frontiera di cui al presente regolamento dovrebbero essere conformi ai pertinenti requisiti procedurali stabiliti dalla direttiva 2013/32/UE del Parlamento europeo e del Consiglio (49), dal regolamento (CE) n. 810/2009 del Parlamento europeo e del Consiglio (50) e da altre normative pertinenti.

(39)

I sistemi di IA utilizzati nella gestione della migrazione, dell'asilo e del controllo delle frontiere hanno effetti su persone che si trovano spesso in una posizione particolarmente vulnerabile e il cui futuro dipende dall'esito delle azioni delle autorità pubbliche competenti. L'accuratezza, la natura non discriminatoria e la trasparenza dei sistemi di IA utilizzati in tali contesti sono pertanto particolarmente importanti per garantire il rispetto dei diritti fondamentali delle persone interessate, in particolare i loro diritti alla libera circolazione, alla non discriminazione, alla protezione della vita privata e dei dati personali, alla protezione internazionale e alla buona amministrazione. È pertanto opportuno classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti o per loro conto o da istituzioni, organi e organismi dell'Unione incaricati di compiti in materia di gestione della migrazione, dell'asilo e del controllo delle frontiere, come poligrafi e strumenti analoghi nella misura in cui il loro utilizzo sia consentito a norma del pertinente diritto nazionale e dell'Unione , per valutare taluni rischi presentati da persone fisiche che entrano nel territorio di uno Stato membro o presentano domanda di visto o di asilo, per verificare l'autenticità dei pertinenti documenti delle persone fisiche, per assistere le autorità pubbliche competenti nell'esame e nella valutazione della veridicità delle prove in relazione alle domande di asilo, di visto e di permesso di soggiorno e dei relativi reclami in relazione all'obiettivo di determinare l'ammissibilità delle persone fisiche che richiedono tale status , per garantire il monitoraggio, la sorveglianza o il trattamento di dati personali nel contesto delle attività di gestione delle frontiere, al fine di individuare, riconoscere o identificare persone fisiche, nonché per prevedere o anticipare le tendenze relative ai movimenti migratori e all'attraversamento delle frontiere . I sistemi di IA nel settore della gestione della migrazione, dell'asilo e dei controlli di frontiera di cui al presente regolamento dovrebbero essere conformi ai pertinenti requisiti procedurali stabiliti dalla direttiva 2013/32/UE del Parlamento europeo e del Consiglio (49), dal regolamento (CE) n. 810/2009 del Parlamento europeo e del Consiglio (50) e da altre normative pertinenti. I sistemi di IA nella gestione della migrazione, dell'asilo e del controllo delle frontiere non dovrebbero in alcun caso essere utilizzati dagli Stati membri o da istituzioni, organi e organismi dell'Unione per eludere gli obblighi internazionali a essi derivanti dalla convenzione del 28 luglio 1951 relativa allo status di rifugiati modificata dal suo protocollo del 31 gennaio 1967, né dovrebbero essere utilizzati per violare in alcun modo il principio di non respingimento o per negare sicure ed efficaci vie legali d'ingresso nel territorio dell'Unione, compreso il diritto alla protezione internazionale.

Emendamento 71

Proposta di regolamento

Considerando 40

Testo della Commissione

Emendamento

(40)

Alcuni sistemi di IA destinati all'amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale. È in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati ad assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti. Non è tuttavia opportuno estendere tale classificazione ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi, quali l'anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi o l'assegnazione delle risorse.

(40)

Alcuni sistemi di IA destinati all'amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale. È in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati da un'autorità giudiziaria o da un organo amministrativo, o per loro conto, per assistere le autorità giudiziarie o gli organi amministrativi nelle attività di ricerca e interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti o utilizzati in modo analogo nella risoluzione alternativa delle controversie. L'utilizzo di strumenti di intelligenza artificiale può fornire sostegno, ma non dovrebbe sostituire il potere decisionale dei giudici o l'indipendenza del potere giudiziario, in quanto il processo decisionale finale deve rimanere un'attività e una decisione a guida umana . Non è tuttavia opportuno estendere tale classificazione ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull'effettiva amministrazione della giustizia nei singoli casi, quali l'anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi o l'assegnazione delle risorse.

Emendamento 72

Proposta di regolamento

Considerando 40 bis (nuovo)

Testo della Commissione

Emendamento

 

(40 bis)

Al fine di affrontare i rischi per il diritto di voto sancito dall'articolo 39 della Carta derivanti da indebite interferenze esterne e dagli effetti sproporzionati sui processi democratici, sulla democrazia e sullo Stato di diritto, i sistemi di IA destinati a essere utilizzati per influenzare l'esito di elezioni o referendum o il comportamento di voto delle persone fisiche nell'esercizio del loro voto alle elezioni o ai referendum dovrebbero essere classificati come sistemi di IA ad alto rischio, ad eccezione dei sistemi di IA ai cui output le persone fisiche non sono direttamente esposte, come gli strumenti utilizzati per organizzare, ottimizzare e strutturare le campagne politiche da un punto di vista amministrativo e logistico.

Emendamento 73

Proposta di regolamento

Considerando 40 ter (nuovo)

Testo della Commissione

Emendamento

 

(40 ter)

In considerazione del volume di persone fisiche che utilizzano i servizi forniti dalle piattaforme di social media designate come piattaforme online di dimensioni molto grandi, tali piattaforme online possono essere utilizzate in modo da influenzare fortemente la sicurezza online, la formazione dell'opinione e del dibattito pubblici, i processi elettorali e democratici e le preoccupazioni della società. È pertanto opportuno che i sistemi di IA utilizzati da tali piattaforme online nei loro sistemi di raccomandazione siano soggetti al presente regolamento, in modo da garantire che i sistemi di IA siano conformi ai requisiti stabiliti a norma del presente regolamento, compresi i requisiti tecnici in materia di governance dei dati, documentazione tecnica e tracciabilità, trasparenza, sorveglianza umana, accuratezza e solidità. La conformità al presente regolamento dovrebbe consentire a tali piattaforme online di dimensioni molto grandi di adempiere i loro obblighi più ampi di valutazione e attenuazione dei rischi di cui agli articoli 34 e 35 del regolamento (UE) 2022/2065. Gli obblighi di cui al presente regolamento lasciano impregiudicato il regolamento (UE) 2022/2065 e dovrebbero integrare gli obblighi previsti da tale regolamento nel caso in cui la piattaforma di social media sia stata designata come piattaforma online di dimensioni molto grandi. Dato l'impatto a livello europeo delle piattaforme di social media designate come piattaforme online di dimensioni molto grandi, le autorità designate a norma del regolamento (UE) 2022/2065 dovrebbero fungere da autorità di contrasto ai fini dell'applicazione della presente disposizione.

Emendamento 74

Proposta di regolamento

Considerando 41

Testo della Commissione

Emendamento

(41)

Il fatto che un sistema di IA sia classificato come ad alto rischio a norma del presente regolamento non dovrebbe essere interpretato come un'indicazione del fatto che l'utilizzo del sistema sia necessariamente lecito a norma di altri atti giuridici dell'Unione o del diritto nazionale compatibile con il diritto dell'Unione, ad esempio in materia di protezione dei dati personali , uso di poligrafi e strumenti analoghi o di altri sistemi atti a rilevare lo stato emotivo delle persone fisiche . Qualsiasi siffatto utilizzo dovrebbe continuare a verificarsi solo in conformità ai requisiti applicabili risultanti dalla Carta e dagli atti applicabili di diritto derivato dell'Unione e di diritto nazionale. Il presente regolamento non dovrebbe essere inteso come un fondamento giuridico per il trattamento dei dati personali, comprese, ove opportuno, categorie particolari di dati personali.

(41)

Il fatto che un sistema di IA sia classificato come un sistema di IA ad alto rischio a norma del presente regolamento non dovrebbe essere interpretato come un'indicazione del fatto che l'utilizzo del sistema sia necessariamente lecito o illecito a norma di altri atti giuridici dell'Unione o del diritto nazionale compatibile con il diritto dell'Unione, ad esempio in materia di protezione dei dati personali. Qualsiasi siffatto utilizzo dovrebbe continuare a verificarsi solo in conformità ai requisiti applicabili risultanti dalla Carta e dagli atti applicabili di diritto derivato dell'Unione e di diritto nazionale.

Emendamento 75

Proposta di regolamento

Considerando 41 bis (nuovo)

Testo della Commissione

Emendamento

 

(41 bis)

A livello europeo, nazionale e internazionale un corpus normativo giuridicamente vincolante è già in vigore o è pertinente per i sistemi di IA, tra cui, ma non solo, il diritto primario dell'UE (i trattati dell'Unione europea e la sua Carta dei diritti fondamentali), il diritto derivato dell'UE (ad esempio il regolamento generale sulla protezione dei dati, la direttiva sulla responsabilità dei prodotti, il regolamento sulla libera circolazione dei dati non personali, le direttive antidiscriminazione, il diritto dei consumatori e le direttive in materia di salute e sicurezza sul lavoro), ma anche i trattati delle Nazioni Unite in materia di diritti umani e le convenzioni del Consiglio d'Europa (come la Convenzione europea dei diritti dell'uomo) e il diritto nazionale. Oltre alle norme applicabili orizzontalmente, esistono varie norme specifiche a taluni settori che si applicano a specifiche applicazioni dell'IA (ad esempio il regolamento sui dispositivi medici nel settore sanitario).

Emendamento 76

Proposta di regolamento

Considerando 42

Testo della Commissione

Emendamento

(42)

Al fine di attenuare, per gli utenti e per le persone interessate, i rischi derivanti dai sistemi di IA ad alto rischio immessi o altrimenti messi in servizio sul mercato dell'Unione, è opportuno applicare determinati requisiti obbligatori, tenendo conto della finalità prevista dell'uso del sistema e conformemente al sistema di gestione dei rischi che deve essere stabilito dal fornitore.

(42)

Al fine di attenuare, per gli operatori e per le persone interessate, i rischi derivanti dai sistemi di IA ad alto rischio immessi o altrimenti messi in servizio sul mercato dell'Unione, è opportuno applicare determinati requisiti obbligatori, tenendo conto della finalità prevista o dell'uso improprio ragionevolmente prevedibile del sistema e conformemente al sistema di gestione dei rischi che deve essere stabilito dal fornitore. Tali requisiti dovrebbero essere orientati al conseguimento di obiettivi, adeguati allo scopo, ragionevoli ed efficaci, senza aggiungere costi od oneri normativi indebiti per gli operatori.

Emendamento 77

Proposta di regolamento

Considerando 43

Testo della Commissione

Emendamento

(43)

Tali requisiti dovrebbero applicarsi ai sistemi di IA ad alto rischio per quanto concerne la qualità dei set di dati utilizzati, la documentazione tecnica e la conservazione delle registrazioni, la trasparenza e la fornitura di informazioni agli utenti , la sorveglianza umana e la robustezza, l'accuratezza e la cibersicurezza. Tali requisiti sono necessari per attenuare efficacemente i rischi per la salute, la sicurezza e i diritti fondamentali, come applicabile alla luce della finalità prevista del sistema, e, non essendo ragionevolmente disponibili altre misure meno restrittive degli scambi, sono così evitate limitazioni ingiustificate del commercio.

(43)

Tali requisiti dovrebbero applicarsi ai sistemi di IA ad alto rischio per quanto concerne la qualità e la pertinenza dei set di dati utilizzati, la documentazione tecnica e la conservazione delle registrazioni, la trasparenza e la fornitura di informazioni agli operatori , la sorveglianza umana e la robustezza, l'accuratezza e la cibersicurezza. Tali requisiti sono necessari per attenuare efficacemente i rischi per la salute, la sicurezza e i diritti fondamentali, nonché l'ambiente, la democrazia e lo Stato di diritto, come applicabile alla luce della finalità prevista o dell'uso improprio ragionevolmente prevedibile del sistema, e, non essendo ragionevolmente disponibili altre misure meno restrittive degli scambi, sono così evitate limitazioni ingiustificate del commercio.

Emendamento 78

Proposta di regolamento

Considerando 44

Testo della Commissione

Emendamento

(44)

Un'elevata qualità dei dati è essenziale per le prestazioni di molti sistemi di IA, in particolare quando si utilizzano tecniche che prevedono l'addestramento di modelli, al fine di garantire che il sistema di IA ad alto rischio funzioni come previsto e in maniera sicura e che non diventi fonte di una discriminazione vietata dal diritto dell'Unione. Per disporre di set di dati di addestramento, convalida e prova di elevata qualità è necessaria l'attuazione di adeguate pratiche di governance e gestione dei dati. I set di dati di addestramento, convalida e prova dovrebbero essere sufficientemente pertinenti, rappresentativi e privi di errori , nonché completi alla luce della finalità prevista del sistema. Dovrebbero inoltre possedere le proprietà statistiche appropriate, anche per quanto riguarda le persone o i gruppi di persone sui quali il sistema di IA ad alto rischio è destinato a essere usato. In particolare, i set di dati di addestramento, convalida e prova dovrebbero tenere conto, nella misura necessaria alla luce della finalità prevista, delle caratteristiche o degli elementi peculiari dello specifico contesto o ambito geografico, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere usato. Al fine di proteggere i diritti di terzi dalla discriminazione che potrebbe derivare dalla distorsione nei sistemi di IA, è opportuno che i fornitori siano in grado di trattare anche categorie particolari di dati personali, come questione di rilevante interesse pubblico, al fine di garantire il monitoraggio, il rilevamento e la correzione delle distorsioni in relazione ai sistemi di IA ad alto rischio.

(44)

Un accesso ai dati di alta qualità svolge un ruolo essenziale nel fornire una struttura e garantire le prestazioni di molti sistemi di IA, in particolare quando si utilizzano tecniche che prevedono l'addestramento di modelli, al fine di garantire che il sistema di IA ad alto rischio funzioni come previsto e in maniera sicura e che non diventi una fonte di discriminazione vietata dal diritto dell'Unione. Per disporre di set di dati di addestramento, convalida e prova di elevata qualità è necessaria l'attuazione di adeguate pratiche di governance e gestione dei dati. I set di dati di addestramento e, ove applicabile , di convalida e prova , incluse le etichette, dovrebbero essere sufficientemente pertinenti, rappresentativi , adeguatamente verificati in termini di errori e il più possibile completi alla luce della finalità prevista del sistema. Dovrebbero inoltre possedere le proprietà statistiche appropriate, anche per quanto riguarda le persone o i gruppi di persone in relazione ai quali il sistema di IA ad alto rischio è destinato a essere usato , prestando particolare attenzione all'attenuazione di possibili distorsioni nei set di dati, che potrebbero comportare rischi per i diritti fondamentali o risultati discriminatori per le persone interessate dal sistema di IA ad alto rischio . Le distorsioni possono ad esempio essere intrinseche agli insiemi di dati di base, specie se si utilizzano dati storici, inseriti dagli sviluppatori degli algoritmi o generati quando i sistemi sono attuati in contesti reali. I risultati forniti dai sistemi di IA sono influenzati da tali distorsioni intrinseche, che sono destinate ad aumentare gradualmente e quindi a perpetuare e amplificare le discriminazioni esistenti, in particolare nei confronti delle persone che appartengono a determinate minoranze vulnerabili o etniche o comunità razziali. In particolare, i set di dati di addestramento, convalida e prova dovrebbero tenere conto, nella misura necessaria alla luce della finalità prevista, delle caratteristiche o degli elementi peculiari dello specifico contesto o ambito geografico, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere usato. Al fine di proteggere i diritti di terzi dalla discriminazione che potrebbe derivare dalla distorsione nei sistemi di IA, è opportuno , in via eccezionale e previa attuazione di tutte le condizioni applicabili previste dal presente regolamento e dal regolamento (UE) 2016/679, dalla direttiva (UE) 2016/680 e dal regolamento (UE) 2018/1725, che i fornitori siano in grado di trattare anche categorie particolari di dati personali, come questione di rilevante interesse pubblico, al fine di garantire il rilevamento e la correzione delle distorsioni in relazione ai sistemi di IA ad alto rischio. Le distorsioni negative dovrebbero essere intese come distorsioni che creano un effetto discriminatorio diretto o indiretto nei confronti di una persona fisica. I requisiti relativi alla governance dei dati possono essere soddisfatti ricorrendo a terzi che offrono servizi di conformità certificati, compresa la verifica della governance dei dati, dell'integrità dei set di dati e delle pratiche di addestramento, convalida e prova dei dati.

Emendamento 79

Proposta di regolamento

Considerando 45

Testo della Commissione

Emendamento

(45)

Ai fini dello sviluppo di sistemi di IA ad alto rischio, è opportuno concedere ad alcuni soggetti, come fornitori, organismi notificati e altre entità pertinenti, quali i poli dell'innovazione digitale, le strutture di prova e sperimentazione e i ricercatori, l'accesso a set di dati di elevata qualità e la possibilità di utilizzarli nell'ambito dei rispettivi settori di attività connessi al presente regolamento. Gli spazi comuni europei di dati istituiti dalla Commissione e l'agevolazione della condivisione dei dati tra imprese e con i governi, nell'interesse pubblico, saranno fondamentali per fornire un accesso affidabile, responsabile e non discriminatorio a dati di elevata qualità a fini di addestramento, convalida e prova dei sistemi di IA. Ad esempio, per quanto riguarda la salute, lo spazio europeo di dati sanitari agevolerà l'accesso non discriminatorio ai dati sanitari e l'addestramento di algoritmi di intelligenza artificiale su tali set di dati in modo sicuro, tempestivo, trasparente, affidabile e tale da tutelare la vita privata, nonché con un'adeguata governance istituzionale. Le autorità competenti interessate, comprese quelle settoriali, che forniscono o sostengono l'accesso ai dati, possono anche sostenere la fornitura di dati di alta qualità a fini di addestramento, convalida e prova dei sistemi di IA.

(45)

Ai fini dello sviluppo e della valutazione di sistemi di IA ad alto rischio, è opportuno concedere ad alcuni soggetti, come fornitori, organismi notificati e altre entità pertinenti, quali i poli dell'innovazione digitale, le strutture di prova e sperimentazione e i ricercatori, l'accesso a set di dati di elevata qualità e la possibilità di utilizzarli nell'ambito dei rispettivi settori di attività connessi al presente regolamento. Gli spazi comuni europei di dati istituiti dalla Commissione e l'agevolazione della condivisione dei dati tra imprese e con i governi, nell'interesse pubblico, saranno fondamentali per fornire un accesso affidabile, responsabile e non discriminatorio a dati di elevata qualità a fini di addestramento, convalida e prova dei sistemi di IA. Ad esempio, per quanto riguarda la salute, lo spazio europeo di dati sanitari agevolerà l'accesso non discriminatorio ai dati sanitari e l'addestramento di algoritmi di intelligenza artificiale su tali set di dati in modo sicuro, tempestivo, trasparente, affidabile e tale da tutelare la vita privata, nonché con un'adeguata governance istituzionale. Le autorità competenti interessate, comprese quelle settoriali, che forniscono o sostengono l'accesso ai dati, possono anche sostenere la fornitura di dati di alta qualità a fini di addestramento, convalida e prova dei sistemi di IA.

Emendamento 80

Proposta di regolamento

Considerando 45 bis (nuovo)

Testo della Commissione

Emendamento

 

(45 bis)

Il diritto alla vita privata e alla protezione dei dati personali deve essere garantito durante l'intero ciclo di vita del sistema di IA. A tale riguardo, i principi della minimizzazione dei dati e della protezione dei dati fin dalla progettazione e per impostazione predefinita, sanciti dal diritto dell'Unione in materia di protezione dei dati, sono essenziali quando il trattamento dei dati comporta rischi significativi per i diritti fondamentali delle persone fisiche. I fornitori e gli utenti dei sistemi di IA dovrebbero attuare misure tecniche e organizzative all'avanguardia al fine di tutelare tali diritti. Tali misure dovrebbero includere non solo l'anonimizzazione e la cifratura, ma anche l'uso di tecnologie sempre più disponibili che consentano di inserire algoritmi nei dati e di ricavare informazioni preziose senza la trasmissione tra le parti o un'inutile copia degli stessi dati grezzi o strutturati.

Emendamento 81

Proposta di regolamento

Considerando 46

Testo della Commissione

Emendamento

(46)

Disporre di informazioni sulle modalità di sviluppo dei sistemi di IA ad alto rischio e sulle loro modalità di funzionamento durante tutto il ciclo di vita è essenziale per verificare la conformità ai requisiti di cui al presente regolamento. Occorre a tal fine conservare le registrazioni e disporre di una documentazione tecnica contenente le informazioni necessarie per valutare la conformità del sistema di IA ai requisiti pertinenti. Tali informazioni dovrebbero includere le caratteristiche, le capacità e i limiti generali del sistema, gli algoritmi, i dati, l'addestramento, i processi di prova e di convalida utilizzati, nonché la documentazione sul pertinente sistema di gestione dei rischi. È opportuno tenere aggiornata la documentazione tecnica.

(46)

Disporre di informazioni comprensibili sulle modalità di sviluppo dei sistemi di IA ad alto rischio e sulle loro modalità di funzionamento durante tutto il ciclo di vita è essenziale per verificare la conformità ai requisiti di cui al presente regolamento. Occorre a tal fine conservare le registrazioni e disporre di una documentazione tecnica contenente le informazioni necessarie per valutare la conformità del sistema di IA ai requisiti pertinenti. Tali informazioni dovrebbero includere le caratteristiche, le capacità e i limiti generali del sistema, gli algoritmi, i dati, l'addestramento, i processi di prova e di convalida utilizzati, nonché la documentazione sul pertinente sistema di gestione dei rischi. È opportuno tenere aggiornata in modo adeguato la documentazione tecnica durante l'intero ciclo di vita del sistema di IA . I sistemi di IA possono avere un notevole impatto ambientale e un elevato consumo di energia durante il loro ciclo di vita. Al fine di comprendere meglio l'impatto dei sistemi di IA sull'ambiente, la documentazione tecnica elaborata dai fornitori dovrebbe includere informazioni sul consumo energetico del sistema di IA, compreso il consumo in fase di sviluppo e il consumo previsto durante l'uso. Tali informazioni dovrebbero tenere conto della pertinente legislazione dell'Unione e nazionale. Le informazioni comunicate dovrebbero essere comprensibili, comparabili e verificabili e, a tal fine, la Commissione dovrebbe elaborare orientamenti su una metodologia armonizzata per il calcolo e la comunicazione di tali informazioni. Per garantire che sia possibile un'unica documentazione, i termini e le definizioni relativi alla documentazione richiesta e a qualsiasi documentazione richiesta nella pertinente legislazione dell'Unione dovrebbero essere il più allineati possibile.

Emendamento 82

Proposta di regolamento

Considerando 46 bis (nuovo)

Testo della Commissione

Emendamento

 

(46 bis)

I sistemi di IA dovrebbero tenere conto dei metodi più avanzati e delle norme applicabili pertinenti al fine di ridurre il consumo di energia e di risorse e i rifiuti, nonché di aumentare la loro efficienza energetica nonché l'efficienza complessiva del sistema. Gli aspetti ambientali dei sistemi di IA che sono significativi ai fini del presente regolamento sono il consumo energetico del sistema di IA nella fase di sviluppo, addestramento e diffusione, nonché la registrazione, la comunicazione e la conservazione di tali dati. La progettazione dei sistemi di IA dovrebbe consentire la misurazione e la registrazione del consumo di energia e di risorse in ogni fase di sviluppo, addestramento e diffusione. Il monitoraggio e la comunicazione delle emissioni dei sistemi di IA devono essere solidi, trasparenti, coerenti e accurati. Al fine di garantire l'applicazione uniforme del presente regolamento e un ecosistema giuridico stabile per i fornitori e gli operatori nel mercato unico, la Commissione dovrebbe elaborare una specifica comune per la metodologia intesa a soddisfare l'obbligo di comunicazione e documentazione sul consumo di energia e di risorse durante lo sviluppo, l'addestramento e la diffusione. Tali specifiche comuni sulla metodologia di misurazione possono sviluppare una base di riferimento in base alla quale la Commissione può decidere con maggiore cognizione di cause se siano necessari futuri interventi normativi, effettuando una valutazione d'impatto che tenga conto della legislazione vigente.

Emendamento 83

Proposta di regolamento

Considerando 46 ter (nuovo)

Testo della Commissione

Emendamento

 

(46 ter)

Al fine di conseguire gli obiettivi del presente regolamento e di contribuire agli obiettivi ambientali dell'Unione garantendo nel contempo il corretto funzionamento del mercato interno, può essere necessario stabilire raccomandazioni e orientamenti e, in ultima analisi, obiettivi in materia di sostenibilità. A tal fine la Commissione ha il diritto di elaborare una metodologia per contribuire alla creazione di indicatori chiave di prestazione (ICP) e un riferimento per gli obiettivi di sviluppo sostenibile (OSS). L'obiettivo dovrebbe essere in primo luogo quello di consentire un confronto equo tra le scelte di attuazione dell'IA, fornendo incentivi per promuovere l'utilizzo di tecnologie di IA più efficienti che tengano conto delle preoccupazioni in materia di energia e risorse. Per conseguire tale obiettivo, il presente regolamento dovrebbe fornire i mezzi per istituire una raccolta di riferimento dei dati comunicati sulle emissioni derivanti dallo sviluppo e dall'addestramento nonché dalla diffusione.

Emendamento 84

Proposta di regolamento

Considerando 47 bis (nuovo)

Testo della Commissione

Emendamento

 

(47 bis)

Tali requisiti sulla trasparenza e sulla spiegabilità del processo decisionale dell'IA dovrebbero altresì contribuire a contrastare gli effetti dissuasivi dell'asimmetria digitale come pure i cosiddetti «modelli occulti» aventi come obiettivo le persone e il loro consenso informato.

Emendamento 85

Proposta di regolamento

Considerando 49

Testo della Commissione

Emendamento

(49)

Le prestazioni dei sistemi di IA ad alto rischio dovrebbero essere coerenti durante tutto il loro ciclo di vita e tali sistemi dovrebbero garantire un livello adeguato di accuratezza, robustezza e cibersicurezza, conformemente allo stato dell'arte generalmente riconosciuto. È opportuno che i livelli di precisione e le pertinenti metriche di accuratezza siano comunicati agli utenti .

(49)

Le prestazioni dei sistemi di IA ad alto rischio dovrebbero essere coerenti durante tutto il loro ciclo di vita e tali sistemi dovrebbero garantire un livello adeguato di accuratezza, robustezza e cibersicurezza, conformemente allo stato dell'arte generalmente riconosciuto. Le metriche di prestazione e i relativi livelli attesi dovrebbero essere definiti con l'obiettivo principale di attenuare i rischi e l'impatto negativo del sistema di IA. È opportuno che i livelli di prestazione attesi siano comunicati agli operatori in modo chiaro, trasparente, facilmente comprensibile e intelligibile . La dichiarazione delle metriche di prestazione non può essere considerata una prova dei livelli futuri, ma occorre applicare metodi pertinenti per garantire livelli coerenti durante l'uso. Sebbene esistano enti di normazione preposti a stabilire norme, è necessario un coordinamento in materia di analisi comparativa per stabilire le modalità di misurazione di tali requisiti e caratteristiche standardizzati dei sistemi di IA. L'ufficio europeo per l'intelligenza artificiale dovrebbe riunire le autorità nazionali di metrologia e analisi comparativa e fornire orientamenti non vincolanti per trattare gli aspetti tecnici delle modalità di misurazione dei livelli adeguati di prestazione e robustezza.

Emendamento 86

Proposta di regolamento

Considerando 50

Testo della Commissione

Emendamento

(50)

La robustezza tecnica è un requisito fondamentale dei sistemi di IA ad alto rischio. Tali sistemi dovrebbero essere resilienti rispetto sia ai rischi connessi alle limitazioni del sistema (ad esempio errori, guasti, incoerenze, situazioni impreviste) sia alle azioni dolose che possono compromettere la sicurezza del sistema di IA e comportare comportamenti dannosi o altrimenti indesiderati. La mancata protezione da tali rischi potrebbe avere ripercussioni sulla sicurezza o incidere negativamente sui diritti fondamentali, ad esempio a causa della generazione da parte del sistema di IA di decisioni errate o di output sbagliati o distorti.

(50)

La robustezza tecnica è un requisito fondamentale dei sistemi di IA ad alto rischio. Tali sistemi dovrebbero essere resilienti rispetto sia ai rischi connessi alle limitazioni del sistema (ad esempio errori, guasti, incoerenze, situazioni impreviste) sia alle azioni dolose che possono compromettere la sicurezza del sistema di IA e comportare comportamenti dannosi o altrimenti indesiderati. La mancata protezione da tali rischi potrebbe avere ripercussioni sulla sicurezza o incidere negativamente sui diritti fondamentali, ad esempio a causa della generazione da parte del sistema di IA di decisioni errate o di output sbagliati o distorti. Gli utenti del sistema di IA dovrebbero adottare misure per garantire che il possibile compromesso tra robustezza e accuratezza non produca risultati discriminatori o negativi per sottogruppi minoritari.

Emendamento 87

Proposta di regolamento

Considerando 51

Testo della Commissione

Emendamento

(51)

La cibersicurezza svolge un ruolo cruciale nel garantire che i sistemi di IA siano resilienti ai tentativi compiuti da terzi con intenzioni malevole che, sfruttando le vulnerabilità del sistema, mirano ad alterarne l'uso, il comportamento, le prestazioni o a comprometterne le proprietà di sicurezza. Gli attacchi informatici contro i sistemi di IA possono far leva sulle risorse specifiche dell'IA, quali i set di dati di addestramento (ad esempio «avvelenamento dei dati», data poisoning) o i modelli addestrati (ad esempio «attacchi antagonisti», adversarial attacks), o sfruttare le vulnerabilità delle risorse digitali del sistema di IA o dell'infrastruttura TIC sottostante. Al fine di garantire un livello di cibersicurezza adeguato ai rischi, è pertanto opportuno che i fornitori di sistemi di IA ad alto rischio adottino misure adeguate, anche tenendo debitamente conto dell'infrastruttura TIC sottostante.

(51)

La cibersicurezza svolge un ruolo cruciale nel garantire che i sistemi di IA siano resilienti ai tentativi compiuti da terzi con intenzioni malevole che, sfruttando le vulnerabilità del sistema, mirano ad alterarne l'uso, il comportamento, le prestazioni o a comprometterne le proprietà di sicurezza. Gli attacchi informatici contro i sistemi di IA possono far leva sulle risorse specifiche dell'IA, quali i set di dati di addestramento (ad esempio «avvelenamento dei dati», data poisoning) o i modelli addestrati (ad esempio «attacchi antagonisti», adversarial attacks , o «attacchi alla riservatezza», confidentiality attacks ), o sfruttare le vulnerabilità delle risorse digitali del sistema di IA o dell'infrastruttura TIC sottostante. Al fine di garantire un livello di cibersicurezza adeguato ai rischi, è pertanto opportuno che i fornitori di sistemi di IA ad alto rischio , così come gli organismi notificati, le autorità nazionali competenti e le autorità di vigilanza del mercato, adottino misure adeguate, anche tenendo debitamente conto dell'infrastruttura TIC sottostante. L'IA ad alto rischio dovrebbe essere corredata di soluzioni e patch di sicurezza per la durata del ciclo di vita del prodotto o, in assenza di dipendenza da un prodotto specifico, per un periodo che deve essere dichiarato dal produttore.

Emendamento 88

Proposta di regolamento

Considerando 53 bis (nuovo)

Testo della Commissione

Emendamento

 

(53 bis)

In qualità di firmatari della Convenzione delle Nazioni Unite sui diritti delle persone con disabilità (UNCRPD), l'Unione e gli Stati membri sono tenuti, dal punto di vista giuridico, a proteggere le persone con disabilità dalla discriminazione e a promuoverne l'uguaglianza, a garantire che le persone con disabilità abbiano accesso, su un piano di parità con gli altri, alle tecnologie e ai sistemi di informazione e comunicazione e a garantire il rispetto della vita privata delle persone con disabilità. In considerazione dell'importanza e dell'utilizzo crescenti dei sistemi di IA, l'applicazione dei principi della progettazione universale a tutti i nuovi servizi e tecnologie dovrebbe garantire un accesso pieno, paritario e privo di restrizioni a tutti coloro che sono potenzialmente interessati dalle tecnologie di IA o che le utilizzano, ivi comprese le persone con disabilità, in modo da tenere pienamente conto della loro dignità e diversità intrinseche. È pertanto essenziale che i fornitori garantiscano la piena conformità ai requisiti di accessibilità, ivi incluso alla direttiva (UE) 2016/2102 e alla direttiva (UE) 2019/882. I fornitori dovrebbero garantire il rispetto di tali requisiti fin dalla progettazione. Pertanto, le misure necessarie dovrebbero essere quanto più possibile integrate nella progettazione dei sistemi di IA ad alto rischio.

Emendamento 89

Proposta di regolamento

Considerando 54

Testo della Commissione

Emendamento

(54)

È opportuno che il fornitore istituisca un solido sistema di gestione della qualità, garantisca l'espletamento della procedura di valutazione della conformità richiesta, rediga la documentazione pertinente e istituisca un sistema robusto per il monitoraggio successivo all'immissione sul mercato. Le autorità pubbliche che mettono in servizio sistemi di IA ad alto rischio per uso proprio possono adottare e attuare le regole per il sistema di gestione della qualità nell'ambito del sistema di gestione della qualità adottato a livello nazionale o regionale, a seconda dei casi, tenendo conto delle specificità del settore come pure delle competenze e dell'organizzazione dell'autorità pubblica in questione.

(54)

È opportuno che il fornitore istituisca un solido sistema di gestione della qualità, garantisca l'espletamento della procedura di valutazione della conformità richiesta, rediga la documentazione pertinente e istituisca un sistema robusto per il monitoraggio successivo all'immissione sul mercato . Per i fornitori che dispongono già di sistemi di gestione della qualità basati su norme quali la norma ISO 9001 o altre norme pertinenti, non si dovrebbe prevedere una duplicazione completa del sistema di gestione della qualità, bensì un adeguamento dei loro sistemi esistenti a taluni aspetti connessi alla conformità ai requisiti specifici del presente regolamento. Ciò dovrebbe riflettersi anche nelle future attività di normazione o negli orientamenti adottati dalla Commissione a tale riguardo . Le autorità pubbliche che mettono in servizio sistemi di IA ad alto rischio per uso proprio possono adottare e attuare le regole per il sistema di gestione della qualità nell'ambito del sistema di gestione della qualità adottato a livello nazionale o regionale, a seconda dei casi, tenendo conto delle specificità del settore come pure delle competenze e dell'organizzazione dell'autorità pubblica in questione.

Emendamento 90

Proposta di regolamento

Considerando 56

Testo della Commissione

Emendamento

(56)

Al fine di consentire l'applicazione del presente regolamento e di creare condizioni di parità per gli operatori, e tenendo conto delle diverse forme di messa a disposizione di prodotti digitali, è importante garantire che, in qualsiasi circostanza, una persona stabilita nell'Unione possa fornire alle autorità tutte le informazioni necessarie sulla conformità di un sistema di IA. Pertanto, prima di mettere a disposizione i propri sistemi di IA nell'Unione, nel caso in cui non possa essere identificato un importatore, i fornitori stabiliti al di fuori dell'Unione dovrebbero nominare, mediante mandato scritto, un rappresentante autorizzato stabilito nell'Unione.

(56)

Al fine di consentire l'applicazione del presente regolamento e di creare condizioni di parità per gli operatori, e tenendo conto delle diverse forme di messa a disposizione di prodotti digitali, è importante garantire che, in qualsiasi circostanza, una persona stabilita nell'Unione possa fornire alle autorità tutte le informazioni necessarie sulla conformità di un sistema di IA. Pertanto, prima di mettere a disposizione i propri sistemi di IA nell'Unione, i fornitori stabiliti al di fuori dell'Unione dovrebbero nominare, mediante mandato scritto, un rappresentante autorizzato stabilito nell'Unione.

Emendamento 91

Proposta di regolamento

Considerando 58

Testo della Commissione

Emendamento

(58)

In considerazione della natura dei sistemi di IA e dei possibili rischi per la sicurezza e i diritti fondamentali associati al loro utilizzo, anche per quanto riguarda la necessità di garantire un adeguato monitoraggio delle prestazioni di un sistema di IA in un contesto reale, è opportuno stabilire responsabilità specifiche per gli utenti . È in particolare opportuno che gli utenti usino i sistemi di IA ad alto rischio conformemente alle istruzioni per l'uso e che siano previsti alcuni altri obblighi in materia di monitoraggio del funzionamento dei sistemi di IA e conservazione delle registrazioni, a seconda dei casi.

(58)

In considerazione della natura dei sistemi di IA e dei possibili rischi per la sicurezza e i diritti fondamentali associati al loro utilizzo, anche per quanto riguarda la necessità di garantire un adeguato monitoraggio delle prestazioni di un sistema di IA in un contesto reale, è opportuno stabilire responsabilità specifiche per gli operatori . È in particolare opportuno che gli operatori usino i sistemi di IA ad alto rischio conformemente alle istruzioni per l'uso e che siano previsti alcuni altri obblighi in materia di monitoraggio del funzionamento dei sistemi di IA e conservazione delle registrazioni, a seconda dei casi.

Emendamento 92

Proposta di regolamento

Considerando 58 bis (nuovo)

Testo della Commissione

Emendamento

 

(58 bis)

Se da un lato i rischi legati ai sistemi di IA possono risultare dal modo in cui tali sistemi sono progettati, dall'altro essi possono derivare anche dal modo in cui tali sistemi di IA sono utilizzati. Gli operatori di sistemi di IA ad alto rischio svolgono pertanto un ruolo fondamentale nel garantire la tutela dei diritti fondamentali, integrando gli obblighi del fornitore nello sviluppo del sistema di IA. Gli operatori sono nella posizione migliore per comprendere come il sistema di IA ad alto rischio sarà utilizzato concretamente e possono pertanto individuare potenziali rischi significativi non previsti nella fase di sviluppo, in ragione di una conoscenza più puntuale del contesto di utilizzo e delle persone o dei gruppi di persone che potrebbero essere interessati, compresi i gruppi emarginati e vulnerabili. Gli operatori dovrebbero individuare strutture di governance adeguate in tale contesto specifico di utilizzo, quali le modalità di sorveglianza umana, le procedure di gestione dei reclami e le procedure di ricorso, dal momento che le scelte relative alle strutture di governance possono essere determinanti per attenuare i rischi per i diritti fondamentali in casi d'uso concreti. Al fine di garantire in maniera efficiente la tutela dei diritti fondamentali, l'operatore di sistemi di IA ad alto rischio dovrebbe quindi effettuare una valutazione d'impatto sui diritti fondamentali prima di metterli in servizio. La valutazione d'impatto dovrebbe essere corredata di un piano dettagliato che descriva le misure o gli strumenti che contribuiranno ad attenuare i rischi per i diritti fondamentali individuati al più tardi a partire dal momento della loro messa in servizio. Se tale piano non può essere individuato, l'operatore dovrebbe astenersi dal mettere in servizio il sistema. Nell'effettuare tale valutazione d'impatto, l'operatore dovrebbe informare l'autorità nazionale di controllo e, nella misura più ampia possibile, i pertinenti portatori di interessi nonché i rappresentanti dei gruppi di persone che potrebbero essere interessati dal sistema di IA al fine di raccogliere le informazioni pertinenti ritenute necessarie per effettuare la valutazione d'impatto e sono incoraggiati a rendere pubblica la sintesi della loro valutazione d'impatto sui diritti fondamentali sul loro sito web online. Tali obblighi non dovrebbero applicarsi alle PMI che, data la mancanza di risorse, potrebbero incontrare difficoltà nello svolgimento di tale consultazione. Tuttavia, esse dovrebbero altresì adoperarsi per coinvolgere tali rappresentanti nello svolgimento della loro valutazione d'impatto sui diritti fondamentali. Inoltre, dati il potenziale impatto e la necessità di sorveglianza e controllo democratici, gli operatori di sistemi di IA ad alto rischio che sono autorità pubbliche o istituzioni, organi e organismi dell'Unione, nonché gli operatori che sono imprese designate come gatekeeper a norma del regolamento (UE) 2022/1925, dovrebbero essere tenuti a registrare l'uso di qualsiasi sistema di IA ad alto rischio in una banca dati pubblica. La registrazione è possibile, su base volontaria, anche per altri operatori.

Emendamento 93

Proposta di regolamento

Considerando 59

Testo della Commissione

Emendamento

(59)

È opportuno prevedere che l'utente del sistema di IA sia la persona fisica o giuridica, l'autorità pubblica, l'agenzia o altro organismo sotto la cui autorità è utilizzato il sistema di IA, salvo nel caso in cui il sistema sia utilizzato nel corso di un'attività personale non professionale.

(59)

È opportuno prevedere che l'operatore del sistema di IA sia la persona fisica o giuridica, l'autorità pubblica, l'agenzia o altro organismo sotto la cui autorità è utilizzato il sistema di IA, salvo nel caso in cui il sistema sia utilizzato nel corso di un'attività personale non professionale.

Emendamento 94

Proposta di regolamento

Considerando 60

Testo della Commissione

Emendamento

(60)

Alla luce della complessità della catena del valore dell'intelligenza artificiale , i terzi pertinenti, in particolare quelli coinvolti nella vendita e nella fornitura di software, strumenti e componenti software, modelli preaddestrati e dati, o i fornitori di servizi di rete, dovrebbero cooperare, a seconda dei casi, con i fornitori e con gli utenti per consentire loro di rispettare gli obblighi previsti dal presente regolamento e con le autorità competenti istituite a norma del presente regolamento.

(60)

All'interno della catena del valore dell'IA, spesso più soggetti forniscono strumenti e servizi, ma anche componenti o processi, che sono poi integrati dal fornitore nel sistema di IA, anche in relazione alla raccolta e al pretrattamento dei dati, all'addestramento dei modelli, alla riqualificazione dei modelli, alla prova e alla valutazione dei modelli, all'integrazione nel software o ad altri aspetti dello sviluppo dei modelli. I soggetti coinvolti possono far sì che la loro offerta sia disponibile sul mercato, direttamente o indirettamente, attraverso interfacce, quali le interfacce per programmi applicativi (API), e distribuita sulla base di licenze libere e open source, ma anche sempre più mediante piattaforme di forza lavoro nel settore dell'IA, la rivendita di parametri addestrati, kit «fai da te» per costruire modelli o l'offerta di un accesso a pagamento a un modello che funga da architettura per lo sviluppo e l'addestramento di modelli. Alla luce di tale complessità della catena del valore dell'IA , tutti i terzi pertinenti, in particolare quelli coinvolti nello sviluppo, nella vendita e nella fornitura commerciale di software, strumenti, componenti software, modelli preaddestrati o dati integrati nel sistema di IA , o i fornitori di servizi di rete, dovrebbero , senza compromettere i loro diritti di proprietà intellettuale o segreti commerciali, rendere disponibili le informazioni, l'addestramento o le competenze richiesti e cooperare, a seconda dei casi, con i fornitori per consentire loro di controllare tutti gli aspetti pertinenti del sistema di IA relativi alla conformità che rientrano nell'ambito di applicazione del presente regolamento. Per consentire una governance efficace sotto il profilo dei costi della catena del valore dell'IA, il livello di controllo è esplicitamente comunicato da ciascun terzo che fornisce al fornitore uno strumento, un servizio, un componente o un processo che è successivamente integrato dal fornitore nel sistema di IA.

Emendamento 95

Proposta di regolamento

Considerando 60 bis (nuovo)

Testo della Commissione

Emendamento

 

(60 bis)

Se una parte si trova in una posizione negoziale più forte, vi è il rischio che tale parte possa sfruttare tale posizione a scapito dell'altra parte nel negoziare la fornitura di strumenti, servizi, componenti o processi che sono utilizzati o integrati in un sistema di IA ad alto rischio o i mezzi di ricorso in caso di violazione o cessazione dei relativi obblighi. Tali squilibri contrattuali danneggiano in particolare le microimprese, le piccole e medie imprese e le start-up, a meno che non siano detenute o subappaltate da un'impresa in grado di compensare adeguatamente il subappaltatore, in quanto non dispongono di una capacità significativa di negoziare le condizioni dell'accordo contrattuale e potrebbero non avere altra scelta se non quella di accettare le clausole contrattuali «prendere o lasciare». Le clausole contrattuali abusive che disciplinano la fornitura di strumenti, servizi, componenti o processi utilizzati o integrati in un sistema di IA ad alto rischio o i mezzi di ricorso in caso di violazione o cessazione dei relativi obblighi non dovrebbero pertanto essere vincolanti per tali microimprese, piccole o medie imprese e start-up laddove siano state imposte loro in modo unilaterale.

Emendamento 96

Proposta di regolamento

Considerando 60 ter (nuovo)

Testo della Commissione

Emendamento

 

(60 ter)

Le norme sulle clausole contrattuali dovrebbero tenere conto del principio della libertà contrattuale quale concetto essenziale nelle relazioni tra imprese. È pertanto opportuno che non tutte le clausole contrattuali siano soggette a un test di abusività, ma solo quelle imposte unilateralmente alle microimprese, alle piccole e medie imprese e alle start-up. Ciò riguarda le situazioni «prendere o lasciare» nelle quali una parte propone una determinata clausola contrattuale e la microimpresa, la piccola o media impresa o la start-up non può influenzarne il contenuto malgrado un tentativo di negoziarla. Una clausola contrattuale semplicemente proposta da una parte e accettata dalla microimpresa, dalla piccola o media impresa o dalla start-up o una clausola negoziata e successivamente concordata in una versione modificata tra le parti contraenti non dovrebbe essere considerata una clausola imposta unilateralmente.

Emendamento 97

Proposta di regolamento

Considerando 60 quater (nuovo)

Testo della Commissione

Emendamento

 

(60 quater)

Inoltre, le norme sulle clausole contrattuali abusive dovrebbero applicarsi solo alle parti di un contratto che riguardano la fornitura di strumenti, servizi, componenti o processi utilizzato o integrati in un sistema di IA ad alto rischio o i mezzi di ricorso in caso di violazione o cessazione dei relativi obblighi. Altre parti dello stesso contratto, non correlate a tali elementi, non dovrebbero essere soggette al test di abusività di cui al presente regolamento.

Emendamento 98

Proposta di regolamento

Considerando 60 quinquies (nuovo)

Testo della Commissione

Emendamento

 

(60 quinquies)

È opportuno applicare i criteri per l'individuazione delle clausole contrattuali abusive solo alle clausole contrattuali eccessive, in caso di abuso di una posizione negoziale più forte. La stragrande maggioranza delle clausole contrattuali che dal punto di vista commerciale sono più favorevoli a una parte rispetto all'altra, comprese quelle che sono normali nei contratti tra imprese, sono una normale espressione del principio della libertà contrattuale e continuano ad applicarsi. Se una clausola contrattuale non è inclusa nell'elenco delle clausole che sono sempre considerate abusive, si applica la disposizione generale sul carattere abusivo. A tale riguardo le clausole che figurano nell'elenco delle clausole abusive dovrebbero servire da parametro per l'interpretazione della disposizione generale sul carattere abusivo.

Emendamento 99

Proposta di regolamento

Considerando 60 sexies (nuovo)

Testo della Commissione

Emendamento

 

(60 sexies)

I modelli di base sono uno sviluppo recente, in cui i modelli di IA sono sviluppati a partire da algoritmi progettati per ottimizzare la generalità e la versatilità degli output. Tali modelli sono spesso addestrati su un'ampia gamma di fonti di dati e su grandi quantità di dati per svolgere un'ampia gamma di compiti a valle, compresi alcuni per i quali non sono stati specificamente sviluppati e addestrati. Il modello di base può essere unimodale o multimodale e può addestrato con diversi metodi, come l'apprendimento supervisionato o l'apprendimento per rinforzo. I sistemi di IA con finalità previste specifiche o i sistemi di IA per finalità generali possono essere l'attuazione di un modello di base, il che significa che ciascun modello di base può essere riutilizzato in innumerevoli sistemi di IA a valle o in sistemi di IA per finalità generali. Questi modelli rivestono un'importanza crescente per molte applicazioni e molti sistemi a valle.

Emendamento 100

Proposta di regolamento

Considerando 60 septies (nuovo)

Testo della Commissione

Emendamento

 

(60 septies)

Nel caso dei modelli di base forniti come servizio, ad esempio attraverso l'accesso API, la cooperazione con i fornitori a valle dovrebbe estendersi per tutto il periodo in cui tale servizio è fornito e supportato, al fine di consentire un'adeguata attenuazione dei rischi, a meno che il fornitore del modello di base non trasferisca il modello di addestramento nonché informazioni ampie e adeguate sulle serie di dati e sul processo di sviluppo del sistema o limiti il servizio, come l'accesso API, in un modo che consente al fornitore a valle di conformarsi pienamente al presente regolamento senza ulteriore sostegno da parte del fornitore originario del modello di base.

Emendamento 101

Proposta di regolamento

Considerando 16 octies (nuovo)

Testo della Commissione

Emendamento

 

(60 octies)

Alla luce della natura e della complessità della catena del valore dei sistemi di IA, è essenziale chiarire il ruolo degli attori che contribuiscono allo sviluppo dei sistemi di IA. Vi è grande incertezza in merito all'evoluzione futura dei modelli di base, sia in termini di tipologia dei modelli sia in termini di autogoverno. È pertanto essenziale chiarire la situazione giuridica dei fornitori di modelli di base. Unitamente alla loro complessità e al loro impatto inatteso, alla mancanza di controllo da parte del fornitore di IA a valle sullo sviluppo del modello di base e al conseguente squilibrio di potere, nonché al fine di garantire un'equa ripartizione delle responsabilità lungo la catena del valore dell'IA, tali modelli dovrebbero essere soggetti a requisiti e obblighi proporzionati e più specifici a norma del presente regolamento. In particolare, i modelli di base dovrebbero valutare e attenuare i possibili rischi e danni attraverso una progettazione, prove e un'analisi adeguate, dovrebbero attuare misure di governance dei dati, compresa la valutazione delle distorsioni, dovrebbero rispettare i requisiti tecnici di progettazione onde assicurare livelli adeguati di prestazioni, prevedibilità, interpretabilità, correggibilità, sicurezza e cibersicurezza, e dovrebbero rispettare le norme ambientali. Tali obblighi dovrebbero essere accompagnati da norme. Inoltre, i modelli di base dovrebbero essere soggetti a obblighi di informazione e preparare tutta la documentazione tecnica necessaria affinché i potenziali fornitori a valle siano in grado di adempiere i loro obblighi a norma del presente regolamento. I modelli di base generativi dovrebbero garantire trasparenza quanto al fatto che i contenuti sono generati da un sistema di IA e non da un essere umano. Tali requisiti e obblighi specifici non equivalgono a considerare i modelli di base come sistemi di IA ad alto rischio, ma dovrebbero garantire il conseguimento degli obiettivi del presente regolamento di assicurare un elevato livello di protezione dei diritti fondamentali, della salute e della sicurezza, dell'ambiente, della democrazia e dello Stato di diritto. I modelli preaddestrati sviluppati per un insieme più ristretto, meno generale e più limitato di applicazioni che non possono essere adattate a un'ampia gamma di compiti, come i semplici sistemi di IA multifunzionali, non dovrebbero essere considerati modelli di base ai fini del presente regolamento alla luce della loro maggiore interpretabilità, che rende il loro comportamento meno imprevedibile.

Emendamento 102

Proposta di regolamento

Considerando 60 nonies (nuovo)

Testo della Commissione

Emendamento

 

(60 nonies)

In considerazione della natura dei modelli di base, vi è una mancanza di competenze per quanto riguarda la valutazione della conformità e i metodi di audit da parte di terzi sono ancora in fase di sviluppo. Il settore stesso sta quindi sviluppando nuove modalità di valutazione dei modelli di base che soddisfano in parte l'obiettivo di audit (come la valutazione dei modelli, le simulazioni di attacchi informatici o le tecniche di verifica e convalida dell'apprendimento automatico). Tali valutazioni interne dei modelli di base dovrebbero essere ampiamente applicabili (ad esempio indipendentemente dai canali di distribuzione, dalla modalità e dai metodi di sviluppo) al fine di affrontare i rischi specifici per tali modelli tenendo conto delle pratiche più avanzate del settore e concentrarsi sullo sviluppo di una comprensione tecnica e controllo del modello sufficienti, sulla gestione dei rischi ragionevolmente prevedibili nonché su un'analisi e prove approfondite del modello attraverso misure adeguate, ad esempio con il coinvolgimento di valutatori indipendenti. Poiché i modelli di base sono uno sviluppo nuovo e in rapida evoluzione nel settore dell'intelligenza artificiale, è opportuno che la Commissione e l'ufficio per l'IA monitorino e valutino periodicamente il quadro legislativo e di governance di tali modelli, in particolare per quanto riguarda i sistemi di IA generativi basati su tali modelli, che sollevano interrogativi significativi in merito alla generazione di contenuti in violazione del diritto dell'Unione, alle norme sul diritto d'autore e ai potenziali usi impropri. È opportuno chiarire che il presente regolamento non dovrebbe pregiudicare il diritto dell'Unione in materia di diritto d'autore e diritti connessi, comprese le direttive 2001/29/CE, 2004/48/CE e (UE) 2019/790 del Parlamento europeo e del Consiglio.

Emendamento 103

Proposta di regolamento

Considerando 61

Testo della Commissione

Emendamento

(61)

La normazione dovrebbe svolgere un ruolo fondamentale nel fornire soluzioni tecniche ai fornitori per garantire la conformità al presente regolamento. La conformità alle norme armonizzate quali definite nel regolamento (UE) n. 1025/2012 del Parlamento europeo e del Consiglio (54) dovrebbe essere un modo per i fornitori di dimostrare la conformità ai requisiti del presente regolamento. La Commissione potrebbe tuttavia adottare specifiche tecniche comuni nei settori in cui le norme armonizzate non esistono oppure sono insufficienti .

(61)

La normazione dovrebbe svolgere un ruolo fondamentale nel fornire soluzioni tecniche ai fornitori per garantire la conformità al presente regolamento. La conformità alle norme armonizzate quali definite nel regolamento (UE) n. 1025/2012 del Parlamento europeo e del Consiglio (54) dovrebbe essere un modo per i fornitori di dimostrare la conformità ai requisiti del presente regolamento. Per garantire l'efficacia delle norme quale strumento politico dell'Unione e considerata l'importanza delle norme per assicurare la conformità ai requisiti del presente regolamento e ai fini della competitività delle imprese, è necessario garantire una rappresentanza equilibrata degli interessi coinvolgendo tutte le parti interessate nell'elaborazione delle norme . Il processo di normazione dovrebbe essere trasparente in termini di persone fisiche e giuridiche che vi partecipano.

Emendamento 104

Proposta di regolamento

Considerando 61 bis (nuovo)

Testo della Commissione

Emendamento

 

(61 bis)

Al fine di agevolare la conformità, le prime richieste di normazione dovrebbero essere presentate dalla Commissione al più tardi due mesi dopo l'entrata in vigore del presente regolamento. Ciò dovrebbe servire a migliorare la certezza del diritto, promuovendo in tal modo gli investimenti e l'innovazione nell'IA, nonché la competitività e la crescita del mercato dell'Unione, rafforzando nel contempo la governance multipartecipativa che rappresenta tutti i pertinenti portatori di interessi europei, quali l'ufficio per l'IA, le organizzazioni e gli organismi europei di normazione o i gruppi di esperti istituiti a norma del pertinente diritto settoriale dell'Unione, nonché l'industria, le PMI, le start-up, la società civile, i ricercatori e le parti sociali, e dovrebbe infine agevolare la cooperazione globale in materia di normazione nel settore dell'IA in modo coerente con i valori dell'Unione. In sede di elaborazione della richiesta di normazione, la Commissione dovrebbe consultare l'ufficio per l'IA e il forum consultivo per l'IA al fine di ottenere le competenze pertinenti.

Emendamento 105

Proposta di regolamento

Considerando 61 ter (nuovo)

Testo della Commissione

Emendamento

 

(61 ter)

Qualora i sistemi di IA siano destinati a essere utilizzati sul posto di lavoro, le norme armonizzate dovrebbero limitarsi alle specifiche tecniche e alle procedure.

Emendamento 106

Proposta di regolamento

Considerando 61 quater (nuovo)

Testo della Commissione

Emendamento

 

(61 quater)

La Commissione dovrebbe poter adottare specifiche comuni a determinate condizioni laddove non esista alcuna norma armonizzata pertinente o per affrontare specifiche preoccupazioni in materia di diritti fondamentali. Durante l'intero processo di elaborazione, la Commissione dovrebbe consultare regolarmente l'ufficio per l'IA e il suo forum consultivo, le organizzazioni e gli organismi europei di normazione o i gruppi di esperti istituiti a norma del pertinente diritto settoriale dell'Unione, nonché i pertinenti portatori di interessi, quali l'industria, le PMI, le start-up, la società civile, i ricercatori e le parti sociali.

Emendamento 107

Proposta di regolamento

Considerando 61 quinquies (nuovo)

Testo della Commissione

Emendamento

 

(61 quinquies)

Nell'adottare specifiche comuni, la Commissione dovrebbe adoperarsi ai fini dell'allineamento normativo dell'IA con partner globali che condividono gli stessi principi, il che è fondamentale per promuovere l'innovazione e i partenariati transfrontalieri nel settore dell'IA, in quanto il coordinamento con partner che condividono gli stessi principi in seno agli organismi internazionali di normazione riveste grande importanza.

Emendamento 108

Proposta di regolamento

Considerando 62

Testo della Commissione

Emendamento

(62)

Al fine di garantire un elevato livello di affidabilità dei sistemi di IA ad alto rischio, è opportuno sottoporre tali sistemi a una valutazione della conformità prima della loro immissione sul mercato o messa in servizio.

(62)

Al fine di garantire un elevato livello di affidabilità dei sistemi di IA ad alto rischio, è opportuno sottoporre tali sistemi a una valutazione della conformità prima della loro immissione sul mercato o messa in servizio. Al fine di rafforzare la fiducia nella catena del valore e dare sicurezza alle imprese in merito alle prestazioni dei loro sistemi, i terzi che forniscono componenti di IA possono chiedere volontariamente una valutazione della conformità da parte di terzi.

Emendamento 109

Proposta di regolamento

Considerando 64

Testo della Commissione

Emendamento

(64)

In considerazione della più ampia esperienza dei certificatori professionali pre-commercializzazione nel settore della sicurezza dei prodotti e della diversa natura dei rischi connessi, è opportuno limitare, almeno in una fase iniziale di applicazione del presente regolamento, l'ambito di applicazione della valutazione della conformità da parte di terzi ai sistemi di IA ad alto rischio diversi da quelli collegati ai prodotti. È pertanto opportuno che la valutazione della conformità di tali sistemi sia di norma effettuata dal fornitore sotto la propria responsabilità, con la sola eccezione dei sistemi di IA destinati a essere utilizzati per l'identificazione biometrica remota di persone, per i quali è opportuno prevedere il coinvolgimento di un organismo notificato nella valutazione della conformità, nella misura in cui tali sistemi non siano vietati.

(64)

In considerazione della complessità dei sistemi di IA ad alto rischio e dei rischi ad essi associati, è essenziale sviluppare una capacità più adeguata per l'applicazione della valutazione della conformità da parte di terzi ai sistemi di IA ad alto rischio. Tuttavia, in ragione dell'attuale esperienza dei certificatori professionali pre-commercializzazione nel settore della sicurezza dei prodotti e della diversa natura dei rischi connessi, è opportuno limitare, almeno in una fase iniziale di applicazione del presente regolamento, l'ambito di applicazione della valutazione della conformità da parte di terzi ai sistemi di IA ad alto rischio diversi da quelli collegati ai prodotti. È pertanto opportuno che la valutazione della conformità di tali sistemi sia di norma effettuata dal fornitore sotto la propria responsabilità, con la sola eccezione dei sistemi di IA destinati a essere utilizzati per l'identificazione biometrica remota di persone o i sistemi di IA destinati a essere utilizzati per dedurre caratteristiche personali di persone fisiche sulla base di dati biometrici o basati su elementi biometrici, inclusi i sistemi di riconoscimento delle emozioni , per i quali è opportuno prevedere il coinvolgimento di un organismo notificato nella valutazione della conformità, nella misura in cui tali sistemi non siano vietati.

Emendamento 110

Proposta di regolamento

Considerando 65

Testo della Commissione

Emendamento

(65)

Ai fini della valutazione della conformità da parte di terzi dei sistemi di IA destinati a essere utilizzati per l'identificazione biometrica remota delle persone , è opportuno che le autorità nazionali competenti designino organismi notificati a norma del presente regolamento, a condizione che tali organismi soddisfino una serie di requisiti, in particolare in materia di indipendenza, competenza e assenza di conflitti di interesse.

(65)

Ai fini delle valutazioni della conformità da parte di terzi , laddove richieste , è opportuno che le autorità nazionali competenti designino organismi notificati a norma del presente regolamento, a condizione che tali organismi soddisfino una serie di requisiti, in particolare in materia di indipendenza, competenza, assenza di conflitti di interesse e  requisiti minimi di cibersicurezza . Gli Stati membri dovrebbero incoraggiare la designazione di un numero sufficiente di organismi di valutazione della conformità, in modo che la certificazione possa essere realizzata tempestivamente. Le procedure di valutazione, designazione, notifica e monitoraggio degli organismi di valutazione della conformità dovrebbero essere applicate nel modo più uniforme possibile negli Stati membri, al fine di eliminare gli ostacoli amministrativi alle frontiere e garantire la realizzazione del potenziale del mercato interno.

Emendamento 111

Proposta di regolamento

Considerando 65 bis (nuovo)

Testo della Commissione

Emendamento

 

(65 bis)

In linea con gli impegni assunti dall'UE nel quadro dell'accordo dell'Organizzazione mondiale del commercio sugli ostacoli tecnici agli scambi, è opportuno massimizzare l'accettazione dei risultati delle prove realizzate dagli organismi di valutazione della conformità competenti, indipendentemente dal luogo in cui siano stabiliti, se necessario per dimostrare il rispetto delle prescrizioni applicabili del regolamento. La Commissione dovrebbe esaminare attivamente eventuali strumenti internazionali a tal fine e, in particolare, perseguire l'eventuale conclusione di accordi di riconoscimento reciproco con paesi che si trovano a un livello di sviluppo tecnico comparabile e che adottano un approccio compatibile in materia di IA e valutazione della conformità.

Emendamento 112

Proposta di regolamento

Considerando 66

Testo della Commissione

Emendamento

(66)

In linea con la nozione generalmente riconosciuta di modifica sostanziale dei prodotti disciplinati dalla normativa di armonizzazione dell'Unione, è opportuno che un sistema di IA sia sottoposto a una nuova valutazione della conformità ogniqualvolta intervenga una modifica che possa incidere sulla conformità del sistema al presente regolamento oppure quando viene modificata la finalità prevista del sistema. È inoltre necessario, per quanto riguarda i sistemi di IA che proseguono il loro «apprendimento» dopo essere stati immessi sul mercato o messi in servizio (ossia adattano automaticamente le modalità di svolgimento delle funzioni), prevedere regole atte a stabilire che le modifiche apportate all'algoritmo e alle sue prestazioni, predeterminate dal fornitore e valutate al momento della valutazione della conformità, non costituiscano una modifica sostanziale.

(66)

In linea con la nozione generalmente riconosciuta di modifica sostanziale dei prodotti disciplinati dalla normativa di armonizzazione dell'Unione, è opportuno che un sistema di IA ad alto rischio sia sottoposto a una nuova valutazione della conformità ogniqualvolta intervenga una modifica non pianificata che va oltre le modifiche controllate o predeterminate da parte del fornitore, incluso l'apprendimento continuo, e che possa creare un nuovo rischio inaccettabile e incidere in modo significativo sulla conformità del sistema di IA ad alto rischio al presente regolamento oppure quando viene modificata la finalità prevista del sistema. È inoltre necessario, per quanto riguarda i sistemi di IA che proseguono il loro «apprendimento» dopo essere stati immessi sul mercato o messi in servizio (ossia adattano automaticamente le modalità di svolgimento delle funzioni), prevedere regole atte a stabilire che le modifiche apportate all'algoritmo e alle sue prestazioni, predeterminate dal fornitore e valutate al momento della valutazione della conformità, non costituiscano una modifica sostanziale. Lo stesso dovrebbe valere per gli aggiornamenti del sistema di IA per motivi generali di sicurezza e per far fronte all'evoluzione dei rischi di manipolazione del sistema, a condizione che non costituiscano una modifica sostanziale.

Emendamento 113

Proposta di regolamento

Considerando 67

Testo della Commissione

Emendamento

(67)

I sistemi di IA ad alto rischio dovrebbero recare la marcatura CE per indicare la loro conformità al presente regolamento, in modo da poter circolare liberamente nel mercato interno. Gli Stati membri non dovrebbero ostacolare in maniera ingiustificata l'immissione sul mercato o la messa in servizio di sistemi di IA ad alto rischio che soddisfano i requisiti stabiliti nel presente regolamento e recano la marcatura CE.

(67)

I sistemi di IA ad alto rischio dovrebbero recare la marcatura CE per indicare la loro conformità al presente regolamento, in modo da poter circolare liberamente nel mercato interno . Per i sistemi fisici di IA ad alto rischio, dovrebbe essere apposta una marcatura CE fisica, integrabile con una marcatura CE digitale. Per i sistemi esclusivamente digitali di IA ad alto rischio, dovrebbe essere utilizzata una marcatura CE digitale . Gli Stati membri non dovrebbero ostacolare in maniera ingiustificata l'immissione sul mercato o la messa in servizio di sistemi di IA ad alto rischio che soddisfano i requisiti stabiliti nel presente regolamento e recano la marcatura CE.

Emendamento 114

Proposta di regolamento

Considerando 68

Testo della Commissione

Emendamento

(68)

La disponibilità in tempi rapidi di tecnologie innovative può, a determinate condizioni, essere fondamentale per la salute e la sicurezza delle persone e per la società nel suo insieme. È pertanto opportuno che, per motivi eccezionali di pubblica sicurezza o di tutela della vita e della salute delle persone fisiche nonché della proprietà industriale e commerciale , gli Stati membri possano autorizzare l'immissione sul mercato o la messa in servizio di sistemi di IA che non sono stati sottoposti a una valutazione della conformità.

(68)

La disponibilità in tempi rapidi di tecnologie innovative può, a determinate condizioni, essere fondamentale per la salute e la sicurezza delle persone , per l'ambiente e i cambiamenti climatici e per la società nel suo insieme. È pertanto opportuno che, per motivi eccezionali di tutela della vita e della salute delle persone fisiche , dell'ambiente nonché delle infrastrutture critiche , gli Stati membri possano autorizzare l'immissione sul mercato o la messa in servizio di sistemi di IA che non sono stati sottoposti a una valutazione della conformità.

Emendamento 115

Proposta di regolamento

Considerando 69

Testo della Commissione

Emendamento

(69)

Al fine di agevolare il lavoro della Commissione e degli Stati membri nel settore dell'intelligenza artificiale e di aumentare la trasparenza nei confronti del pubblico, è opportuno che i fornitori di sistemi di IA ad alto rischio diversi da quelli collegati a prodotti che rientrano nell'ambito di applicazione della pertinente normativa di armonizzazione dell'Unione vigente siano tenuti a registrare il loro sistema di IA ad alto rischio in una banca dati dell'UE, che sarà istituita e gestita dalla Commissione. È opportuno che la Commissione sia la titolare del trattamento di tale banca dati conformemente al regolamento (UE) 2018/1725 del Parlamento europeo e del Consiglio (55). Al fine di garantire la piena funzionalità della banca dati, è opportuno che, al momento dell'attivazione, la procedura per l'istituzione della banca dati preveda l'elaborazione di specifiche funzionali da parte della Commissione e una relazione di audit indipendente.

(69)

Al fine di agevolare il lavoro della Commissione e degli Stati membri nel settore dell'intelligenza artificiale e di aumentare la trasparenza nei confronti del pubblico, è opportuno che i fornitori di sistemi di IA ad alto rischio diversi da quelli collegati a prodotti che rientrano nell'ambito di applicazione della pertinente normativa di armonizzazione dell'Unione vigente siano tenuti a registrare il loro sistema di IA ad alto rischio e i loro modelli di base in una banca dati dell'UE, che sarà istituita e gestita dalla Commissione . Tale banca dati dovrebbe essere liberamente e pubblicamente accessibile, facilmente comprensibile e leggibile meccanicamente. La banca dati dovrebbe inoltre essere di facile utilizzo e facilmente navigabile, con funzionalità di ricerca che consentano come minimo al pubblico di cercare nella banca dati specifici sistemi ad alto rischio, luoghi, categorie di rischio di cui all'allegato IV e parole chiave. Anche gli operatori che sono autorità pubbliche o istituzioni, organi e organismi dell'Unione o gli operatori che agiscono per loro conto e gli operatori che sono imprese designate come gatekeeper a norma del regolamento (UE) 2022/1925 dovrebbero registrarsi nella banca dati dell'UE prima di mettere in servizio o utilizzare un sistema di IA ad alto rischio per la prima volta e in seguito a ogni modifica sostanziale. Gli altri operatori dovrebbero essere autorizzati a farlo su base volontaria. Qualsiasi modifica sostanziale dei sistemi di IA ad alto rischio è registrata anche nella banca dati dell'UE . È opportuno che la Commissione sia la titolare del trattamento di tale banca dati conformemente al regolamento (UE) 2018/1725 del Parlamento europeo e del Consiglio (55). Al fine di garantire la piena funzionalità della banca dati, è opportuno che, al momento dell'attivazione, la procedura per l'istituzione della banca dati preveda l'elaborazione di specifiche funzionali da parte della Commissione e una relazione di audit indipendente. Nello svolgimento dei suoi compiti di titolare del trattamento dei dati nella banca dati dell'UE, la Commissione dovrebbe tenere conto della cibersicurezza e dei rischi connessi al rischio. Onde massimizzare la disponibilità e l'uso della banca dati da parte del pubblico, la banca dati, comprese le informazioni ivi messe a disposizione, dovrebbe essere conforme ai requisiti della direttiva (UE) 2019/882.

Emendamento 116

Proposta di regolamento

Considerando 71

Testo della Commissione

Emendamento

(71)

L'intelligenza artificiale è una famiglia di tecnologie in rapida evoluzione che richiede nuove forme di sorveglianza regolamentare e uno spazio sicuro per la sperimentazione, garantendo nel contempo un'innovazione responsabile e l'integrazione di tutele adeguate e di misure di attenuazione dei rischi. Al fine di garantire un quadro giuridico favorevole all'innovazione , adeguato alle esigenze future e resiliente alle perturbazioni, è opportuno incoraggiare le autorità nazionali competenti di uno o più Stati membri a istituire spazi di sperimentazione normativa in materia di intelligenza artificiale per agevolare lo sviluppo e le prove di sistemi di IA innovativi, sotto una rigorosa sorveglianza regolamentare, prima che tali sistemi siano immessi sul mercato o altrimenti messi in servizio.

(71)

L'intelligenza artificiale è una famiglia di tecnologie in rapida evoluzione che richiede sorveglianza regolamentare e uno spazio sicuro e controllato per la sperimentazione, garantendo nel contempo un'innovazione responsabile e l'integrazione di tutele adeguate e di misure di attenuazione dei rischi. Al fine di garantire un quadro giuridico che promuove l'innovazione , adeguato alle esigenze future e resiliente alle perturbazioni, gli Stati membri dovrebbero istituire almeno uno spazio di sperimentazione normativa in materia di intelligenza artificiale per agevolare lo sviluppo e le prove di sistemi di IA innovativi, sotto una rigorosa sorveglianza regolamentare, prima che tali sistemi siano immessi sul mercato o altrimenti messi in servizio. È infatti auspicabile che, come prossimo passo, sia resa obbligatoria, mediante criteri stabiliti, la creazione di spazi di sperimentazione normativa, la cui istituzione è attualmente a discrezione degli Stati membri. Tale spazio di sperimentazione obbligatorio potrebbe essere istituito anche congiuntamente a uno o più altri Stati membri, purché tale spazio di sperimentazione copra il rispettivo livello nazionale degli Stati membri interessati. Possono altresì essere istituiti ulteriori spazi di sperimentazione a diversi livelli, anche tra gli Stati membri, al fine di agevolare la cooperazione e le sinergie transfrontaliere. Ad eccezione dello spazio di sperimentazione obbligatorio a livello nazionale, gli Stati membri dovrebbero poter istituire anche spazi di sperimentazione virtuali o ibridi. Tutti gli spazi di sperimentazione normativa dovrebbero essere in grado di accogliere prodotti sia fisici che virtuali. Le autorità costituenti dovrebbero altresì garantire che gli spazi di sperimentazione normativa dispongano delle risorse finanziarie e umane adeguate per il loro funzionamento.

Emendamento 117

Proposta di regolamento

Considerando 72

Testo della Commissione

Emendamento

(72)

Gli obiettivi degli spazi di sperimentazione normativa dovrebbero essere la promozione dell'innovazione in materia di IA, mediante la creazione di un ambiente controllato di sperimentazione e prova nella fase di sviluppo e pre-commercializzazione al fine di garantire la conformità dei sistemi di IA innovativi al presente regolamento e ad altre normative pertinenti dell'Unione e degli Stati membri , e il rafforzamento della certezza del diritto per gli innovatori e della sorveglianza e della comprensione da parte delle autorità competenti delle opportunità, dei rischi emergenti e degli impatti dell'uso dell'IA, nonché l'accelerazione dell'accesso ai mercati, anche mediante l'eliminazione degli ostacoli per le piccole e medie imprese (PMI) e le start-up . Al fine di garantire un'attuazione uniforme in tutta l'Unione ed economie di scala, è opportuno stabilire regole comuni per l'attuazione degli spazi di sperimentazione normativa e un quadro per la cooperazione tra le autorità competenti coinvolte nel controllo degli spazi di sperimentazione. Il presente regolamento dovrebbe fornire la base giuridica per l'utilizzo dei dati personali raccolti per altre finalità ai fini dello sviluppo di determinati sistemi di IA di interesse pubblico nell'ambito dello spazio di sperimentazione normativa per l'IA, in linea con l'articolo 6, paragrafo 4, del regolamento (UE) 2016/679, e con l'articolo 6 del regolamento (UE) 2018/1725, e fatto salvo l'articolo 4, paragrafo 2, della direttiva (UE) 2016/680. I partecipanti allo spazio di sperimentazione dovrebbero fornire garanzie adeguate e cooperare con le autorità competenti, anche seguendo i loro orientamenti e agendo rapidamente e in buona fede per attenuare eventuali rischi elevati per la sicurezza e i diritti fondamentali che possono emergere durante lo sviluppo e  la sperimentazione nello spazio sopraindicato . È opportuno che le autorità competenti, nel decidere se infliggere una sanzione amministrativa pecuniaria a norma dell'articolo 83, paragrafo 2, del regolamento 2016/679 e dell'articolo 57 della direttiva 2016/680, tengano conto della condotta dei partecipanti allo spazio di sperimentazione.

(72)

Gli obiettivi degli spazi di sperimentazione normativa dovrebbero essere : per quanto riguarda le autorità costituenti, migliorare la loro comprensione degli sviluppi tecnici, migliorare i metodi di controllo e fornire orientamenti agli sviluppatori e ai fornitori di sistemi di IA al fine di conseguire la conformità normativa al presente regolamento o, se del caso, ad altre normative applicabili dell'Unione e degli Stati membri , nonché alla Carta dei diritti fondamentali; per quanto riguarda i potenziali fornitori, consentire e agevolare le prove e lo sviluppo di soluzioni innovative relative ai sistemi di IA nella fase di pre-commercializzazione, al fine di rafforzare la certezza del diritto , consentire un maggiore apprendimento normativo istituendo autorità in un ambiente controllato per sviluppare orientamenti migliori e individuare possibili miglioramenti futuri del quadro giuridico attraverso la procedura legislativa ordinaria. Qualsiasi rischio significativo individuato durante lo sviluppo e le prove di tali sistemi di IA dovrebbe comportare l'adozione di immediate misure di attenuazione e, in mancanza di ciò, la sospensione del processo di sviluppo e di prova fino a che tali rischi non risultino attenuati . Al fine di garantire un'attuazione uniforme in tutta l'Unione ed economie di scala, è opportuno stabilire regole comuni per l'attuazione degli spazi di sperimentazione normativa e un quadro per la cooperazione tra le autorità competenti coinvolte nel controllo degli spazi di sperimentazione. Gli Stati membri dovrebbero garantire che gli spazi di sperimentazione normativa siano ampiamente disponibili in tutta l'Unione, mentre la partecipazione dovrebbe rimanere volontaria. È particolarmente importante garantire che le PMI e le start-up possano accedere facilmente a questi spazi di sperimentazione normativa, siano attivamente coinvolte e partecipino allo sviluppo e  alle prove di sistemi di IA innovativi per poter contribuire con il loro bagaglio di know-how ed esperienza .

Emendamento 118

Proposta di regolamento

Considerando 72 bis (nuovo)

Testo della Commissione

Emendamento

 

(72 bis)

Il presente regolamento dovrebbe fornire la base giuridica per l'utilizzo dei dati personali raccolti per altre finalità ai fini dello sviluppo di determinati sistemi di IA di interesse pubblico nell'ambito dello spazio di sperimentazione normativa per l'IA, esclusivamente a determinate condizioni e in linea con l'articolo 6, paragrafo 4, del regolamento (UE) 2016/679, e con l'articolo 6 del regolamento (UE) 2018/1725, e fatto salvo l'articolo 4, paragrafo 2, della direttiva (UE) 2016/680. I potenziali fornitori nello spazio di sperimentazione dovrebbero fornire garanzie adeguate e cooperare con le autorità competenti, anche seguendo i loro orientamenti e agendo rapidamente e in buona fede per attenuare eventuali rischi elevati per la sicurezza, la salute, l'ambiente e i diritti fondamentali che possono emergere durante lo sviluppo e la sperimentazione nello spazio sopraindicato. È opportuno che, nel decidere se sospendere in maniera temporanea o permanente la loro partecipazione allo spazio di sperimentazione o se infliggere una sanzione amministrativa pecuniaria a norma dell'articolo 83, paragrafo 2, del regolamento 2016/679 e dell'articolo 57 della direttiva 2016/680, le autorità competenti tengano conto della condotta dei potenziali fornitori nello spazio di sperimentazione.

Emendamento 119

Proposta di regolamento

Considerando 72 ter (nuovo)

Testo della Commissione

Emendamento

 

(72 ter)

Per garantire che l'intelligenza artificiale determini risultati vantaggiosi dal punto di vista sociale e ambientale, gli Stati membri dovrebbero sostenere e promuovere la ricerca e lo sviluppo dell'IA a sostegno di risultati vantaggiosi dal punto di vista sociale e ambientale, assegnando risorse sufficienti, compresi i finanziamenti pubblici e dell'Unione, e concedendo accesso prioritario agli spazi di sperimentazione normativa per i progetti guidati dalla società civile. Tali progetti dovrebbero basarsi sul principio della cooperazione interdisciplinare tra sviluppatori dell'IA, esperti in materia di disuguaglianza e non discriminazione, accessibilità e diritti ambientali, digitali e dei consumatori, nonché personalità accademiche.

Emendamento 120

Proposta di regolamento

Considerando 73

Testo della Commissione

Emendamento

(73)

Al fine di promuovere e proteggere l'innovazione, è importante che siano tenuti in particolare considerazione gli interessi dei fornitori di piccole dimensioni e degli utenti di sistemi di IA. È a tal fine opportuno che gli Stati membri sviluppino iniziative destinate a tali operatori, anche in materia di sensibilizzazione e comunicazione delle informazioni. È inoltre opportuno che gli organismi notificati, nel fissare le tariffe per la valutazione della conformità, tengano in considerazione gli interessi e le esigenze specifici dei fornitori di piccole dimensioni. Le spese di traduzione connesse alla documentazione obbligatoria e alla comunicazione con le autorità possono rappresentare un costo significativo per i fornitori e gli altri operatori, in particolare quelli di dimensioni ridotte. Gli Stati membri dovrebbero garantire, se possibile, che una delle lingue da essi indicate e accettate per la documentazione dei fornitori pertinenti e per la comunicazione con gli operatori sia una lingua ampiamente compresa dal maggior numero possibile di utenti transfrontalieri.

(73)

Al fine di promuovere e proteggere l'innovazione, è importante che siano tenuti in particolare considerazione gli interessi dei fornitori di piccole dimensioni e degli utenti di sistemi di IA. È a tal fine opportuno che gli Stati membri sviluppino iniziative destinate a tali operatori, anche relative all'alfabetizzazione in materia di IA, alla sensibilizzazione e  alla comunicazione delle informazioni . Gli Stati membri dovrebbero utilizzare i canali esistenti e, ove opportuno, istituire nuovi canali dedicati per la comunicazione con le PMI, le start-up, gli utenti e altri innovatori, al fine di fornire orientamenti e rispondere alle domande sull'attuazione del presente regolamento. Tali canali esistenti potrebbero includere, a titolo esemplificativo ma non esaustivo, i gruppi di intervento per la sicurezza informatica in caso di incidente dell'ENISA, le agenzie nazionali per la protezione dei dati, la piattaforma di IA on demand, i poli europei dell'innovazione digitale e altri strumenti pertinenti finanziati dai programmi dell'UE, nonché le strutture di prova e sperimentazione istituiti dalla Commissione e dagli Stati membri a livello nazionale o dell'Unione. Se del caso, tali canali dovrebbero collaborare per creare sinergie e garantire l'omogeneità dei loro orientamenti per le start-up, le PMI e gli utenti . È inoltre opportuno che gli organismi notificati, nel fissare le tariffe per la valutazione della conformità, tengano in considerazione gli interessi e le esigenze specifici dei fornitori di piccole dimensioni. La Commissione valuta periodicamente i costi di certificazione e di conformità per le PMI e le start-up, anche attraverso consultazioni trasparenti con le PMI, le start-up e gli utenti, e collabora con gli Stati membri per ridurre tali costi. Ad esempio, le spese di traduzione connesse alla documentazione obbligatoria e alla comunicazione con le autorità possono rappresentare un costo significativo per i fornitori e gli altri operatori, in particolare quelli di dimensioni ridotte. Gli Stati membri dovrebbero garantire, se possibile, che una delle lingue da essi indicate e accettate per la documentazione dei fornitori pertinenti e per la comunicazione con gli operatori sia una lingua ampiamente compresa dal maggior numero possibile di utenti transfrontalieri. Le medie imprese che di recente sono passate dalla categoria delle piccole imprese a quelle delle medie imprese ai sensi dell'allegato della raccomandazione 2003/361/CE (articolo 16) dovrebbero avere accesso a tali iniziative e orientamenti per un periodo di tempo ritenuto opportuno dagli Stati membri, in quanto a volte queste nuove imprese di medie dimensioni potrebbero non disporre delle risorse giuridiche e della formazione necessarie per garantire una corretta comprensione e la conformità alle disposizioni.

Emendamento 121

Proposta di regolamento

Considerando 74

Testo della Commissione

Emendamento

(74)

Al fine di ridurre al minimo i rischi per l'attuazione derivanti dalla mancanza di conoscenze e competenze sul mercato, nonché per agevolare il rispetto, da parte dei fornitori e degli organismi notificati, degli obblighi loro imposti dal presente regolamento, è opportuno che la piattaforma di IA on demand, i poli europei dell'innovazione digitale e le strutture di prova e sperimentazione istituiti dalla Commissione e dagli Stati membri a livello nazionale o dell'UE contribuiscano , se possibile, all'attuazione del presente regolamento. Nell'ambito delle rispettive missioni e dei rispettivi settori di competenza essi possono fornire, in particolare, sostegno tecnico e scientifico ai fornitori e agli organismi notificati.

(74)

Al fine di ridurre al minimo i rischi per l'attuazione derivanti dalla mancanza di conoscenze e competenze sul mercato, nonché per agevolare il rispetto, da parte dei fornitori e degli organismi notificati, degli obblighi loro imposti dal presente regolamento, è opportuno che la piattaforma di IA on demand, i poli europei dell'innovazione digitale e le strutture di prova e sperimentazione istituiti dalla Commissione e dagli Stati membri a livello nazionale o dell'UE contribuiscano all'attuazione del presente regolamento. Nell'ambito delle rispettive missioni e dei rispettivi settori di competenza essi possono fornire, in particolare, sostegno tecnico e scientifico ai fornitori e agli organismi notificati.

Emendamento 122

Proposta di regolamento

Considerando 76

Testo della Commissione

Emendamento

(76)

Al fine di facilitare un'attuazione agevole, efficace e armonizzata del presente regolamento, è opportuno istituire un comitato europeo per l'intelligenza artificiale. Il comitato dovrebbe essere responsabile di una serie di compiti consultivi, tra cui l'emanazione di pareri, raccomandazioni, consulenze o orientamenti su questioni relative all'attuazione del presente regolamento , comprese le specifiche tecniche o le norme esistenti per quanto riguarda i requisiti stabiliti nel presente regolamento , e la fornitura di consulenza e assistenza alla Commissione su questioni specifiche connesse all'intelligenza artificiale .

(76)

Al fine di evitare la frammentazione, assicurare il funzionamento ottimale del mercato unico, garantire un'attuazione efficace e armonizzata del presente regolamento , conseguire un elevato livello di affidabilità e di protezione della salute, della sicurezza, dei diritti fondamentali, dell'ambiente, della democrazia e dello Stato di diritto in tutta l'Unione per quanto concerne i sistemi di IA, sostenere attivamente le autorità nazionali di controllo e le istituzioni, gli organi e gli organismi dell'Unione nelle questioni attinenti al presente regolamento e accrescere l'adozione dell'intelligenza artificiale in tutta l'Unione, è opportuno istituire un ufficio dell'Unione europea per l'intelligenza artificiale. L'ufficio per l'IA dovrebbe avere personalità giuridica, agire in piena indipendenza, essere responsabile di una serie di compiti consultivi e di coordinamento , tra cui l'emanazione di pareri, raccomandazioni, consulenze o orientamenti su questioni relative all'attuazione del presente regolamento e dovrebbe essere dotata di risorse finanziarie e umane adeguate. Gli Stati membri dovrebbero fornire l'orientamento e il controllo strategici dell'ufficio per l'IA tramite il consiglio di amministrazione di detto ufficio, unitamente alla Commissione, al GEPD, alla FRA e all'ENISA. Un direttore esecutivo dovrebbe essere responsabile della gestione delle attività della segreteria dell'ufficio per l'IA e della rappresentanza di quest'ultimo. I portatori di interessi dovrebbero formalmente partecipare all'attività dell'ufficio per l'IA tramite un forum consultivo, che dovrebbe garantire una rappresentanza varia ed equilibrata dei portatori di interessi e fornire consulenza all'ufficio per l'IA sulle questioni attinenti al presente regolamento. Qualora l'istituzione dell'ufficio per l'IA non si riveli sufficiente a garantire un'applicazione pienamente coerente del presente regolamento a livello dell'Unione nonché misure di esecuzione transfrontaliere efficienti, dovrebbe essere presa in considerazione la creazione di un'agenzia per l'IA .

Emendamento 123

Proposta di regolamento

Considerando 77

Testo della Commissione

Emendamento

(77)

Gli Stati membri svolgono un ruolo chiave nell'applicare il presente regolamento e nel garantirne il rispetto. A tale riguardo, è opportuno che ciascuno Stato membro designi una o più autorità nazionali competenti al fine di controllare l'applicazione e l'attuazione del presente regolamento. Al fine di incrementare l'efficienza organizzativa da parte degli Stati membri e di istituire un punto di contatto ufficiale nei confronti del pubblico e di altre controparti sia a livello di Stati membri sia a livello di Unione , è opportuno che in ciascuno Stato membro sia designata come autorità nazionale di controllo un'autorità nazionale .

(77)

È opportuno che ciascuno Stato membro designi un'autorità nazionale di controllo al fine di controllare l'applicazione e l'attuazione del presente regolamento . Essa dovrebbe rappresentare anche il proprio Stato membro in seno al consiglio di amministrazione dell'ufficio per l'IA . Al fine di incrementare l'efficienza organizzativa da parte degli Stati membri e di istituire un punto di contatto ufficiale nei confronti del pubblico e di altre controparti sia a livello di Stati membri sia a livello di Unione . Ogni autorità nazionale di controllo dovrebbe agire in piena indipendenza nell'adempimento dei propri compiti e nell'esercizio dei propri poteri conformemente al presente regolamento .

Emendamento 124

Proposta di regolamento

Considerando 77 bis (nuovo)

Testo della Commissione

Emendamento

 

(77 bis)

Le autorità nazionali di controllo dovrebbero sorvegliare l'applicazione delle disposizioni a norma del presente regolamento e contribuire alla loro coerente applicazione in tutta l'Unione. A tal fine, le autorità nazionali di controllo dovrebbero cooperare tra loro, con le pertinenti autorità nazionali competenti, con la Commissione e con l'ufficio per l'IA.

Emendamento 125

Proposta di regolamento

Considerando 77 ter (nuovo)

Testo della Commissione

Emendamento

 

(77 ter)

I membri o il personale di ogni autorità nazionale di controllo dovrebbero essere tenuti, in virtù del diritto dell'Unione o nazionale, al segreto professionale in merito alle informazioni riservate cui hanno avuto accesso nell'esecuzione dei loro compiti o nell'esercizio dei loro poteri, sia durante che dopo il mandato. Per tutta la durata del loro mandato, tale obbligo del segreto professionale si dovrebbe applicare in particolare ai segreti commerciali e alle segnalazioni da parte di persone fisiche di violazioni del presente regolamento.

Emendamento 126

Proposta di regolamento

Considerando 78

Testo della Commissione

Emendamento

(78)

Al fine di garantire che i fornitori di sistemi di IA ad alto rischio possano tenere in considerazione l'esperienza sull'uso di sistemi di IA ad alto rischio per migliorare i loro sistemi e il processo di progettazione e sviluppo o possano adottare tempestivamente eventuali misure correttive, è opportuno che tutti i fornitori dispongano di un sistema di monitoraggio successivo all'immissione sul mercato. Tale sistema è altresì fondamentale per garantire che i possibili rischi derivanti dai sistemi di IA che proseguono il loro «apprendimento» dopo essere stati immessi sul mercato o messi in servizio possano essere affrontati in modo più efficiente e tempestivo. I fornitori dovrebbero anche essere tenuti, in tale contesto, a predisporre un sistema per segnalare alle autorità competenti eventuali incidenti gravi o violazioni della normativa nazionale e dell'Unione che tutela i diritti fondamentali derivanti dall'uso dei loro sistemi di IA.

(78)

Al fine di garantire che i fornitori di sistemi di IA ad alto rischio possano tenere in considerazione l'esperienza sull'uso di sistemi di IA ad alto rischio per migliorare i loro sistemi e il processo di progettazione e sviluppo o possano adottare tempestivamente eventuali misure correttive, è opportuno che tutti i fornitori dispongano di un sistema di monitoraggio successivo all'immissione sul mercato. Tale sistema è altresì fondamentale per garantire che i possibili rischi derivanti dai sistemi di IA che proseguono il loro «apprendimento» o che evolvono dopo essere stati immessi sul mercato o messi in servizio possano essere affrontati in modo più efficiente e tempestivo. I fornitori dovrebbero anche essere tenuti, in tale contesto, a predisporre un sistema per segnalare alle autorità competenti eventuali incidenti gravi o violazioni della normativa nazionale e dell'Unione , anche quella che tutela i diritti fondamentali e i diritti dei consumatori derivanti dall'uso dei loro sistemi di IA , e adottare le misure correttive appropriate . I fornitori dovrebbero inoltre segnalare alle autorità competenti eventuali incidenti gravi o violazioni della normativa nazionale e dell'Unione derivanti dall'uso dei loro sistemi di IA quando vengono a conoscenza di tali incidenti gravi o violazioni.

Emendamento 127

Proposta di regolamento

Considerando 79

Testo della Commissione

Emendamento

(79)

Al fine di garantire un'applicazione adeguata ed efficace dei requisiti e degli obblighi stabiliti dal presente regolamento, che costituisce la normativa di armonizzazione dell'Unione, è opportuno che si applichi nella sua interezza il sistema di vigilanza del mercato e di conformità dei prodotti istituito dal regolamento (UE) 2019/1020. Ove necessario per il loro mandato, è opportuno che le autorità o gli organismi pubblici nazionali che controllano l'applicazione della normativa dell'Unione che tutela i diritti fondamentali, compresi gli organismi per la parità, abbiano altresì accesso alla documentazione creata a norma del presente regolamento.

(79)

Al fine di garantire un'applicazione adeguata ed efficace dei requisiti e degli obblighi stabiliti dal presente regolamento, che costituisce la normativa di armonizzazione dell'Unione, è opportuno che si applichi nella sua interezza il sistema di vigilanza del mercato e di conformità dei prodotti istituito dal regolamento (UE) 2019/1020. Ai fini del presente regolamento, le autorità nazionali di controllo dovrebbero agire in qualità di autorità di vigilanza del mercato per i sistemi di IA contemplati dal presente regolamento, ad eccezione dei sistemi di IA di cui all'allegato II del presente regolamento. Per i sistemi di IA contemplati dagli atti giuridici di cui all'allegato II, le autorità competenti a norma di tali atti giuridici dovrebbero rimanere l'autorità capofila. Le autorità nazionali di controllo e le autorità competenti indicate negli atti giuridici di cui all'allegato II dovrebbero collaborare ogniqualvolta necessario. Se del caso, le autorità competenti degli atti giuridici di cui all'allegato II dovrebbero inviare personale competente all'autorità nazionale di controllo per assisterla nello svolgimento dei suoi compiti. Ai fini del presente regolamento, le autorità nazionali di controllo dovrebbero avere gli stessi poteri e obblighi delle autorità di vigilanza del mercato ai sensi del regolamento (UE) 2019/1020. Ove necessario per il loro mandato, è opportuno che le autorità o gli organismi pubblici nazionali che controllano l'applicazione della normativa dell'Unione che tutela i diritti fondamentali, compresi gli organismi per la parità, abbiano altresì accesso alla documentazione creata a norma del presente regolamento. Dopo aver esaurito tutti gli altri modi ragionevoli per valutare/verificare la conformità e su richiesta motivata, l'autorità nazionale di controllo dovrebbe avere accesso ai set di dati di addestramento, convalida e prova, al modello addestrato e di addestramento del sistema di IA ad alto rischio, compresi i pertinenti parametri del modello, e al relativo ambiente di esecuzione/funzionamento. Nei casi di sistemi software più semplici che rientrano nell'ambito di applicazione del presente regolamento e che non si basano su modelli addestrati, e qualora siano stati esauriti tutti gli altri modi per verificare la conformità, l'autorità nazionale di controllo può, in via eccezionale, avere accesso al codice sorgente, su richiesta motivata. Qualora all'autorità nazionale di controllo sia stato concesso l'accesso ai set di dati di addestramento, convalida e prova conformemente al presente regolamento, tale accesso dovrebbe essere effettuato mediante mezzi e strumenti tecnici adeguati, compreso l'accesso in loco e, in circostanze eccezionali, l'accesso remoto. L'autorità nazionale di controllo dovrebbe trattare tutte le informazioni ottenute, compresi il codice sorgente, il software e i dati, a seconda dei casi, come informazioni riservate e rispettare la pertinente normativa dell'Unione in materia di protezione della proprietà intellettuale e dei segreti commerciali. L'autorità nazionale di controllo dovrebbe cancellare tutte le informazioni ottenute al termine dell'indagine.

Emendamento 128

Proposta di regolamento

Considerando 80

Testo della Commissione

Emendamento

(80)

La legislazione dell'Unione in materia di servizi finanziari comprende regole e requisiti in materia di governance interna e di gestione dei rischi che sono applicabili agli istituti finanziari regolamentati durante la fornitura di tali servizi, anche quando si avvalgono di sistemi di IA. Al fine di garantire la coerenza dell'applicazione e dell'attuazione degli obblighi previsti dal presente regolamento e delle regole e dei requisiti pertinenti della normativa dell'Unione in materia di servizi finanziari, è opportuno che le autorità responsabili del controllo e dell'applicazione della normativa in materia di servizi finanziari, compresa, se del caso, la Banca centrale europea, siano designate come autorità competenti ai fini del controllo dell'attuazione del presente regolamento, anche in relazione alle attività di vigilanza del mercato, per quanto riguarda i sistemi di IA forniti o utilizzati da istituti finanziari regolamentati e sottoposti a vigilanza. Per migliorare ulteriormente la coerenza tra il presente regolamento e le regole applicabili agli enti creditizi disciplinati dalla direttiva 2013/36/UE del Parlamento europeo e del Consiglio (56), è altresì opportuno integrare negli obblighi e nelle procedure esistenti a norma di tale direttiva la procedura di valutazione della conformità e alcuni degli obblighi procedurali dei fornitori in materia di gestione dei rischi, monitoraggio successivo alla commercializzazione e documentazione. Al fine di evitare sovrapposizioni, è opportuno prevedere deroghe limitate anche in relazione al sistema di gestione della qualità dei fornitori e all'obbligo di monitoraggio imposto agli utenti dei sistemi di IA ad alto rischio nella misura in cui si applicano agli enti creditizi disciplinati dalla direttiva 2013/36/UE.

(80)

La normativa dell'Unione in materia di servizi finanziari comprende regole e requisiti in materia di governance interna e di gestione dei rischi che sono applicabili agli istituti finanziari regolamentati durante la fornitura di tali servizi, anche quando si avvalgono di sistemi di IA. Al fine di garantire la coerenza dell'applicazione e dell'attuazione degli obblighi previsti dal presente regolamento e delle regole e dei requisiti pertinenti della normativa dell'Unione in materia di servizi finanziari, è opportuno che le autorità competenti responsabili del controllo e dell'applicazione della normativa in materia di servizi finanziari, compresa, se del caso, la Banca centrale europea, siano designate come autorità competenti ai fini del controllo dell'attuazione del presente regolamento, anche in relazione alle attività di vigilanza del mercato, per quanto riguarda i sistemi di IA forniti o utilizzati da istituti finanziari regolamentati e sottoposti a vigilanza. Per migliorare ulteriormente la coerenza tra il presente regolamento e le regole applicabili agli enti creditizi disciplinati dalla direttiva 2013/36/UE del Parlamento europeo e del Consiglio (56), è altresì opportuno integrare negli obblighi e nelle procedure esistenti a norma di tale direttiva la procedura di valutazione della conformità e alcuni degli obblighi procedurali dei fornitori in materia di gestione dei rischi, monitoraggio successivo alla commercializzazione e documentazione. Al fine di evitare sovrapposizioni, è opportuno prevedere deroghe limitate anche in relazione al sistema di gestione della qualità dei fornitori e all'obbligo di monitoraggio imposto agli operatori dei sistemi di IA ad alto rischio nella misura in cui si applicano agli enti creditizi disciplinati dalla direttiva 2013/36/UE.

Emendamento 129

Proposta di regolamento

Considerando 80 bis (nuovo)

Testo della Commissione

Emendamento

 

(80 bis)

Considerati gli obiettivi del presente regolamento, vale a dire garantire un livello equivalente di protezione della salute, della sicurezza e dei diritti fondamentali delle persone fisiche, garantire la protezione dello Stato di diritto e della democrazia e tenuto conto del fatto che l'attenuazione dei rischi dei sistemi di IA contro tali diritti può non essere realizzata in misura sufficiente a livello nazionale o può essere oggetto di interpretazioni divergenti che potrebbero in ultima analisi portare a un livello disomogeneo di protezione delle persone fisiche e creare frammentazione del mercato, alle autorità nazionale di controllo dovrebbero essere conferito il potere di svolgere indagini congiunte o di avvalersi della procedura di salvaguardia dell'Unione prevista dal presente regolamento per un'applicazione efficace. Le indagini congiunte dovrebbero essere avviate qualora l'autorità nazionale di controllo abbia motivi sufficienti per ritenere che una violazione del presente regolamento costituisca un'infrazione diffusa o un'infrazione diffusa avente una dimensione unionale, o qualora il sistema di IA o il modello di base presenti un rischio che riguarda o possa riguardare almeno 45 milioni di persone in più di uno Stato membro.

Emendamento 130

Proposta di regolamento

Considerando 82

Testo della Commissione

Emendamento

(82)

È importante che i sistemi di IA collegati a prodotti che non sono ad alto rischio in conformità al presente regolamento e che pertanto non sono tenuti a rispettare i requisiti ivi stabiliti siano comunque sicuri al momento dell'immissione sul mercato o della messa in servizio. Per contribuire a tale obiettivo, sarebbe opportuno applicare come rete di sicurezza la direttiva 2001/95/CE del Parlamento europeo e del Consiglio (57).

(82)

È importante che i sistemi di IA collegati a prodotti che non sono ad alto rischio in conformità al presente regolamento e che pertanto non sono tenuti a rispettare i requisiti stabiliti per i sistemi di IA ad alto rischio siano comunque sicuri al momento dell'immissione sul mercato o della messa in servizio. Per contribuire a tale obiettivo, sarebbe opportuno applicare come rete di sicurezza la direttiva 2001/95/CE del Parlamento europeo e del Consiglio (57).

Emendamento 131

Proposta di regolamento

Considerando 83

Testo della Commissione

Emendamento

(83)

Al fine di garantire una cooperazione affidabile e costruttiva delle autorità competenti a livello nazionale e dell'Unione, è opportuno che tutte le parti coinvolte nell'applicazione del presente regolamento rispettino la riservatezza delle informazioni e dei dati ottenuti nell'assolvimento dei loro compiti.

(83)

Al fine di garantire una cooperazione affidabile e costruttiva delle autorità competenti a livello nazionale e dell'Unione, è opportuno che tutte le parti coinvolte nell'applicazione del presente regolamento mirino alla trasparenza e all'apertura rispettando nel contempo la riservatezza delle informazioni e dei dati ottenuti nell'assolvimento dei loro compiti , adottando misure tecniche e organizzative per proteggere la sicurezza e la riservatezza delle informazioni ottenute nell'esercizio delle loro attività, anche per quanto riguarda i diritti di proprietà intellettuale e gli interessi di sicurezza pubblica e nazionale. Se le attività della Commissione, delle autorità nazionali competenti e degli organismi notificati ai sensi del presente regolamento comportano la violazione di diritti di proprietà intellettuale, gli Stati membri dovrebbero prevedere misure e mezzi di ricorso adeguati per garantire l'applicazione dei diritti di proprietà intellettuale in applicazione della direttiva 2004/48/CE.

Emendamento 132

Proposta di regolamento

Considerando 84

Testo della Commissione

Emendamento

(84)

Gli Stati membri dovrebbero adottare tutte le misure necessarie per assicurare l'attuazione delle disposizioni di cui al presente regolamento, anche stabilendo sanzioni effettive, proporzionate e dissuasive in caso di violazione. Per talune violazioni specifiche, è opportuno che gli Stati membri tengano conto dei margini dei criteri stabiliti nel presente regolamento . Il Garante europeo della protezione dei dati dovrebbe disporre del potere di infliggere sanzioni pecuniarie alle istituzioni, alle agenzie e agli organismi dell'Unione che rientrano nell'ambito di applicazione del presente regolamento.

(84)

Il rispetto del presente regolamento dovrebbe essere reso esecutivo mediante l'imposizione di ammende da parte dell'autorità nazionale di controllo nell'ambito dei procedimenti avviati secondo la procedura di cui al presente regolamento. Gli Stati membri dovrebbero adottare tutte le misure necessarie per assicurare l'attuazione delle disposizioni di cui al presente regolamento, anche stabilendo sanzioni effettive, proporzionate e dissuasive in caso di violazione. Al fine di rafforzare e armonizzare le sanzioni amministrative in caso di violazione del presente regolamento, è opportuno stabilire limiti massimi per la fissazione delle sanzioni amministrative pecuniarie per talune violazioni specifiche ; Nel valutare l'importo delle sanzioni amministrative pecuniarie , le autorità nazionali competenti dovrebbero, in ogni singolo caso, tenere conto di tutte le circostanze pertinenti della situazione specifica, in particolare, della natura, della gravità e della durata della violazione e delle sue conseguenze e delle dimensioni del fornitore, in particolare se si tratta di una PMI o di una start-up . Il Garante europeo della protezione dei dati dovrebbe disporre del potere di infliggere sanzioni pecuniarie alle istituzioni, alle agenzie e agli organismi dell'Unione che rientrano nell'ambito di applicazione del presente regolamento. Le sanzioni e le spese di contenzioso di cui al presente regolamento non dovrebbero essere soggette a clausole contrattuali o ad altri accordi.

Emendamento 133

Proposta di regolamento

Considerando 84 bis (nuovo)

Testo della Commissione

Emendamento

 

(84 bis)

Poiché i diritti e le libertà delle persone fisiche e giuridiche e dei gruppi di persone fisiche possono essere gravemente compromessi dai sistemi di IA, è essenziale che le persone fisiche e giuridiche o i gruppi di persone fisiche abbiano un accesso significativo a meccanismi di segnalazione e di ricorso e abbiano il diritto di accedere a mezzi di ricorso proporzionati ed efficaci. Essi dovrebbero poter segnalare le violazioni del presente regolamento alla propria autorità nazionale di controllo e avere il diritto di presentare un reclamo contro i fornitori o gli operatori di sistemi di IA. Se del caso, gli operatori dovrebbero prevedere meccanismi interni di reclamo che possano essere utilizzati dalle persone fisiche e giuridiche o dai gruppi di persone fisiche. Fatto salvo ogni altro ricorso amministrativo o extragiudiziale, le persone fisiche e giuridiche e i gruppi di persone fisiche dovrebbero avere il diritto anche a un ricorso giurisdizionale effettivo nei confronti di una decisione giuridicamente vincolante di un'autorità nazionale di controllo che li riguarda o, qualora l'autorità nazionale di controllo non tratti un reclamo, non informi il ricorrente dello stato o dell'esito preliminare del reclamo presentato o non adempia all'obbligo di adottare una decisione definitiva in merito al reclamo.

Emendamento 134

Proposta di regolamento

Considerando 84 ter (nuovo)

Testo della Commissione

Emendamento

 

(84 ter)

Le persone interessate dovrebbero sempre essere informate del fatto che sono soggette all'uso di un sistema di IA ad alto rischio quando gli operatori utilizzano un sistema di IA ad alto rischio per assisterle in un processo decisionale o nel prendere decisioni relative a persone fisiche. Tali informazioni possono costituire una base per consentire alle persone interessate di esercitare il loro diritto a una spiegazione ai sensi del presente regolamento. Quando gli operatori forniscono una spiegazione alle persone interessate a norma del presente regolamento, essi dovrebbero tenere conto del livello di competenza e conoscenza della persona media o del consumatore medio.

Emendamento 135

Proposta di regolamento

Considerando 84 quater (nuovo)

Testo della Commissione

Emendamento

 

(84 quater)

La normativa dell'Unione riguardante la protezione degli informatori (direttiva (UE) 2019/1937) si applica pienamente agli accademici, ai progettisti, agli sviluppatori, alle persone che contribuiscono al progetto, ai revisori, ai responsabili di prodotto, agli ingegneri e agli operatori economici che acquisiscono informazioni in merito a violazioni del diritto dell'Unione da parte di un fornitore di sistemi di IA o del suo sistema di IA.

Emendamento 136

Proposta di regolamento

Considerando 85

Testo della Commissione

Emendamento

(85)

Al fine di garantire che il quadro normativo possa essere adeguato ove necessario, è opportuno delegare alla Commissione il potere di adottare atti conformemente all'articolo 290 TFUE per modificare le tecniche e gli approcci di cui all'allegato I per definire i sistemi di IA, la normativa di armonizzazione dell'Unione elencata nell'allegato II, i sistemi di IA ad alto rischio elencati nell'allegato III, le disposizioni relative alla documentazione tecnica di cui all'allegato IV, il contenuto della dichiarazione di conformità UE di cui all'allegato V, le disposizioni relative alle procedure di valutazione della conformità di cui agli allegati VI e VII e le disposizioni che stabiliscono i sistemi di IA ad alto rischio cui dovrebbe applicarsi la procedura di valutazione della conformità sulla base della valutazione del sistema di gestione della qualità e della valutazione della documentazione tecnica. È di particolare importanza che durante i lavori preparatori la Commissione svolga adeguate consultazioni, anche a livello di esperti, nel rispetto dei principi stabiliti nell'accordo interistituzionale «Legiferare meglio» del 13 aprile 2016 (58). In particolare, al fine di garantire la parità di partecipazione alla preparazione degli atti delegati, il Parlamento europeo e il Consiglio ricevono tutti i documenti contemporaneamente agli esperti degli Stati membri, e i loro esperti hanno sistematicamente accesso alle riunioni dei gruppi di esperti della Commissione incaricati della preparazione di tali atti delegati.

(85)

Al fine di garantire che il quadro normativo possa essere adeguato ove necessario, è opportuno delegare alla Commissione il potere di adottare atti conformemente all'articolo 290 TFUE per modificare la normativa di armonizzazione dell'Unione elencata nell'allegato II, i sistemi di IA ad alto rischio elencati nell'allegato III, le disposizioni relative alla documentazione tecnica di cui all'allegato IV, il contenuto della dichiarazione di conformità UE di cui all'allegato V, le disposizioni relative alle procedure di valutazione della conformità di cui agli allegati VI e VII e le disposizioni che stabiliscono i sistemi di IA ad alto rischio cui dovrebbe applicarsi la procedura di valutazione della conformità sulla base della valutazione del sistema di gestione della qualità e della valutazione della documentazione tecnica. È di particolare importanza che durante i lavori preparatori la Commissione svolga adeguate consultazioni, anche a livello di esperti, nel rispetto dei principi stabiliti nell'accordo interistituzionale «Legiferare meglio» del 13 aprile 2016 (58) . Tali consultazioni dovrebbero prevedere la partecipazione di portatori di interessi selezionati in modo equilibrato, tra cui le organizzazioni dei consumatori, la società civile, le associazioni che rappresentano le persone interessate, i rappresentanti delle imprese di diversi settori e dimensioni nonché ricercatori e scienziati . In particolare, al fine di garantire la parità di partecipazione alla preparazione degli atti delegati, il Parlamento europeo e il Consiglio ricevono tutti i documenti contemporaneamente agli esperti degli Stati membri, e i loro esperti hanno sistematicamente accesso alle riunioni dei gruppi di esperti della Commissione incaricati della preparazione di tali atti delegati.

Emendamento 137

Proposta di regolamento

Considerando 85 bis (nuovo)

Testo della Commissione

Emendamento

 

(85 bis)

Dati i rapidi sviluppi tecnologici e le competenze tecniche necessarie per effettuare la valutazione dei sistemi di IA ad alto rischio, la Commissione dovrebbe riesaminare periodicamente l'attuazione del presente regolamento, in particolare i sistemi di IA vietati, gli obblighi di trasparenza e l'elenco dei settori e dei casi d'uso ad alto rischio, almeno ogni anno, consultando nel contempo l'ufficio per l'IA e i pertinenti portatori di interessi.

Emendamento 138

Proposta di regolamento

Considerando 87 bis (nuovo)

Testo della Commissione

Emendamento

 

(87 bis)

Essendo limitate le informazioni affidabili sull'uso delle risorse e dell'energia, sulla produzione di rifiuti e su altri impatti ambientali dei sistemi di IA e della relativa tecnologia TIC, compresi il software, l'hardware e in particolare i centri dati, è opportuno che la Commissione introduca una metodologia adeguata per misurare l'impatto ambientale e l'efficacia del presente regolamento alla luce degli obiettivi ambientali e climatici dell'Unione.

Emendamento 139

Proposta di regolamento

Considerando 89

Testo della Commissione

Emendamento

(89)

Conformemente all'articolo 42, paragrafo 2, del regolamento (UE) 2018/1725, il Garante europeo della protezione dei dati e il comitato europeo per la protezione dei dati sono stati consultati e hanno formulato il loro parere il […]",

(89)

Conformemente all'articolo 42, paragrafo 2, del regolamento (UE) 2018/1725, il Garante europeo della protezione dei dati e il comitato europeo per la protezione dei dati sono stati consultati e hanno formulato il loro parere il 18 giugno 2021 .

Emendamento 140

Proposta di regolamento

Articolo 1 — paragrafo 1 (nuovo)

Testo della Commissione

Emendamento

 

1.

L'obiettivo del presente regolamento è promuovere la diffusione di un'intelligenza artificiale antropocentrica e affidabile e garantire un livello elevato di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto e dell'ambiente dagli effetti nocivi dei sistemi di intelligenza artificiale nell'Unione, promuovendo nel contempo l'innovazione;

Emendamento 141

Proposta di regolamento

Articolo 1 — paragrafo 1 — lettera d

Testo della Commissione

Emendamento

d)

regole di trasparenza armonizzate per i sistemi di IA destinati a interagire con le persone fisiche, i sistemi di riconoscimento delle emozioni, i sistemi di categorizzazione biometrica e i sistemi di IA utilizzati per generare o manipolare immagini o contenuti audio o video ;

d)

regole di trasparenza armonizzate per taluni sistemi di IA;

Emendamento 142

Proposta di regolamento

Articolo 1 — paragrafo 1 — lettera e

Testo della Commissione

Emendamento

e)

regole in materia di monitoraggio e vigilanza del mercato.

e)

regole in materia di monitoraggio del mercato, governance della vigilanza del mercato e applicazione;

Emendamento 143

Proposta di regolamento

Articolo 1 — paragrafo 1 — lettera e bis (nuova)

Testo della Commissione

Emendamento

 

e bis)

misure a sostegno dell'innovazione, con particolare attenzione alle PMI e alle start-up, compresa la creazione di spazi di sperimentazione normativa e misure mirate per ridurre l'onere normativo per le PMI e le start-up;

Emendamento 144

Proposta di regolamento

Articolo 1 — paragrafo 1 — lettera e ter (nuova)

Testo della Commissione

Emendamento

 

e ter)

regole per l'istituzione e il funzionamento dell'ufficio dell'Unione europea per l'intelligenza artificiale (l'ufficio per l'IA);

Emendamento 145

Proposta di regolamento

Articolo 2 — paragrafo 1 — lettera b

Testo della Commissione

Emendamento

b)

agli utenti dei sistemi di IA situati nell'Unione ;

b)

agli operatori dei sistemi di IA che hanno il loro luogo di stabilimento o che sono situati all'interno dell'Unione ;

Emendamento 146

Proposta di regolamento

Articolo 2 — paragrafo 1 — lettera c

Testo della Commissione

Emendamento

c)

ai fornitori e agli utenti di sistemi di IA situati in un paese terzo, laddove l'output prodotto dal sistema sia utilizzato nell'Unione.

c)

ai fornitori e agli operatori di sistemi di IA che hanno il loro luogo di stabilimento o che sono situati in un paese terzo, laddove si applichi il diritto di uno Stato membro in virtù di una normativa internazionale pubblica o l'output prodotto dal sistema sia destinato a essere utilizzato nell'Unione;

Emendamento 147

Proposta di regolamento

Articolo 2 — paragrafo 1 — lettera c bis (nuova)

Testo della Commissione

Emendamento

 

c bis)

ai fornitori che immettono sul mercato o mettono in servizio sistemi di IA di cui all'articolo 5 al di fuori dell'Unione, se il fornitore o il distributore di tali sistemi è situato nell'Unione;

Emendamento 148

Proposta di regolamento

Articolo 2 — paragrafo 1 — lettera c ter (nuova)

Testo della Commissione

Emendamento

 

c ter)

agli importatori e ai distributori di sistemi di IA nonché ai rappresentanti autorizzati dei fornitori di sistemi di IA, qualora tali importatori, distributori o rappresentanti autorizzati abbiano la loro sede o siano situati nell'Unione;

Emendamento 149

Proposta di regolamento

Articolo 2 — paragrafo 1 — lettera c quater (nuova)

Testo della Commissione

Emendamento

 

c quater)

alle persone interessate, quali definite all'articolo 3, paragrafo 8 bis, che si trovano nell'Unione e sulla salute, la sicurezza o i diritti fondamentali delle quali incide negativamente l'uso di un sistema di IA immesso sul mercato o messo in servizio all'interno dell'Unione.

Emendamento 150

Proposta di regolamento

Articolo 2 — paragrafo 2 — parte introduttiva

Testo della Commissione

Emendamento

2.   Solo l'articolo 84 del presente regolamento si applica ai sistemi di IA ad alto rischio che sono componenti di sicurezza di prodotti o sistemi, o che sono essi stessi prodotti o sistemi , che rientrano nell'ambito di applicazione dei seguenti atti:

2.   Solo l'articolo 84 del presente regolamento si applica ai sistemi di IA ad alto rischio che sono componenti di sicurezza di prodotti o sistemi, o che sono essi stessi prodotti o sistemi e rientrano nell'ambito di applicazione della normativa di armonizzazione di cui all'allegato II — sezione B.

Emendamento 151

Proposta di regolamento

Articolo 2 — paragrafo 2 — lettera a

Testo della Commissione

Emendamento

a)

regolamento (CE) n. 300/2008;

soppresso

Emendamento 152

Proposta di regolamento

Articolo 2 — paragrafo 2 — lettera b

Testo della Commissione

Emendamento

b)

regolamento (UE) n. 167/2013;

soppresso

Emendamento 153

Proposta di regolamento

Articolo 2 — paragrafo 2 — lettera c

Testo della Commissione

Emendamento

c)

regolamento (UE) n. 168/2013;

soppresso

Emendamento 154

Proposta di regolamento

Articolo 2 — paragrafo 2 — lettera d

Testo della Commissione

Emendamento

d)

direttiva 2014/90/UE;

soppresso

Emendamento 155

Proposta di regolamento

Articolo 2 — paragrafo 2 — lettera e

Testo della Commissione

Emendamento

e)

direttiva (UE) 2016/797;

soppresso

Emendamento 156

Proposta di regolamento

Articolo 2 — paragrafo 2 — lettera f

Testo della Commissione

Emendamento

f)

regolamento (UE) 2018/858;

soppresso

Emendamento 157

Proposta di regolamento

Articolo 2 — paragrafo 2 — lettera g

Testo della Commissione

Emendamento

g)

regolamento (UE) 2018/1139;

soppresso

Emendamento 158

Proposta di regolamento

Articolo 2 — paragrafo 2 — lettera h

Testo della Commissione

Emendamento

h)

regolamento (UE) 2019/2144.

soppresso

Emendamento 159

Proposta di regolamento

Articolo 2 — paragrafo 4

Testo della Commissione

Emendamento

4.   Il presente regolamento non si applica alle autorità pubbliche di un paese terzo né alle organizzazioni internazionali che rientrano nell'ambito di applicazione del presente regolamento a norma del paragrafo 1, laddove tali autorità o organizzazioni utilizzino i sistemi di IA nel quadro di accordi internazionali per la cooperazione delle autorità di contrasto e giudiziarie con l'Unione o con uno o più Stati membri.

4.   Il presente regolamento non si applica alle autorità pubbliche di un paese terzo né alle organizzazioni internazionali che rientrano nell'ambito di applicazione del presente regolamento a norma del paragrafo 1, laddove tali autorità o organizzazioni utilizzino i sistemi di IA nel quadro di accordi internazionali per la cooperazione delle autorità di contrasto e giudiziarie con l'Unione o con uno o più Stati membri e siano oggetto di una decisione della Commissione adottata a norma dell'articolo 36 della direttiva (UE) 2016/680 o dell'articolo 45 del regolamento (UE) 2016/679 («decisione di adeguatezza»), o siano parti di un accordo internazionale concluso tra l'Unione e il paese terzo o l'organizzazione internazionale in questione, a norma dell'articolo 218 TFUE, che prevede garanzie adeguate per quanto riguarda la protezione della vita privata e dei diritti e delle libertà fondamentali delle persone;

Emendamento 160

Proposta di regolamento

Articolo 2 — paragrafo 5 bis (nuovo)

Testo della Commissione

Emendamento

 

5 bis.     Il diritto dell'Unione in materia di protezione dei dati personali, della vita privata e della riservatezza delle comunicazioni si applica ai trattamenti di dati personali in relazione ai diritti e agli obblighi stabiliti nel presente regolamento. Il presente regolamento lascia impregiudicati i regolamenti (UE) 2016/679 e (UE) 2018/1725 e le direttive 2002/58/CE e (UE) 2016/680, fatte salve le disposizioni di cui all'articolo 10, paragrafo 5, e all'articolo 54 del presente regolamento.;

Emendamento 161

Proposta di regolamento

Articolo 2 — paragrafo 5 ter (nuovo)

Testo della Commissione

Emendamento

 

5 ter.     Il presente regolamento lascia impregiudicate le norme stabilite da altri atti giuridici dell'Unione in materia di protezione dei consumatori e di sicurezza dei prodotti;

Emendamento 162

Proposta di regolamento

Articolo 2 — paragrafo 5 quater (nuovo)

Testo della Commissione

Emendamento

 

5 quater.     Il presente regolamento non osta a che gli Stati membri o l'Unione mantengano o introducano disposizioni legislative, regolamentari o amministrative più favorevoli ai lavoratori in termini di tutela dei loro diritti in relazione all'uso dei sistemi di IA da parte dei datori di lavoro, o di incoraggiare o consentire l'applicazione di contratti collettivi più favorevoli ai lavoratori.

Emendamento 163

Proposta di regolamento

Articolo 2 — paragrafo 5 quinquies (nuovo)

Testo della Commissione

Emendamento

 

5 quinquies.     Il presente regolamento non si applica alle attività di ricerca, prova e sviluppo relative ai sistemi di IA prima che tali sistemi siano immessi sul mercato o messi in servizio, a condizione che tali attività siano condotte nel rispetto dei diritti fondamentali e della normativa dell'Unione applicabile. La presente esenzione non si applica alle prove in condizioni reali. Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73 che chiariscano l'applicazione del presente paragrafo per specificare tale esenzione al fine di prevenirne gli abusi esistenti e potenziali. L'ufficio per l'IA fornisce orientamenti sulla governance della ricerca e dello sviluppo a norma dell'articolo 56 anche al fine di coordinarne l'applicazione da parte delle autorità nazionali di controllo;

Emendamento 164

Proposta di regolamento

Articolo 2 — paragrafo 5 sexies (nuovo)

Testo della Commissione

Emendamento

 

5 sexies.     Il presente regolamento non si applica ai componenti di IA forniti in base a licenze gratuite e open source, tranne nella misura in cui sono immessi sul mercato o messi in servizio da un fornitore nell'ambito di un sistema di IA ad alto rischio o di un sistema di IA che rientra nel titolo II o IV. Tale esenzione non si applica ai modelli di base definiti all'articolo 3.

Emendamento 165

Proposta di regolamento

Articolo 3 — punto 1

Testo della Commissione

Emendamento

1)

«sistema di intelligenza artificiale» (sistema di IA): un software sviluppato con una o più delle tecniche e degli approcci elencati nell'allegato I, che può , per una determinata serie di obiettivi definiti dall'uomo , generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono ;

1)

«sistema di intelligenza artificiale» (sistema di IA): un sistema automatizzato progettato per operare con livelli di autonomia variabili e che, per obiettivi espliciti o impliciti , può generare output quali previsioni, raccomandazioni o decisioni che influenzano gli ambienti fisici o virtuali ;

Emendamento 166

Proposta di regolamento

Articolo 3 — punto 1 bis (nuovo)

Testo della Commissione

Emendamento

 

1 bis)

«rischio»: la combinazione della probabilità del verificarsi di un danno e la gravità del danno stesso;

Emendamento 167

Proposta di regolamento

Articolo 3 — punto 1 ter (nuovo)

Testo della Commissione

Emendamento

 

1 ter)

«rischio significativo»: un rischio che è significativo per la combinazione della sua gravità, intensità, probabilità che si verifichi e della durata dei suoi effetti e della sua capacità di incidere su una persona, su una pluralità di persone o su un particolare gruppo di persone;

Emendamento 168

Proposta di regolamento

Articolo 3 — punto 1 quater (nuovo)

Testo della Commissione

Emendamento

 

1 quater)

«modello di base»: un modello di sistema di IA addestrato su un'ampia scala di dati, progettato per la generalità dell'output e che può essere adattato a un'ampia gamma di compiti distinti;

Emendamento 169

Proposta di regolamento

Articolo 3 — punto 1 quinquies (nuovo)

Testo della Commissione

Emendamento

 

1 quinquies)

«sistema di IA per finalità generali»: un sistema di IA che può essere utilizzato e adattato a un'ampia gamma di applicazioni per le quali non è stato intenzionalmente e specificamente progettato;

Emendamento 170

Proposta di regolamento

Articolo 3 — punto 1 sexies (nuovo)

Testo della Commissione

Emendamento

 

1 sexies)

« grandi cicli di addestramento»: il processo di produzione di un potente modello di IA che richiede risorse informatiche al di sopra di una soglia molto elevata;

Emendamento 171

Proposta di regolamento

Articolo 3 — punto 3

Testo della Commissione

Emendamento

3)

«fornitore di piccole dimensioni»: un fornitore che è una microimpresa o una piccola impresa ai sensi della raccomandazione 2003/361/CE della Commissione  (61) ;

soppresso

Emendamento 172

Proposta di regolamento

Articolo 3 — punto 4

Testo della Commissione

Emendamento

4)

«utente» : qualsiasi persona fisica o giuridica, autorità pubblica, agenzia o altro organismo che utilizza un sistema di IA sotto la sua autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un'attività personale non professionale;

4)

«operatore» : qualsiasi persona fisica o giuridica, autorità pubblica, agenzia o altro organismo che utilizza un sistema di IA sotto la sua autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un'attività personale non professionale;

Emendamento 173

Proposta di regolamento

Articolo 3 — punto 8

Testo della Commissione

Emendamento

8)

«operatore»: il fornitore, l'utente , il rappresentante autorizzato, l'importatore e il distributore;

8)

«operatore»: il fornitore, l'operatore , il rappresentante autorizzato, l'importatore e il distributore;

Emendamento 174

Proposta di regolamento

Articolo 3 — punto 8 bis (nuovo)

Testo della Commissione

Emendamento

 

8 bis)

«persona interessata»: una persona fisica o un gruppo di persone che sono soggetti a un sistema di IA o in altro modo interessati;

Emendamento 175

Proposta di regolamento

Articolo 3 — punto 11

Testo della Commissione

Emendamento

11)

«messa in servizio»: la fornitura di un sistema di IA direttamente all'utente per il primo uso o per uso proprio sul mercato dell'Unione per la finalità prevista;

11)

«messa in servizio»: la fornitura di un sistema di IA direttamente all'operatore per il primo uso o per uso proprio sul mercato dell'Unione per la finalità prevista;

Emendamento 176

Proposta di regolamento

Articolo 3 — punto 13

Testo della Commissione

Emendamento

13)

«uso improprio ragionevolmente prevedibile»: l'uso di un sistema di IA in un modo non conforme alla sua finalità prevista, ma che può derivare da un comportamento umano o da un'interazione con altri sistemi ragionevolmente prevedibile;

13)

«uso improprio ragionevolmente prevedibile»: l'uso di un sistema di IA in un modo non conforme alla sua finalità prevista quale indicata nelle istruzioni per l'uso stabilite dal fornitore , ma che può derivare da un comportamento umano o da un'interazione con altri sistemi ragionevolmente prevedibile , compresi altri sistemi di IA ;

Emendamento 177

Proposta di regolamento

Articolo 3 — punto 14

Testo della Commissione

Emendamento

14)

«componente di sicurezza di un prodotto o di un sistema»: un componente di un prodotto o di un sistema che svolge una funzione di sicurezza per tale prodotto o sistema o il cui guasto o malfunzionamento mette in pericolo la salute e la sicurezza di persone o beni;

14)

«componente di sicurezza di un prodotto o di un sistema»: conformemente alla normativa di armonizzazione dell'Unione di cui all'allegato II, un componente di un prodotto o di un sistema che svolge una funzione di sicurezza per tale prodotto o sistema o il cui guasto o malfunzionamento mette in pericolo la salute e la sicurezza di persone o beni;

Emendamento 178

Proposta di regolamento

Articolo 3 — punto 15

Testo della Commissione

Emendamento

15)

«istruzioni per l'uso»: le informazioni comunicate dal fornitore per informare l'utente in particolare della finalità prevista e dell'uso corretto di un sistema di IA, compreso lo specifico contesto geografico, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere utilizzato;

15)

«istruzioni per l'uso»: le informazioni comunicate dal fornitore per informare l'operatore in particolare della finalità prevista e dell'uso corretto di un sistema di IA nonché le informazioni sulle eventuali precauzioni da adottare; compreso lo specifico contesto geografico, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere utilizzato;

Emendamento 179

Proposta di regolamento

Articolo 3 — punto 16

Testo della Commissione

Emendamento

16)

«richiamo di un sistema di IA»: qualsiasi misura volta a ottenere la restituzione al fornitore di un sistema di IA messo a disposizione degli utenti ;

16)

«richiamo di un sistema di IA»: qualsiasi misura volta a ottenere la restituzione al fornitore di un sistema di IA che è stato messo a disposizione degli operatori ;

Emendamento 180

Proposta di regolamento

Articolo 3 — punto 20

Testo della Commissione

Emendamento

20)

«valutazione della conformità»: la procedura atta a  verificare se i requisiti di cui al titolo III, capo 2, del presente regolamento relativi a un sistema di IA sono stati soddisfatti;

20)

«valutazione della conformità»: la procedura atta a  dimostrare se i requisiti di cui al titolo III, capo 2, del presente regolamento relativi a un sistema di IA sono stati soddisfatti;

Emendamento 181

Proposta di regolamento

Articolo 3 — punto 22

Testo della Commissione

Emendamento

22)

«organismo notificato»: un organismo di valutazione della conformità designato in conformità al presente regolamento e ad altre pertinenti normative di armonizzazione dell'Unione;

22)

«organismo notificato»: un organismo di valutazione della conformità notificato in conformità al presente regolamento e ad altre pertinenti normative di armonizzazione dell'Unione;

Emendamento 182

Proposta di regolamento

Articolo 3 — punto 23

Testo della Commissione

Emendamento

23)

«modifica sostanziale»: una modifica del sistema di IA a seguito della sua immissione sul mercato o messa in servizio che incide sulla conformità del sistema di IA ai requisiti di cui al titolo III, capo 2, del presente regolamento o comporta una modifica della finalità prevista per la quale il sistema di IA è stato valutato;

23)

«modifica sostanziale»: una modifica o una serie di modifiche del sistema di IA a seguito della sua immissione sul mercato o messa in servizio che non è prevista o programmata nella valutazione iniziale dei rischi da parte del fornitore e che ha l'effetto di incidere sulla conformità del sistema di IA ai requisiti di cui al titolo III, capo 2, del presente regolamento o comporta una modifica della finalità prevista per la quale il sistema di IA è stato valutato.

Emendamento 183

Proposta di regolamento

Articolo 3 — punto 24

Testo della Commissione

Emendamento

24)

«marcatura CE di conformità» (marcatura CE): una marcatura mediante la quale un fornitore indica che un sistema di IA è conforme ai requisiti stabiliti al titolo III, capo 2, del presente regolamento e in altre normative applicabili dell'Unione che armonizzano le condizioni per la commercializzazione dei prodotti («normativa di armonizzazione dell'Unione») e che ne prevedono l'apposizione;

24)

«marcatura CE di conformità» (marcatura CE): una marcatura fisica o digitale mediante la quale un fornitore indica che un sistema di IA o un prodotto con un sistema di IA incorporato è conforme ai requisiti stabiliti al titolo III, capo 2, del presente regolamento e in altre normative applicabili dell'Unione che armonizzano le condizioni per la commercializzazione dei prodotti («normativa di armonizzazione dell'Unione») e che ne prevedono l'apposizione;

Emendamento 184

Proposta di regolamento

Articolo 3 — punto 29

Testo della Commissione

Emendamento

29)

«dati di addestramento»: i dati utilizzati per addestrare un sistema di IA adattandone i parametri che può apprendere , compresi i pesi di una rete neurale ;

29)

«dati di addestramento»: i dati utilizzati per addestrare un sistema di IA adattandone i parametri che può apprendere;

Emendamento 185

Proposta di regolamento

Articolo 3 — punto 30

Testo della Commissione

Emendamento

30)

«dati di convalida»: i dati utilizzati per fornire una valutazione del sistema di IA addestrato e per metterne a punto, tra l'altro, i parametri che non può apprendere e il processo di apprendimento, al fine di evitare l'eccessivo adattamento ai dati di addestramento (overfitting), considerando che il set di dati di convalida può essere un set di dati distinto o  essere costituito da una partizione fissa o variabile del set di dati di addestramento;

30)

«dati di convalida»: i dati utilizzati per fornire una valutazione del sistema di IA addestrato e per metterne a punto, tra l'altro, i parametri che non può apprendere e il processo di apprendimento, al fine di evitare lo scarso (underfitting) o l'eccessivo adattamento ai dati di addestramento (overfitting); considerando che il set di dati di convalida è un set di dati distinto o  è costituito da una partizione fissa o variabile del set di dati di addestramento;

Emendamento 186

Proposta di regolamento

Articolo 3 — punto 33

Testo della Commissione

Emendamento

33)

«dati biometrici»: i dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche , fisiologiche o comportamentali di una persona fisica che ne consentono o confermano l'identificazione univoca , quali l'immagine facciale o i dati dattiloscopici ;

33)

«dati biometrici»: i dati biometrici quali definiti all'articolo 4 , punto 14 , del regolamento (UE) 2016/679 ;

Emendamento 187

Proposta di regolamento

Articolo 3 — punto 33 bis (nuovo)

Testo della Commissione

Emendamento

 

33 bis)

«dati basati su elementi biometrici»: i dati aggiuntivi ottenuti da un trattamento tecnico specifico in relazione ai segnali fisici, fisiologici o comportamentali di una persona fisica;

Emendamento 188

Proposta di regolamento

Articolo 3 — punto 33 ter (nuovo)

Testo della Commissione

Emendamento

 

33 ter)

«identificazione biometrica»: il riconoscimento automatizzato delle caratteristiche umane fisiche, fisiologiche, comportamentali e psicologiche al fine di stabilire l'identità di una persona confrontando i dati biometrici di tale persona con i dati biometrici di persone in una banca dati (identificazione uno a molti);

Emendamento 189

Proposta di regolamento

Articolo 3 — punto 33 quater (nuovo)

Testo della Commissione

Emendamento

 

33 quater)

«verifica biometrica»: la verifica automatizzata dell'identità di persone fisiche mediante il confronto dei dati biometrici di una persona fisica con i dati biometrici forniti in precedenza (verifica uno a uno, compresa l'autenticazione);

Emendamento 190

Proposta di regolamento

Articolo 3 — punto 33 quinquies (nuovo)

Testo della Commissione

Emendamento

 

33 quinquies)

«categorie particolari di dati personali»: le categorie di dati personali di cui all'articolo 9, paragrafo 1, del regolamento (UE) 2016/679;

Emendamento 191

Proposta di regolamento

Articolo 3 — punto 34

Testo della Commissione

Emendamento

34)

«sistema di riconoscimento delle emozioni»: un sistema di IA finalizzato all'identificazione o alla deduzione di emozioni o intenzioni di persone fisiche sulla base dei loro dati biometrici;

34)

«sistema di riconoscimento delle emozioni»: un sistema di IA finalizzato all'identificazione o alla deduzione di emozioni , pensieri, stati d'animo o intenzioni di individui o gruppi sulla base dei loro dati biometrici e basati su elementi biometrici;

Emendamento 192

Proposta di regolamento

Articolo 3 — punto 35

Testo della Commissione

Emendamento

35)

«sistema di categorizzazione biometrica» : un sistema di IA che utilizza i dati biometrici di persone fisiche al fine di assegnarle a categorie specifiche , quali quelle basate sul sesso, l'età, il colore dei capelli, il colore degli occhi, i tatuaggi , l'origine etnica o l'orientamento sessuale o politico ;

35)

«categorizzazione biometrica» : l'assegnazione di persone fisiche a categorie specifiche o la deduzione delle loro caratteristiche e attributi sulla base dei loro dati biometrici o basati su elementi biometrici , o che possono essere desunte da tali dati ;

Emendamento 193

Proposta di regolamento

Articolo 3 — punto 36

Testo della Commissione

Emendamento

36)

«sistema di identificazione biometrica remota»: un sistema di IA finalizzato all'identificazione a distanza di persone fisiche mediante il confronto dei dati biometrici di una persona con i dati biometrici contenuti in una banca dati di riferimento, e senza che l'utente del sistema di IA sappia in anticipo se la persona sarà presente e può essere identificata;

36)

«sistema di identificazione biometrica remota»: un sistema di IA finalizzato all'identificazione a distanza di persone fisiche mediante il confronto dei dati biometrici di una persona con i dati biometrici contenuti in una banca dati di riferimento, e senza che l'operatore del sistema di IA sappia in anticipo se la persona sarà presente e può essere identificata , esclusi i sistemi di verifica ;

Emendamento 194

Proposta di regolamento

Articolo 3 — punto 37

Testo della Commissione

Emendamento

37)

«sistema di identificazione biometrica remota “in tempo reale”»: un sistema di identificazione biometrica remota in cui il rilevamento dei dati biometrici, il confronto e l'identificazione avvengono senza ritardi significativi. Sono incluse non solo le identificazioni istantanee, ma anche quelle che avvengono con brevi ritardi limitati al fine di evitare l'elusione della normativa;

37)

«sistema di identificazione biometrica remota “in tempo reale”»: un sistema di identificazione biometrica remota in cui il rilevamento dei dati biometrici, il confronto e l'identificazione avvengono senza ritardi significativi. Sono incluse non solo le identificazioni istantanee, ma anche quelle che avvengono con ritardi limitati al fine di evitare l'elusione della normativa;

Emendamento 195

Proposta di regolamento

Articolo 3 — punto 39

Testo della Commissione

Emendamento

39)

«spazio accessibile al pubblico»: qualsiasi luogo fisico accessibile al pubblico, indipendentemente dall'applicabilità di determinate condizioni di accesso;

39)

«spazio accessibile al pubblico»: qualsiasi luogo fisico pubblico o privato accessibile al pubblico, indipendentemente dall'applicabilità di determinate condizioni di accesso e a prescindere dalle potenziali restrizioni in materia di capienza ;

Emendamento 196

Proposta di regolamento

Articolo 3 — punto 41

Testo della Commissione

Emendamento

41)

«attività di contrasto»: le attività svolte dalle autorità di contrasto a fini di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse;

41)

«attività di contrasto»: le attività svolte dalle autorità di contrasto o per loro conto a fini di prevenzione, indagine, accertamento o perseguimento di reati o esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse;

Emendamento 197

Proposta di regolamento

Articolo 3 — punto 42

Testo della Commissione

Emendamento

42)

«autorità nazionale di controllo»: l' autorità alla quale uno Stato membro attribuisce la responsabilità di attuare e applicare il presente regolamento, di coordinare le attività affidate a tale Stato membro, di fungere da punto di contatto unico per la Commissione e di rappresentare lo Stato membro in seno al comitato europeo per l'intelligenza artificiale ;

42)

«autorità nazionale di controllo»: un' autorità pubblica (emendamento 69) alla quale uno Stato membro attribuisce la responsabilità di attuare e applicare il presente regolamento, di coordinare le attività affidate a tale Stato membro, di fungere da punto di contatto unico per la Commissione e di rappresentare lo Stato membro in seno al consiglio di amministrazione dell'ufficio per l'IA ;

Emendamento 198

Proposta di regolamento

Articolo 3 — punto 43

Testo della Commissione

Emendamento

43)

«autorità nazionale competente»: l'autorità nazionale di controllo, l'autorità di notifica e l'autorità di vigilanza del mercato ;

43)

«autorità nazionale competente»: una delle autorità nazionali di controllo responsabili dell'applicazione del presente regolamento ;

Emendamento 199

Proposta di regolamento

Articolo 3 — punto 44 — parte introduttiva

Testo della Commissione

Emendamento

44)

«incidente grave»: qualsiasi incidente che, direttamente o indirettamente, causa, può aver causato o può causare una delle seguenti conseguenze:

44)

«incidente grave»: qualsiasi incidente o malfunzionamento di un sistema di IA che, direttamente o indirettamente, causa, può aver causato o può causare una delle seguenti conseguenze:

a)

il decesso di una persona o gravi danni alla salute di una persona, alle cose o all'ambiente,

a)

il decesso di una persona o gravi danni alla salute di una persona,

b)

una perturbazione grave della gestione e del funzionamento delle infrastrutture critiche.

b)

una perturbazione grave della gestione e del funzionamento delle infrastrutture critiche;

 

b bis)

una violazione dei diritti fondamentali tutelati dal diritto dell'Unione;

 

b ter)

danni gravi a beni materiali o all'ambiente;

Emendamento 200

Proposta di regolamento

Articolo 3 — punto 44 bis (nuovo)

Testo della Commissione

Emendamento

 

44 bis)

«dati personali»: i dati personali quali definiti all'articolo 4, punto 1, del regolamento (UE) 2016/679;

Emendamento 201

Proposta di regolamento

Articolo 3 — punto 44 ter (nuovo)

Testo della Commissione

Emendamento

 

44 ter)

«dati non personali»: dati diversi dai dati personali;

Emendamento 202

Proposta di regolamento

Articolo 3 — punto 44 quater (nuovo)

Testo della Commissione

Emendamento

 

44 quater)

«profilazione»: qualsiasi forma di trattamento automatizzato dei dati personali ai sensi dell'articolo 4, punto 4, del regolamento (UE) 2016/679; o, nel caso delle autorità di contrasto, dell'articolo 3, punto 4, della direttiva (UE) 2016/680 o, nel caso delle istituzioni, degli organi o degli organismi dell'Unione, dell'articolo 3, punto 5, del regolamento (UE) 2018/1725;

Emendamento 203

Proposta di regolamento

Articolo 3 — punto 44 quinquies (nuovo)

Testo della Commissione

Emendamento

 

44 quinquies)

«deep fake»: contenuto audio, immagine o video manipolato o sintetico che appare falsamente autentico o veritiero e che raffigura persone che sembrano dire o fare cose che non hanno dichiarato o fatto e che è stato prodotto utilizzando tecniche di IA, compresi l'apprendimento automatizzato e l'apprendimento profondo;

Emendamento 204

Proposta di regolamento

Articolo 3 — punto 44 sexies (nuovo)

Testo della Commissione

Emendamento

 

44 sexies)

«infrazione diffusa»: qualsiasi azione od omissione contraria alla normativa dell'Unione che tutela gli interessi delle persone:

 

a)

che abbia arrecato o possa arrecare un danno agli interessi collettivi di persone che risiedono in almeno due Stati membri diversi dallo Stato membro in cui:

 

 

i)

ha avuto origine o si è verificato l'azione o l'omissione in questione;

 

 

ii)

è stabilito il fornitore interessato o, se del caso, il suo rappresentante autorizzato; o

 

 

iii)

è stabilito l'operatore, quando la violazione è commessa dall'operatore;

 

b)

che tuteli gli interessi delle persone che hanno arrecato, arrecano o possono arrecare un danno agli interessi collettivi di persone e che hanno caratteristiche comuni, compresa la stessa pratica illecita e lo stesso interesse leso e che si verificano simultaneamente, sono commesse dal medesimo operatore, in almeno tre Stati membri;

Emendamento 205

Proposta di regolamento

Articolo 3 — punto 44 septies (nuovo)

Testo della Commissione

Emendamento

 

44 septies)

«infrazione diffusa avente una dimensione unionale»: un'infrazione diffusa che abbia arrecato o possa arrecare un danno agli interessi collettivi di persone in almeno due terzi degli Stati membri, che insieme rappresentano almeno i due terzi della popolazione dell'Unione;

Emendamento 206

Proposta di regolamento

Articolo 3 — punto 44 octies (nuovo)

Testo della Commissione

Emendamento

 

44 octies)

«spazio di sperimentazione normativa»: un ambiente controllato stabilito da un'autorità pubblica che facilita lo sviluppo, le prove e la convalida in condizioni di sicurezza di sistemi di IA innovativi per un periodo di tempo limitato prima della loro immissione sul mercato o della loro messa in servizio conformemente a un piano specifico soggetto a vigilanza regolamentare;

Emendamento 207

Proposta di regolamento

Articolo 3 — punto 44 nonies (nuovo)

Testo della Commissione

Emendamento

 

44 nonies)

«infrastruttura critica»: un bene, un impianto, un'apparecchiatura, una rete o un sistema, o una parte di un bene, un impianto, un'apparecchiatura, una rete o un sistema, che è necessario per la fornitura di un servizio essenziale ai sensi dell'articolo 2, paragrafo 4, della direttiva (UE) 2022/2557;

Emendamento 208

Proposta di regolamento

Articolo 3 — punto 44 duodecies (nuovo)

Testo della Commissione

Emendamento

 

44 duodecies)

«punteggio sociale» la valutazione o la classificazione di persone fisiche sulla base del loro comportamento sociale, del loro status socio-economico o di caratteristiche personali o della personalità note o previste;

Emendamento 209

Proposta di regolamento

Articolo 3 — punto 44 terdecies (nuovo)

Testo della Commissione

Emendamento

 

44 terdecies)

«comportamento sociale»: il modo in cui una persona fisica interagisce con altre persone fisiche o la società e le influenza;

Emendamento 210

Proposta di regolamento

Articolo 3 — punto 44 quaterdecies (nuovo)

Testo della Commissione

Emendamento

 

44 quaterdecies)

«stato dell'arte»: la fase sviluppata di capacità tecnica in un determinato momento per quanto riguarda i prodotti, i processi e i servizi, sulla base dei pertinenti risultati consolidati della scienza, della tecnologia e dell'esperienza;

Emendamento 211

Proposta di regolamento

Articolo 3 — punto 44 quindecies (nuovo)

Testo della Commissione

Emendamento

 

44 quindecies)

« prova in condizioni reali»: la prova temporanea di un sistema di IA per la sua finalità prevista in condizioni reali al di fuori di un laboratorio o di un ambiente altrimenti simulato;

Emendamento 212

Proposta di regolamento

Articolo 4

Testo della Commissione

Emendamento

Articolo 4

soppresso

Modifiche dell'allegato I

 

Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73 al fine di modificare l'elenco delle tecniche e degli approcci di cui all'allegato I, per aggiornare tale elenco agli sviluppi tecnologici e di mercato sulla base di caratteristiche simili alle tecniche e agli approcci ivi elencati.

 

Emendamento 213

Proposta di regolamento

Articolo 4 bis (nuovo)

Testo della Commissione

Emendamento

 

Articolo 4 bis

 

Principi generali applicabili a tutti i sistemi di IA

 

1.     Tutti gli operatori che rientrano nel presente regolamento si adoperano al massimo per sviluppare e utilizzare sistemi di IA o modelli di base conformemente ai seguenti principi generali che istituiscono un quadro di alto livello che promuova un approccio europeo antropocentrico coerente a un'intelligenza artificiale etica e affidabile, che sia pienamente in linea con la Carta e con i valori su cui si fonda l'Unione:

 

a)

«intervento e sorveglianza umani»: i sistemi di IA sono sviluppati e utilizzati come strumenti al servizio delle persone, nel rispetto della dignità umana e dell'autonomia personale, e funzionano in modo da poter essere adeguatamente controllati e sorvegliati dagli esseri umani;

 

b)

«robustezza tecnica e sicurezza»: i sistemi di IA sono sviluppati e utilizzati in modo da ridurre al minimo i danni involontari e inaspettati, nonché per essere robusti in caso di problemi involontari e resilienti ai tentativi di alterare l'uso o le prestazioni del sistema di IA in modo da consentirne l'uso illegale da parte di terzi malintenzionati;

 

c)

«vita privata e governance dei dati»: i sistemi di IA sono sviluppati e utilizzati nel rispetto delle norme vigenti in materia di vita privata e protezione dei dati, elaborando al contempo dati che soddisfino livelli elevati in termini di qualità e integrità;

 

d)

«trasparenza»: i sistemi di IA sono sviluppati e utilizzati in modo da consentire un'adeguata tracciabilità e spiegabilità, rendendo gli esseri umani consapevoli del fatto di comunicare o interagire con un sistema di IA e informando debitamente gli utenti delle capacità e dei limiti di tale sistema di IA e le persone interessate dei loro diritti;.

 

e)

«diversità, non discriminazione ed equità»: i sistemi di IA sono sviluppati e utilizzati in modo da includere soggetti diversi e promuovere la parità di accesso, l'uguaglianza di genere e la diversità culturale, evitando nel contempo effetti discriminatori e pregiudizi ingiusti vietati dal diritto dell'Unione o nazionale;

 

f)

«benessere sociale e ambientale»: i sistemi di IA sono sviluppati e utilizzati in modo sostenibile e rispettoso dell'ambiente e in modo da apportare benefici a tutti gli esseri umani, monitorando e valutando gli impatti a lungo termine sull'individuo, sulla società e sulla democrazia.

 

2.     Il paragrafo 1 lascia impregiudicati gli obblighi stabiliti dal diritto dell'Unione e nazionale vigente. Per i sistemi di IA ad alto rischio, i principi generali sono tradotti e rispettati dai fornitori o dagli operatori mediante i requisiti di cui agli articoli da 8 a 15 e i pertinenti obblighi stabiliti al Capo 3 del Titolo III del presente regolamento. Per i modelli di base, i principi generali sono applicati e rispettati dai fornitori mediante i requisiti di cui agli articoli da 28 a 28 ter. Per tutti i sistemi di IA, l'applicazione dei principi di cui al paragrafo 1 può essere conseguita, a seconda dei casi, mediante le disposizioni dell'articolo 28 e dell'articolo 52 o mediante l'applicazione di norme armonizzate, specifiche tecniche e codici di condotta di cui all'articolo 69, senza creare nuovi obblighi a norma del presente regolamento.

 

3.     La Commissione e l'ufficio per l'IA integrano tali principi guida nelle richieste di normazione nonché nelle raccomandazioni consistenti in orientamenti tecnici per assistere i fornitori e gli operatori su come sviluppare e utilizzare i sistemi di IA. Le organizzazioni europee di normazione tengono conto dei principi generali di cui al paragrafo 1 del presente articolo come obiettivi basati sui risultati quando elaborano le norme armonizzate appropriate per i sistemi di IA ad alto rischio di cui all'articolo 40, paragrafo 2 ter.

Emendamento 214

Proposta di regolamento

Articolo 4 ter (nuovo)

Testo della Commissione

Emendamento

 

Articolo 4 ter

 

Alfabetizzazione in materia di IA

 

1.     Nell'attuazione del presente regolamento, l'Unione e gli Stati membri promuovono misure per lo sviluppo di un livello adeguato di alfabetizzazione in materia di IA, in tutti i settori e tenendo conto delle diverse esigenze dei gruppi di fornitori, operatori e persone interessate coinvolti, anche attraverso l'istruzione e la formazione, programmi di riqualificazione e sviluppo delle competenze e garantendo nel contempo un corretto equilibrio di genere e di età, nell'ottica di consentire un controllo democratico dei sistemi di IA.

 

2.     I fornitori e gli operatori dei sistemi di IA adottano misure per garantire un livello sufficiente di alfabetizzazione in materia di IA del loro personale nonché di qualsiasi altra persona che si occupa del funzionamento e dell'utilizzo dei sistemi di IA per loro conto, prendendo in considerazione le loro conoscenze tecniche, la loro esperienza, istruzione e formazione nonché il contesto in cui i sistemi di IA devono essere utilizzati, e tenendo conto delle persone o dei gruppi di persone su cui i sistemi di IA devono essere utilizzati.

 

3.     Tali misure di alfabetizzazione consistono in particolare nell'insegnamento di competenze e nozioni di base relative ai sistemi di IA e al loro funzionamento, compresi i vari tipi di prodotti e utilizzi, i loro rischi e i loro vantaggi.

 

4.     Il livello di alfabetizzazione in materia di IA è considerato sufficiente se contribuisce, ove necessario, alla capacità dei fornitori e degli operatori di assicurare la conformità e l'applicazione del presente regolamento.

Emendamento 215

Proposta di regolamento

Articolo 5 — paragrafo 1 — lettera a

Testo della Commissione

Emendamento

a)

l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole al fine di distorcerne materialmente il comportamento in un modo che provochi o possa provocare a tale persona o a un'altra persona un danno fisico o psicologico ;

a)

l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole o tecniche volutamente manipolative o ingannevoli aventi lo scopo o l'effetto di distorcere materialmente il comportamento di una persona o di un gruppo di persone, pregiudicando in modo considerevole la capacità della persona di prendere una decisione informata, inducendo pertanto la persona a prendere una decisione che non avrebbe altrimenti preso, in un modo che provochi o possa provocare a tale persona , a un'altra persona o a gruppo di persone un danno significativo ;

 

Il divieto di sistemi di IA che utilizzano tecniche subliminali di cui al primo comma non si applica ai sistemi di IA destinati a essere utilizzati per scopi terapeutici approvati sulla base del consenso informato specifico delle persone che sono esposte a tali tecniche o, se del caso, del loro tutore legale;

Emendamento 216

Proposta di regolamento

Articolo 5 — paragrafo 1 — lettera b

Testo della Commissione

Emendamento

b)

l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che sfrutta le vulnerabilità di uno specifico gruppo di persone, dovute all'età b alla disabilità fisica o mentale , al fine di distorcere materialmente il comportamento di una persona che appartiene a tale gruppo in un modo che provochi o possa provocare a tale persona o a un'altra persona un danno fisico o psicologico ;

b)

l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che sfrutta le vulnerabilità di una persona o di un gruppo specifico di persone, comprese le caratteristiche note o previste della personalità o della situazione sociale o economica, dell'età, della capacità fisica o mentale di tale persona o di tale gruppo allo scopo o avente l'effetto di distorcere materialmente il comportamento di tale persona o di una persona appartenente tale gruppo in un modo che provochi o possa provocare a tale persona o a un'altra persona un danno significativo ;

Emendamento 217

Proposta di regolamento

Articolo 5 — paragrafo 1 — lettera b bis (nuova)

Testo della Commissione

Emendamento

 

b bis)

l'immissione sul mercato, la messa in servizio o l'uso di sistemi di categorizzazione biometrica che classificano le persone fisiche in base ad attributi o caratteristiche sensibili o protetti o basati sulla deduzione di tali attributi o caratteristiche. Tale divieto non si applica ai sistemi di IA destinati a essere utilizzati per scopi terapeutici approvati sulla base del consenso informato specifico delle persone che sono esposte a tali tecniche o, se del caso, del loro tutore legale;

Emendamento 218

Proposta di regolamento

Articolo 5 — paragrafo 1 — lettera c — parte introduttiva

Testo della Commissione

Emendamento

c)

l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA da parte delle autorità pubbliche per loro conto ai fini della valutazione o della classificazione dell'affidabilità delle persone fisiche per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note o previste, in cui il punteggio sociale così ottenuto comporti il verificarsi di uno o di entrambi i seguenti scenari:

c)

l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA ai fini della valutazione o della classificazione del punteggio sociale di persone fisiche di un gruppo di persone fisiche per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note , dedotte o previste, in cui il punteggio sociale così ottenuto comporti il verificarsi di uno o di entrambi i seguenti scenari:

Emendamento 219

Proposta di regolamento

Articolo 5 — paragrafo 1 — lettera c — punto i

Testo della Commissione

Emendamento

i)

un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di interi gruppi di persone fisiche in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti;

i)

(Non concerne la versione italiana)

Emendamento 220

Proposta di regolamento

Articolo 5 — paragrafo 1 — lettera d — parte introduttiva

Testo della Commissione

Emendamento

d)

l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto, a meno che e nella misura in cui tale uso sia strettamente necessario per uno dei seguenti obiettivi:

d)

l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico;

Emendamento 221

Proposta di regolamento

Articolo 5 — paragrafo 1 — lettera d — punto i

Testo della Commissione

Emendamento

i)

la ricerca mirata di potenziali vittime specifiche di reato, compresi i minori scomparsi;

soppresso

Emendamento 222

Proposta di regolamento

Articolo 5 — paragrafo 1 — lettera d — punto ii

Testo della Commissione

Emendamento

ii)

la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l'incolumità fisica delle persone fisiche o di un attacco terroristico;

soppresso

Emendamento 223

Proposta di regolamento

Articolo 5 — paragrafo 1 — lettera d — punto iii

Testo della Commissione

Emendamento

iii)

il rilevamento, la localizzazione, l'identificazione o l'azione penale nei confronti di un autore o un sospettato di un reato di cui all'articolo 2, paragrafo 2, della decisione quadro 2002/584/GAI del Consiglio  (62) , punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno tre anni, come stabilito dalla legge di tale Stato membro.

soppresso

Emendamento 224

Proposta di regolamento

Articolo 5 — paragrafo 1 — lettera d bis (nuova)

Testo della Commissione

Emendamento

 

d bis)

l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA per effettuare valutazioni di rischio riguardo a persone fisiche o gruppi di persone fisiche al fine di valutare il rischio di reato o di recidiva di una persona fisica o per prevedere il verificarsi o il ripetersi di un reato o di un illecito amministrativo effettivo o potenziale sulla base della profilazione di una persona fisica o della valutazione dei tratti e delle caratteristiche della personalità, compresa l'ubicazione della persona, o del comportamento criminale pregresso di persone fisiche o di gruppi di persone fisiche;

Emendamento 225

Proposta di regolamento

Articolo 5 — paragrafo 1 — lettera d ter (nuova)

Testo della Commissione

Emendamento

 

d ter)

L'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA che creano o ampliano le banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso;

Emendamento 226

Proposta di regolamento

Articolo 5 — paragrafo 1 — lettera d quater (nuova)

Testo della Commissione

Emendamento

 

d quater)

l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA per dedurre le emozioni di una persona fisica nei settori dell'applicazione della legge, della gestione delle frontiere, sul luogo di lavoro e negli istituti di insegnamento.

Emendamento 227

Proposta di regolamento

Articolo 5 — paragrafo 1 — lettera d quinquies (nuova)

Testo della Commissione

Emendamento

 

d quinquies)

la messa in servizio o l'uso di sistemi di IA per l'analisi di filmati registrati di spazi accessibili al pubblico attraverso sistemi di identificazione biometrica remota «a posteriori», a meno che non siano soggetti a previa autorizzazione giudiziaria conformemente alla normativa dell'Unione e siano strettamente necessari per la ricerca mirata collegata a uno specifico reato grave quale definito all'articolo 83, paragrafo 1, TFUE, già avvenuto a fini di contrasto.

Emendamento 228

Proposta di regolamento

Articolo 5 — paragrafo 1 bis (nuovo)

Testo della Commissione

Emendamento

 

1 bis.     Il presente articolo lascia impregiudicati i divieti che si applicano qualora una pratica di intelligenza artificiale violi un altro atto legislativo dell'Unione, tra cui l'acquis dell'UE in materia di protezione dei dati, non discriminazione, tutela dei consumatori o concorrenza;

Emendamento 229

Proposta di regolamento

Articolo 5 — paragrafo 2

Testo della Commissione

Emendamento

2.     L'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto per uno qualsiasi degli obiettivi di cui al paragrafo 1, lettera d), tiene conto dei seguenti elementi:

soppresso

a)

la natura della situazione che dà luogo al possibile uso, in particolare la gravità, la probabilità e l'entità del danno causato dal mancato uso del sistema;

 

b)

le conseguenze dell'uso del sistema per i diritti e le libertà di tutte le persone interessate, in particolare la gravità, la probabilità e l'entità di tali conseguenze.

 

L'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto per uno qualsiasi degli obiettivi di cui al paragrafo 1, lettera d), rispetta inoltre le tutele e le condizioni necessarie e proporzionate in relazione all'uso, in particolare per quanto riguarda le limitazioni temporali, geografiche e personali.

 

Emendamento 230

Proposta di regolamento

Articolo 5 — paragrafo 3

Testo della Commissione

Emendamento

3.     Per quanto riguarda il paragrafo 1, lettera d), e il paragrafo 2, ogni singolo uso di un sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto è subordinato a un'autorizzazione preventiva rilasciata da un'autorità giudiziaria o da un'autorità amministrativa indipendente dello Stato membro in cui deve avvenire l'uso, rilasciata su richiesta motivata e in conformità alle regole dettagliate del diritto nazionale di cui al paragrafo 4. Tuttavia, in una situazione di urgenza debitamente giustificata, è possibile iniziare a usare il sistema senza autorizzazione e richiedere l'autorizzazione solo durante o dopo l'uso.

soppresso

L'autorità giudiziaria o amministrativa competente rilascia l'autorizzazione solo se ha accertato, sulla base di prove oggettive o indicazioni chiare che le sono state presentate, che l'uso del sistema di identificazione biometrica remota «in tempo reale» in questione è necessario e proporzionato al conseguimento di uno degli obiettivi di cui al paragrafo 1, lettera d), come indicato nella richiesta. Nel decidere in merito alla richiesta, l'autorità giudiziaria o amministrativa competente tiene conto degli elementi di cui al paragrafo 2.

 

Emendamento 231

Proposta di regolamento

Articolo 5 — paragrafo 4

Testo della Commissione

Emendamento

4.     Uno Stato membro può decidere di prevedere la possibilità di autorizzare in tutto o in parte l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto, entro i limiti e alle condizioni di cui al paragrafo 1, lettera d), e ai paragrafi 2 e 3. Tale Stato membro stabilisce nel proprio diritto nazionale le necessarie regole dettagliate per la richiesta, il rilascio, l'esercizio delle autorizzazioni di cui al paragrafo 3, nonché per le attività di controllo ad esse relative. Tali regole specificano inoltre per quali degli obiettivi elencati al paragrafo 1, lettera d), compresi i reati di cui al punto iii), le autorità competenti possono essere autorizzate ad utilizzare tali sistemi a fini di attività di contrasto.

soppresso

Emendamento 232

Proposta di regolamento

Articolo 6 — paragrafo 1 — lettera a

Testo della Commissione

Emendamento

a)

il sistema di IA è destinato a essere utilizzato come componente di sicurezza di un prodotto, o è esso stesso un prodotto, disciplinato dalla normativa di armonizzazione dell'Unione elencata nell'allegato II;

a)

il sistema di IA è destinato a essere utilizzato come componente di sicurezza di un prodotto, o  il sistema di IA è esso stesso un prodotto, disciplinato dalla normativa di armonizzazione dell'Unione elencata nell'allegato II;

Emendamento 233

Proposta di regolamento

Articolo 6 — paragrafo 1 — lettera b

Testo della Commissione

Emendamento

b)

il prodotto, il cui componente di sicurezza è il sistema di IA, o il sistema di IA stesso in quanto prodotto è soggetto a una valutazione della conformità da parte di terzi ai fini dell'immissione sul mercato o della messa in servizio di tale prodotto ai sensi della normativa di armonizzazione dell'Unione elencata nell'allegato II.

b)

il prodotto, il cui componente di sicurezza ai sensi della lettera a) è il sistema di IA, o il sistema di IA stesso in quanto prodotto è soggetto a una valutazione della conformità da parte di terzi in relazione ai rischi per la salute e la sicurezza ai fini dell'immissione sul mercato o della messa in servizio di tale prodotto ai sensi della normativa di armonizzazione dell'Unione elencata nell'allegato II;

Emendamento 234

Proposta di regolamento

Articolo 6 — paragrafo 2

Testo della Commissione

Emendamento

2.   Oltre ai sistemi di IA ad alto rischio di cui al paragrafo 1, sono considerati ad alto rischio anche i sistemi di IA di cui all'allegato III.

2.   Oltre ai sistemi di IA ad alto rischio di cui al paragrafo 1, sono considerati ad alto rischio i sistemi di IA che rientrano in uno o più settori critici e casi d'uso di cui all'allegato  III, se presentano un rischio significativo di danno per la salute umana, la sicurezza o i diritti fondamentali delle persone fisiche. Qualora un sistema di IA rientri nell'allegato III, punto 2, è considerato ad alto rischio se presenta un rischio significativo di danno per l'ambiente .

 

Sei mesi prima dell'entrata in vigore del presente regolamento, la Commissione, previa consultazione dell'ufficio per l'IA e dei pertinenti portatori di interessi, fornisce orientamenti che specificano chiaramente le circostanze in cui l'output dei sistemi di IA di cui all'allegato III comporterebbe un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche o i casi in cui non lo farebbe.

Emendamento 235

Proposta di regolamento

Articolo 6 — paragrafo 2 bis (nuovo)

Testo della Commissione

Emendamento

 

2 bis.     Se i fornitori che rientrano in uno o più dei settori critici e dei casi d'uso di cui all'allegato III ritengono che il loro sistema di IA non presenti un rischio significativo come descritto al paragrafo 2, essi presentano all'autorità nazionale di vigilanza una notifica motivata attestante che non sono soggetti ai requisiti di cui al titolo III, capo 2, del presente regolamento. Se il sistema di IA è destinato a essere utilizzato in due o più Stati membri, tale notifica è indirizzata all'ufficio per l'IA. Fatto salvo l'articolo 65, l'autorità nazionale di vigilanza esamina la notifica e vi risponde, direttamente o tramite l'ufficio per l'IA, entro tre mesi se ritiene che il sistema di IA sia classificato erroneamente.

Emendamento 236

Proposta di regolamento

Articolo 6 — paragrafo 2 ter (nuovo)

Testo della Commissione

Emendamento

 

2 ter.     I fornitori che classificano erroneamente il loro sistema di IA come non soggetto ai requisiti di cui al titolo III, capo 2, del presente regolamento e lo immettono sul mercato prima del termine per sollevare obiezioni da parte delle autorità nazionali di vigilanza sono soggetti a sanzioni pecuniarie a norma dell'articolo 71.

Emendamento 237

Proposta di regolamento

Articolo 6 — paragrafo 2 quater (nuovo)

Testo della Commissione

Emendamento

 

2 quater.     Le autorità nazionali di vigilanza presentano all'ufficio per l'IA una relazione annuale che illustra nel dettaglio il numero di notifiche ricevute, le relative aree ad alto rischio in questione e le decisioni adottate in merito alle notifiche ricevute.

Emendamento 238

Proposta di regolamento

Articolo 7 — paragrafo 1 — parte introduttiva

Testo della Commissione

Emendamento

1.   Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73 al fine di aggiornare l'elenco di cui all' allegato III aggiungendo sistemi di IA ad alto rischio se sono soddisfatte entrambe le condizioni seguenti:

1.   Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73 al fine di modificare l' allegato III, aggiungendo o modificando settori o casi d'uso di sistemi di IA ad alto rischio, se questi presentano un rischio di danno per la salute e la sicurezza, di un impatto negativo sui diritti fondamentali, sull'ambiente o sulla democrazia e sullo Stato di diritto e tale rischio è, in relazione alla sua gravità e alla probabilità di insorgenza, equivalente o superiore al rischio di danno o di impatto negativo presentato dai sistemi di IA ad alto rischio già indicati nell'allegato III.

Emendamento 239

Proposta di regolamento

Articolo 7 — paragrafo 1 — lettera a

Testo della Commissione

Emendamento

a)

i sistemi di IA sono destinati a essere usati in uno dei settori elencati ai punti da 1 a 8 dell'allegato III;

soppresso

Emendamento 240

Proposta di regolamento

Articolo 7 — paragrafo 1 — lettera b

Testo della Commissione

Emendamento

b)

i sistemi di IA presentano un rischio di danno per la salute e la sicurezza, o un rischio di impatto negativo sui diritti fondamentali, che è, in relazione alla sua gravità e alla probabilità che si verifichi, equivalente o superiore al rischio di danno o di impatto negativo presentato dai sistemi di IA ad alto rischio di cui all'allegato III.

soppresso

Emendamento 241

Proposta di regolamento

Articolo 7 — paragrafo 1 bis (nuovo)

Testo della Commissione

Emendamento

 

1 bis.     Alla Commissione è inoltre conferito il potere di adottare atti delegati conformemente all'articolo 73 al fine di rimuovere casi d'uso di sistemi di IA ad alto rischio dall'elenco di cui all'allegato III se non sussistono più le condizioni di cui al paragrafo 1;

Emendamento 242

Proposta di regolamento

Articolo 7 — paragrafo 2 — parte introduttiva

Testo della Commissione

Emendamento

2.   Nel valutare, ai fini del paragrafo 1 , se un sistema di IA presenti un rischio di danno per la salute la sicurezza o un rischio di impatto negativo sui diritti fondamentali equivalente o superiore al rischio di danno presentato dai sistemi di IA ad alto rischio di cui all'allegato III , la Commissione tiene conto dei criteri seguenti:

2.   Nel valutare, ai fini dei paragrafi 1 e  1 bis, un sistema di IA, la Commissione tiene conto dei criteri seguenti:

Emendamento 243

Proposta di regolamento

Articolo 7 — paragrafo 2 — lettera a bis (nuova)

Testo della Commissione

Emendamento

 

a bis)

le capacità e funzionalità generali del sistema di IA indipendentemente dalla sua finalità prevista;

Emendamento 244

Proposta di regolamento

Articolo 7 — paragrafo 2 — lettera b bis (nuova)

Testo della Commissione

Emendamento

 

b bis)

la natura e la quantità dei dati trattati e utilizzati dal sistema di IA;

Emendamento 245

Proposta di regolamento

Articolo 7 — paragrafo 2 — lettera b ter (nuova)

Testo della Commissione

Emendamento

 

b ter)

la misura in cui il sistema di IA agisce in modo autonomo;

Emendamento 246

Proposta di regolamento

Articolo 7 — paragrafo 2 — lettera c

Testo della Commissione

Emendamento

c)

la misura in cui l'uso di un sistema di IA ha già causato un danno alla salute e alla sicurezza o un impatto negativo sui diritti fondamentali o ha suscitato gravi preoccupazioni in relazione al verificarsi di tale danno o impatto negativo, come dimostrato da relazioni o da prove documentate presentate alle autorità nazionali competenti ;

c)

la misura in cui l'uso di un sistema di IA ha già causato un danno alla salute e alla sicurezza , ha avuto un impatto negativo sui diritti fondamentali , sull'ambiente, sulla democrazia e sullo Stato di diritto o ha suscitato gravi preoccupazioni in relazione alla probabilità di tale danno o impatto negativo, come dimostrato ad esempio da relazioni o da prove documentate presentate alle autorità nazionali di vigilanza, alla Commissione, all'ufficio per l'IA, al GEPD o all'Agenzia dell'Unione europea per i diritti fondamentali ;

Emendamento 247

Proposta di regolamento

Articolo 7 — paragrafo 2 — lettera d

Testo della Commissione

Emendamento

d)

la portata potenziale di tale danno o di tale impatto negativo, in particolare in termini di intensità e capacità di incidere su una pluralità di persone;

d)

la portata potenziale di tale danno o di tale impatto negativo, in particolare in termini di intensità e capacità di incidere su una pluralità di persone o di incidere in modo sproporzionato su un particolare gruppo di persone ;

Emendamento 248

Proposta di regolamento

Articolo 7 — paragrafo 2 — lettera e

Testo della Commissione

Emendamento

e)

la misura in cui le persone che potrebbero subire il danno o l'impatto negativo dipendono dal risultato prodotto da un sistema di IA, in particolare perché per motivi pratici o giuridici non è ragionevolmente possibile sottrarsi a tale risultato ;

e)

la misura in cui le persone che potrebbero subire il danno o l'impatto negativo dipendono dall'output prodotto coinvolgendo un sistema di IA, e tale output è puramente accessorio rispetto all'azione o alla decisione pertinente da adottare, in particolare perché per motivi pratici o giuridici non è ragionevolmente possibile sottrarsi a tale output ;

Emendamento 249

Proposta di regolamento

Articolo 7 — paragrafo 2 — lettera e bis (nuova)

Testo della Commissione

Emendamento

 

e bis)

il potenziale uso improprio e doloso del sistema di IA e della tecnologia alla base dello stesso;

Emendamento 250

Proposta di regolamento

Articolo 7 — paragrafo 2 — lettera f

Testo della Commissione

Emendamento

f)

la misura in cui le persone che potrebbero subire il danno o l'impatto negativo si trovano in una posizione vulnerabile rispetto all'utente di un sistema di IA, in particolare a causa di uno squilibrio di potere , conoscenza, situazione economica o sociale o età;

f)

la misura in cui esiste uno squilibrio di potere o le persone che potrebbero subire il danno o l'impatto negativo si trovano in una posizione vulnerabile rispetto all'utente di un sistema di IA, in particolare a causa della condizione, autorità , conoscenza, situazione economica o sociale o età;

Emendamento 251

Proposta di regolamento

Articolo 7 — paragrafo 2 — lettera g

Testo della Commissione

Emendamento

g)

la misura in cui il risultato prodotto con un sistema di IA è facilmente reversibile, considerando non facilmente reversibili i risultati che hanno un impatto sulla salute o sulla sicurezza delle persone;

g)

la misura in cui il risultato prodotto coinvolgendo un sistema di IA è facilmente reversibile o correggibile , considerando non facilmente reversibili i risultati che hanno un impatto nocivo sulla salute, sulla sicurezza , sui diritti fondamentali delle persone , sull'ambiente, o sulla democrazia e lo Stato di diritto ;

Emendamento 252

Proposta di regolamento

Articolo 7 — paragrafo 2 — lettera g bis (nuova)

Testo della Commissione

Emendamento

 

g bis)

l'entità della disponibilità e dell'uso di soluzioni e meccanismi tecnici efficaci per il controllo, l'affidabilità e la correggibilità del sistema di IA;

Emendamento 253

Proposta di regolamento

Articolo 7 — paragrafo 2 — lettera g ter (nuova)

Testo della Commissione

Emendamento

 

g ter)

l'entità e la probabilità di beneficio derivante dalla diffusione del sistema di IA per le persone, i gruppi o la società in generale, compresi i possibili miglioramenti della sicurezza del prodotto;

Emendamento 254

Proposta di regolamento

Articolo 7 — paragrafo 2 — lettera g quater (nuova)

Testo della Commissione

Emendamento

 

g quater)

l'entità della sorveglianza umana e la possibilità per un essere umano di intervenire al fine di annullare una decisione o raccomandazioni che possano causare un danno potenziale;

Emendamento 255

Proposta di regolamento

Articolo 7 — paragrafo 2 — lettera h

Testo della Commissione

Emendamento

i)

misure di ricorso efficaci in relazione ai rischi presentati da un sistema di IA, ad esclusione delle richieste di risarcimento del danno;

h)

la misura in cui la legislazione vigente dell'Unione prevede:

 

 

i)

misure di ricorso efficaci in relazione al danno causato da un sistema di IA, ad esclusione delle richieste di risarcimento del danno diretto o indiretto ;

 

 

ii)

misure efficaci per prevenire o ridurre sostanzialmente tali rischi.

Emendamento 256

Proposta di regolamento

Articolo 7 — paragrafo 2 bis (nuovo)

Testo della Commissione

Emendamento

 

2 bis.     Nel valutare un sistema di IA ai fini dei paragrafi 1 o 1 bis, la Commissione consulta l'ufficio per l'IA e, se del caso, i rappresentanti dei gruppi sui quali un sistema di IA ha un impatto, il settore, gli esperti indipendenti, le parti sociali e le organizzazioni della società civile. La Commissione organizza inoltre consultazioni pubbliche al riguardo e rende pubblici i risultati di tali consultazioni e della valutazione finale;

Emendamento 257

Proposta di regolamento

Articolo 7 — paragrafo 2 ter (nuovo)

Testo della Commissione

Emendamento

 

2 ter.     L'ufficio per l'IA, le autorità nazionali di controllo o il Parlamento europeo possono chiedere alla Commissione di rivalutare e riclassificare la categorizzazione del rischio di un sistema di IA conformemente ai paragrafi 1 e 1 bis. La Commissione motiva la sua decisione e pubblica i motivi.

Emendamento 258

Proposta di regolamento

Articolo 8 — paragrafo 1 bis (nuovo)

Testo della Commissione

Emendamento

 

1 bis.     Nel rispettare i requisiti stabiliti nel presente capo, si tiene debitamente conto degli orientamenti elaborati di cui all'articolo 82 ter e dello stato dell'arte generalmente riconosciuto, anche come indicato nelle pertinenti norme armonizzate e nelle specifiche comuni di cui agli articoli 40 e 41 o in quelle già stabilite nella normativa di armonizzazione dell'Unione.

Emendamento 259

Proposta di regolamento

Articolo 8 — paragrafo 2

Testo della Commissione

Emendamento

2.   Nel garantire conformità a tali requisiti si tiene conto della finalità prevista del sistema di IA ad alto rischio e del sistema di gestione dei rischi di cui all'articolo 9.

2.   Nel garantire conformità a tali requisiti si tiene conto della finalità prevista del sistema di IA ad alto rischio , degli usi impropri ragionevolmente prevedibili e del sistema di gestione dei rischi di cui all'articolo 9.

Emendamento 260

Proposta di regolamento

Articolo 8 — paragrafo 2 bis (nuovo)

Testo della Commissione

Emendamento

 

2 bis.     Purché i requisiti di cui al titolo III, capi 2 e 3, o al titolo VIII, capi 1, 2 e 3, per i sistemi di IA ad alto rischio siano contemplati dalla normativa di armonizzazione dell'Unione elencata nell'allegato II, sezione A, i requisiti o gli obblighi previsti nei suddetti capi del presente regolamento sono considerati soddisfatti, purché includano la componente di IA. I requisiti di cui al titolo III, capi 2 e 3, o al titolo VIII, capi 1, 2 e 3, per i sistemi di IA ad alto rischio non contemplati dalla normativa di armonizzazione dell'Unione elencata nell'allegato II, sezione A, sono integrati, se del caso, in tale normativa di armonizzazione dell'Unione. La pertinente valutazione della conformità è effettuata nell'ambito delle procedure stabilite conformemente alla normativa di armonizzazione dell'Unione elencata nell'allegato II, sezione A.

Emendamento 261

Proposta di regolamento

Articolo 9 — paragrafo 1

Testo della Commissione

Emendamento

1.   In relazione ai sistemi di IA ad alto rischio è istituito, attuato, documentato e mantenuto un sistema di gestione dei rischi.

1.   In relazione ai sistemi di IA ad alto rischio è istituito, attuato, documentato e mantenuto un sistema di gestione dei rischi nel corso dell'intero ciclo di vita del sistema di IA . È possibile integrare il sistema di gestione dei rischi, o una parte di esso, nelle procedure di gestione dei rischi già esistenti relative alla pertinente normativa settoriale dell'Unione, nella misura in cui ciò rispetti i requisiti del presente articolo.

Emendamento 262

Proposta di regolamento

Articolo 9 — paragrafo 2 — parte introduttiva

Testo della Commissione

Emendamento

2.   Il sistema di gestione dei rischi è costituito da un processo iterativo continuo eseguito nel corso dell'intero ciclo di vita di un sistema di IA ad alto rischio, che richiede un aggiornamento costante e sistematico . Esso comprende le fasi seguenti:

2.   Il sistema di gestione dei rischi è costituito da un processo iterativo continuo eseguito nel corso dell'intero ciclo di vita di un sistema di IA ad alto rischio, che richiede un riesame e un aggiornamento costanti del processo di gestione dei rischi, per garantirne l'efficacia costante, nonché la documentazione delle eventuali decisioni e azioni significative adottate a norma del presente articolo . Esso comprende le fasi seguenti:

Emendamento 263

Proposta di regolamento

Articolo 9 — paragrafo 2 — lettera a

Testo della Commissione

Emendamento

a)

identificazione e analisi dei rischi noti e prevedibili associati a ciascun sistema di IA ad alto rischio;

a)

identificazione , stima e valutazione dei rischi noti e  ragionevolmente prevedibili che il sistema di IA ad alto rischio può presentare per la salute o la sicurezza delle persone fisiche, i loro diritti fondamentali, tra cui la parità di accesso e opportunità, la democrazia e lo Stato di diritto o l'ambiente, quando il sistema di IA ad alto rischio è usato conformemente alla sua finalità prevista e in condizioni di uso improprio ragionevolmente prevedibile ;

Emendamento 264

Proposta di regolamento

Articolo 9 — paragrafo 2 — lettera b

Testo della Commissione

Emendamento

b)

stima e valutazione dei rischi che possono emergere quando il sistema di IA ad alto rischio è usato conformemente alla sua finalità prevista e in condizioni di uso improprio ragionevolmente prevedibile;

soppresso

Emendamento 265

Proposta di regolamento

Articolo 9 — paragrafo 2 — lettera c

Testo della Commissione

Emendamento

c)

valutazione di altri eventuali rischi derivanti dall' analisi dei dati raccolti dal sistema di monitoraggio successivo all'immissione sul mercato di cui all'articolo 61;

c)

valutazione dell'emergere di rischi significativi quali descritti alla lettera a) e individuati sulla base dell' analisi dei dati raccolti dal sistema di monitoraggio successivo all'immissione sul mercato di cui all'articolo 61;

Emendamento 266

Proposta di regolamento

Articolo 9 — paragrafo 2 — lettera d

Testo della Commissione

Emendamento

d)

adozione di adeguate misure di gestione dei rischi conformemente alle disposizioni dei paragrafi seguenti.

d)

adozione di misure di gestione dei rischi adeguate e mirate, concepite per far fronte ai rischi individuati di cui alle lettere a) e b) del presente paragrafo, conformemente alle disposizioni dei paragrafi seguenti.

Emendamento 267

Proposta di regolamento

Articolo 9 — paragrafo 3

Testo della Commissione

Emendamento

3.   Le misure di gestione dei rischi di cui al paragrafo 2, lettera d), tengono in debita considerazione gli effetti e le possibili interazioni derivanti dall'applicazione combinata dei requisiti di cui al presente capo 2 . Esse tengono conto dello stato dell'arte generalmente riconosciuto, anche come indicato nelle pertinenti norme armonizzate o specifiche comuni .

3.   Le misure di gestione dei rischi di cui al paragrafo 2, lettera d), tengono in debita considerazione gli effetti e le possibili interazioni derivanti dall'applicazione combinata dei requisiti di cui al presente capo 2 , con l'obiettivo di attenuare i rischi in modo efficace garantendo nel contempo un'attuazione adeguata e proporzionata dei requisiti .

Emendamento 268

Proposta di regolamento

Articolo 9 — paragrafo 4 — parte introduttiva

Testo della Commissione

Emendamento

4.   Le misure di gestione dei rischi di cui al paragrafo 2, lettera d), sono tali che qualsiasi rischio residuo associato a ciascun pericolo nonché il rischio residuo complessivo dei sistemi di IA ad alto rischio sono considerati accettabili, a condizione che il sistema di IA ad alto rischio sia usato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile. Tali rischi residui sono comunicati all' utente .

4.   Le misure di gestione dei rischi di cui al paragrafo 2, lettera d), sono tali che il rischio residuo significativo associato a ciascun pericolo nonché il rischio residuo complessivo dei sistemi di IA ad alto rischio sono ragionevolmente considerati accettabili, a condizione che il sistema di IA ad alto rischio sia usato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile. Tali rischi residui e i giudizi motivati formulati sono comunicati all' operatore .

 

Nell'individuare le misure di gestione dei rischi più appropriate, occorre garantire quanto segue:

Emendamento 269

Proposta di regolamento

Articolo 9 — paragrafo 4 — comma 1 — lettera a

Testo della Commissione

Emendamento

a)

l'eliminazione o la riduzione dei rischi per quanto possibile attraverso un'adeguata progettazione e fabbricazione;

a)

l'eliminazione o la riduzione dei rischi individuati, per quanto tecnicamente fattibile, attraverso un'adeguata progettazione e fabbricazione del sistema di IA ad alto rischio, se del caso con la partecipazione di esperti e portatori di interessi esterni ;

Emendamento 270

Proposta di regolamento

Articolo 9 — paragrafo 4 — comma 1 — lettera b

Testo della Commissione

Emendamento

b)

ove opportuno, l'attuazione di adeguate misure di attenuazione e di controllo in relazione ai rischi che non possono essere eliminati;

b)

ove opportuno, l'attuazione di adeguate misure di attenuazione e di controllo per far fronte ai rischi significativi che non possono essere eliminati;

Emendamento 271

Proposta di regolamento

Articolo 9 — paragrafo 4 — comma 1 — lettera c

Testo della Commissione

Emendamento

c)

la fornitura di informazioni adeguate a norma dell'articolo 13 , in particolare per quanto riguarda i rischi di cui al paragrafo 2, lettera b), del presente articolo e, ove opportuno, la formazione degli utenti .

c)

la fornitura delle informazioni richieste a norma dell'articolo 13 e, ove opportuno, la formazione degli operatori .

Emendamento 272

Proposta di regolamento

Articolo 9 — paragrafo 4 — comma 2

Testo della Commissione

Emendamento

Nell'eliminare o ridurre i rischi connessi all'uso del sistema di IA ad alto rischio, si tengono debitamente in considerazione le conoscenze tecniche, l'esperienza, l'istruzione e la formazione che ci si può aspettare dall'utente e l'ambiente in cui il sistema è destinato ad essere usato .

Nell'eliminare o ridurre i rischi connessi all'uso del sistema di IA ad alto rischio, i fornitori tengono debitamente in considerazione le conoscenze tecniche, l'esperienza, l'istruzione e la formazione di cui l'operatore può avere bisogno, anche in relazione al contesto di utilizzo presumibile .

Emendamento 273

Proposta di regolamento

Articolo 9 — paragrafo 5

Testo della Commissione

Emendamento

5.   I sistemi di IA ad alto rischio sono sottoposti a prova al fine di individuare le misure di gestione dei rischi più appropriate. Le prove garantiscono che i sistemi di IA ad alto rischio funzionino in modo coerente per la finalità prevista e che siano conformi ai requisiti di cui al presente capo.

5.   I sistemi di IA ad alto rischio sono sottoposti a prova al fine di individuare le misure di gestione dei rischi più appropriate e mirate, nonché di ponderare tali misure rispetto ai potenziali benefici e agli obiettivi previsti del sistema . Le prove garantiscono che i sistemi di IA ad alto rischio funzionino in modo coerente per la finalità prevista e che siano conformi ai requisiti di cui al presente capo.

Emendamento 274

Proposta di regolamento

Articolo 9 — paragrafo 6

Testo della Commissione

Emendamento

6.   Le procedure di prova sono idonee a conseguire la finalità prevista del sistema di IA e non devono andare al di là di quanto necessario per conseguire tale finalità .

6.   Le procedure di prova sono idonee a conseguire la finalità prevista del sistema di IA.

Emendamento 275

Proposta di regolamento

Articolo 9 — paragrafo 7

Testo della Commissione

Emendamento

7.   Le prove dei sistemi di IA ad alto rischio sono effettuate , a seconda dei casi, in un qualsiasi momento dell'intero processo di sviluppo e, in ogni caso, prima dell'immissione sul mercato o della messa in servizio. Le prove sono effettuate sulla base di metriche e soglie probabilistiche definite in via preliminare e adeguate alla finalità prevista perseguita dal sistema di IA ad alto rischio.

7.   Le prove dei sistemi di IA ad alto rischio sono effettuate prima dell'immissione sul mercato o della messa in servizio. Le prove sono effettuate sulla base di metriche e soglie probabilistiche definite in precedenza e adeguate alla finalità prevista perseguita dal sistema di IA ad alto rischio o al suo uso improprio ragionevolmente prevedibile .

Emendamento 276

Proposta di regolamento

Articolo 9 — paragrafo 8

Testo della Commissione

Emendamento

8.   Nell'attuare il sistema di gestione dei rischi di cui ai paragrafi da 1 a 7, è prestata particolare attenzione all'eventualità che il sistema di IA ad alto rischio sia accessibile ai minori o abbia un impatto su di essi .

8.   Nell'attuare il sistema di gestione dei rischi di cui ai paragrafi da 1 a 7, i fornitori prestano particolare attenzione all'eventualità che il sistema di IA ad alto rischio possa avere un impatto negativo sui gruppi di persone vulnerabili o sui minori.

Emendamento 277

Proposta di regolamento

Articolo 9 — paragrafo 9

Testo della Commissione

Emendamento

9.   Per gli enti creditizi disciplinati dalla direttiva 2013/36/UE, gli aspetti descritti ai paragrafi da 1 a 8 fanno parte delle procedure di gestione dei rischi stabilite da tali enti a norma dell'articolo 74 di tale direttiva .

9.   Per i fornitori e i sistemi di IA già contemplati dal diritto dell'Unione che impone loro di predisporre sistemi specifici di gestione dei rischi, compresi gli enti creditizi disciplinati dalla direttiva 2013/36/UE, gli aspetti descritti ai paragrafi da 1 a 8 fanno parte delle procedure di gestione dei rischi stabilite dal suddetto diritto dell'Unione, o sono combinati con tali procedure .

Emendamento 278

Proposta di regolamento

Articolo 10 — paragrafo 1

Testo della Commissione

Emendamento

1.   I sistemi di IA ad alto rischio che utilizzano tecniche che prevedono l'uso di dati per l'addestramento di modelli sono sviluppati sulla base di set di dati di addestramento, convalida e prova che soddisfano i criteri di qualità di cui ai paragrafi da 2 a 5.

1.   I sistemi di IA ad alto rischio che utilizzano tecniche che prevedono l'uso di dati per l'addestramento di modelli sono sviluppati sulla base di set di dati di addestramento, convalida e prova che soddisfano i criteri di qualità di cui ai paragrafi da 2 a 5 nella misura in cui ciò sia tecnicamente fattibile secondo lo specifico segmento di mercato o campo di applicazione .

 

Le tecniche che non richiedono dati di input etichettati, come l'apprendimento non supervisionato e l'apprendimento per rinforzo, sono sviluppate sulla base di set di dati, ad esempio per le prove e le verifiche, che soddisfano i criteri di qualità di cui ai paragrafi da 2 a 5.

Emendamento 279

Proposta di regolamento

Articolo 10 — paragrafo 2 — parte introduttiva

Testo della Commissione

Emendamento

2.   I set di dati di addestramento, convalida e prova sono soggetti ad adeguate pratiche di governance e gestione dei dati. Tali pratiche riguardano in particolare:

2.   I set di dati di addestramento, convalida e prova sono soggetti a misure di governance dei dati adeguate al contesto di utilizzo come pure alla finalità prevista del sistema di IA . Tali misure riguardano in particolare:

Emendamento 280

Proposta di regolamento

Articolo 10 — paragrafo 2 — lettera a bis (nuova)

Testo della Commissione

Emendamento

 

a bis)

la trasparenza riguardo alla finalità originaria della raccolta dei dati;

Emendamento 281

Proposta di regolamento

Articolo 10 — paragrafo 2 — lettera b

Testo della Commissione

Emendamento

b)

la raccolta dei dati;

b)

i processi di raccolta dei dati;

Emendamento 282

Proposta di regolamento

Articolo 10 — paragrafo 2 — lettera c

Testo della Commissione

Emendamento

c)

le operazioni di trattamento pertinenti ai fini della preparazione dei dati, quali annotazione, etichettatura, pulizia, arricchimento e aggregazione;

c)

le operazioni di trattamento ai fini della preparazione dei dati, quali annotazione, etichettatura, pulizia, aggiornamento, arricchimento e aggregazione;

Emendamento 283

Proposta di regolamento

Articolo 10 — paragrafo 2 — lettera d

Testo della Commissione

Emendamento

d)

la formulazione di ipotesi pertinenti , in particolare per quanto riguarda le informazioni che si presume che i dati misurino e rappresentino;

d)

la formulazione di ipotesi, in particolare per quanto riguarda le informazioni che si presume che i dati misurino e rappresentino;

Emendamento 284

Proposta di regolamento

Articolo 10 — paragrafo 2 — lettera e

Testo della Commissione

Emendamento

e)

una valutazione preliminare della disponibilità, della quantità e dell'adeguatezza dei set di dati necessari;

e)

una valutazione della disponibilità, della quantità e dell'adeguatezza dei set di dati necessari;

Emendamento 285

Proposta di regolamento

Articolo 10 — paragrafo 2 — lettera f

Testo della Commissione

Emendamento

f)

un esame atto a valutare le possibili distorsioni;

f)

un esame atto a valutare le possibili distorsioni che possono incidere sulla salute e sulla sicurezza delle persone, avere un impatto negativo sui diritti fondamentali o comportare discriminazioni vietate dal diritto dell'Unione, in particolare quando i dati di output influenzano gli input per operazioni future («circuiti di feedback», feedback loops), nonché misure adeguate per individuare, prevenire e attenuare le possibili distorsioni ;

Emendamento 286

Proposta di regolamento

Articolo 10 — paragrafo 2 — lettera f bis (nuova)

Testo della Commissione

Emendamento

 

f bis)

le misure adeguate per individuare, prevenire e attenuare le possibili distorsioni;

Emendamento 287

Proposta di regolamento

Articolo 10 — paragrafo 2 — lettera g

Testo della Commissione

Emendamento

g)

l'individuazione di eventuali lacune o carenze nei dati e il modo in cui tali lacune e carenze possono essere colmate.

g)

l'individuazione di lacune o carenze rilevanti nei dati , tali da pregiudicare il rispetto del presente regolamento, e il modo in cui tali lacune e carenze possono essere colmate.

Emendamento 288

Proposta di regolamento

Articolo 10 — paragrafo 3

Testo della Commissione

Emendamento

3.   I set di dati di addestramento, convalida e prova devono essere pertinenti, rappresentativi, esenti da errori e completi. Essi possiedono le proprietà statistiche appropriate, anche, ove applicabile, per quanto riguarda le persone o i gruppi di persone sui quali il sistema di IA ad alto rischio è destinato a essere usato. Queste caratteristiche dei set di dati possono essere soddisfatte a livello di singoli set di dati o di una combinazione degli stessi.

3.   I set di dati di addestramento e , ove applicabile, i set di dati di convalida e prova , incluse le etichette, devono essere pertinenti, sufficientemente rappresentativi, adeguatamente verificati in termini di errori e  il più possibile completi alla luce della finalità prevista . Essi possiedono le proprietà statistiche appropriate, anche, ove applicabile, per quanto riguarda le persone o i gruppi di persone in relazione ai quali il sistema di IA ad alto rischio è destinato a essere usato. Queste caratteristiche dei set di dati devono essere soddisfatte a livello di singoli set di dati o di una combinazione degli stessi.

Emendamento 289

Proposta di regolamento

Articolo 10 — paragrafo 4

Testo della Commissione

Emendamento

4.   I set di dati di addestramento, convalida e prova tengono conto, nella misura necessaria per la finalità prevista, delle caratteristiche o degli elementi particolari dello specifico contesto geografico, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere usato.

4.   I set di dati tengono conto, nella misura necessaria per la finalità prevista o per gli usi impropri ragionevolmente prevedibili del sistema di IA , delle caratteristiche o degli elementi particolari dello specifico contesto geografico, contestuale, culturale, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere usato.

Emendamento 290

Proposta di regolamento

Articolo 10 — paragrafo 5

Testo della Commissione

Emendamento

5.   Nella misura in cui ciò sia strettamente necessario al fine di garantire il monitoraggio, il rilevamento e la correzione delle distorsioni in relazione ai sistemi di IA ad alto rischio, i fornitori di tali sistemi possono trattare categorie particolari di dati personali di cui all'articolo 9, paragrafo 1, del regolamento (UE) 2016/679, all'articolo 10 della direttiva (UE) 2016/680 e all'articolo 10, paragrafo 1, del regolamento (UE) 2018/1725, fatte salve le tutele adeguate per i diritti e le libertà fondamentali delle persone fisiche, comprese le limitazioni tecniche all'utilizzo e al riutilizzo delle misure più avanzate di sicurezza e di tutela della vita privata , quali la pseudonimizzazione o la cifratura, qualora l'anonimizzazione possa incidere significativamente sulla finalità perseguita .

5.   Nella misura in cui ciò sia strettamente necessario al fine di garantire il rilevamento e la correzione delle distorsioni negative in relazione ai sistemi di IA ad alto rischio, i fornitori di tali sistemi possono trattare in via eccezionale categorie particolari di dati personali di cui all'articolo 9, paragrafo 1, del regolamento (UE) 2016/679, all'articolo 10 della direttiva (UE) 2016/680 e all'articolo 10, paragrafo 1, del regolamento (UE) 2018/1725, fatte salve le tutele adeguate per i diritti e le libertà fondamentali delle persone fisiche, comprese le limitazioni tecniche all'utilizzo e al riutilizzo delle misure più avanzate di sicurezza e di tutela della vita privata. In particolare, affinché tale trattamento si verifichi, devono essere soddisfatte tutte le condizioni seguenti:

a)

il rilevamento e la correzione delle distorsioni non possono essere realizzati efficacemente mediante il trattamento di dati sintetici o anonimizzati;

 

b)

i dati sono pseudonimizzati;

 

c)

il fornitore adotta misure tecniche e organizzative adeguate per garantire che i dati trattati ai fini del presente paragrafo siano resi sicuri e protetti nonché soggetti a garanzie adeguate e che solo le persone autorizzate abbiano accesso a tali dati nel rispetto di adeguati obblighi di riservatezza;

 

d)

i dati trattati ai fini del presente paragrafo non devono essere trasmessi, trasferiti o altrimenti consultati da terzi;

 

e)

i dati trattati ai fini del presente paragrafo sono protetti mediante adeguate misure tecniche e organizzative e cancellati una volta corretta la distorsione o al raggiungimento del termine del periodo di conservazione dei dati personali;

 

f)

sono in atto misure efficaci e adeguate per garantire la disponibilità, la sicurezza e la resilienza dei sistemi e dei servizi di trattamento da incidenti tecnici o fisici;

 

g)

sono in atto misure efficaci e adeguate per garantire la sicurezza fisica dei luoghi in cui i dati sono conservati e trattati, l'informatica interna e la gestione e governance della sicurezza informatica, nonché la certificazione dei processi e dei prodotti.

 

I fornitori che si avvalgono della presente disposizione redigono la documentazione che spiega i motivi per cui si è reso necessario il trattamento di categorie particolari di dati personali per rilevare e correggere le distorsioni .

Emendamento 291

Proposta di regolamento

Articolo 10 — paragrafo 6 bis (nuovo)

Testo della Commissione

Emendamento

 

6 bis.     Qualora il fornitore non sia in grado di rispettare gli obblighi di cui al presente articolo perché non ha accesso ai dati, i quali sono detenuti esclusivamente dall'operatore, quest'ultimo può, sulla base di un contratto, essere ritenuto responsabile dell'eventuale violazione del presente articolo.

Emendamento 292

Proposta di regolamento

Articolo 11 — paragrafo 1 — comma 1

Testo della Commissione

Emendamento

La documentazione tecnica è redatta in modo da dimostrare che il sistema di IA ad alto rischio è conforme ai requisiti di cui al presente capo e fornisce alle autorità nazionali competenti e agli organismi notificati tutte le informazioni necessarie per valutare la conformità del sistema di IA a tali requisiti. Essa contiene almeno gli elementi di cui all'allegato IV.

La documentazione tecnica è redatta in modo da dimostrare che il sistema di IA ad alto rischio è conforme ai requisiti di cui al presente capo e fornisce alle autorità nazionali di controllo e agli organismi notificati le informazioni necessarie per valutare la conformità del sistema di IA a tali requisiti. Essa contiene almeno gli elementi di cui all'allegato IV o, nel caso delle PMI e delle start-up, qualsiasi documentazione equivalente che soddisfi i medesimi obiettivi, previa approvazione dell'autorità nazionale competente .

Emendamento 293

Proposta di regolamento

Articolo 11 — paragrafo 2

Testo della Commissione

Emendamento

2.   Se è immesso sul mercato o messo in servizio un sistema di IA ad alto rischio connesso a un prodotto al quale si applicano gli atti giuridici elencati nell'allegato II, sezione A, si redige un'unica documentazione tecnica contenente tutte le informazioni di cui all'allegato IV e le informazioni necessarie a norma di tali atti giuridici.

2.   Se è immesso sul mercato o messo in servizio un sistema di IA ad alto rischio connesso a un prodotto al quale si applicano gli atti giuridici elencati nell'allegato II, sezione A, si redige un'unica documentazione tecnica contenente tutte le informazioni di cui al paragrafo 1 e le informazioni necessarie a norma di tali atti giuridici.

Emendamento 294

Proposta di regolamento

Articolo 11 — paragrafo 3 bis (nuovo)

Testo della Commissione

Emendamento

 

3 bis.     I fornitori che sono enti creditizi disciplinati dalla direttiva 2013/36/UE mantengono la documentazione tecnica nell'ambito della documentazione riguardante i dispositivi, i processi e i meccanismi di governance interna di cui all'articolo 74 di tale direttiva.

Emendamento 295

Proposta di regolamento

Articolo 12 — paragrafo 1

Testo della Commissione

Emendamento

1.   I sistemi di IA ad alto rischio sono progettati e sviluppati con capacità che consentono la registrazione automatica degli eventi («log») durante il loro funzionamento. Tali capacità di registrazione sono conformi a norme riconosciute o a specifiche comuni.

1.   I sistemi di IA ad alto rischio sono progettati e sviluppati con capacità che consentono la registrazione automatica degli eventi («log») durante il loro funzionamento. Tali capacità di registrazione sono conformi allo stato dell'arte e a norme riconosciute o a specifiche comuni.

Emendamento 296

Proposta di regolamento

Articolo 12 — paragrafo 2

Testo della Commissione

Emendamento

2.    Le capacità di registrazione garantiscono un livello di tracciabilità del funzionamento del sistema di IA durante tutto il suo ciclo di vita adeguato alla finalità prevista del sistema.

2.    Al fine di garantire un livello di tracciabilità del funzionamento del sistema di IA per la sua intera durata, adeguato alla finalità prevista del sistema , le capacità di registrazione agevolano il monitoraggio del funzionamento di cui all'articolo 29, paragrafo 4, come pure il monitoraggio successivo all'immissione sul mercato di cui all'articolo 61 . In particolare, esse consentono la registrazione di eventi pertinenti per l'individuazione di situazioni che possono:

 

a)

far sì che il sistema di IA presenti un rischio ai sensi dell'articolo 65, paragrafo 1; o

 

b)

comportare una modifica sostanziale del sistema di IA ad alto rischio.

Emendamento 297

Proposta di regolamento

Articolo 12 — paragrafo 2 bis (nuovo)

Testo della Commissione

Emendamento

 

2 bis.     I sistemi di IA ad alto rischio sono progettati e sviluppati con capacità di registrazione che consentono la registrazione del consumo di energia, la misurazione o il calcolo dell'uso delle risorse e l'impatto ambientale del sistema di IA ad alto rischio durante tutte le fasi del ciclo di vita del sistema.

Emendamento 298

Proposta di regolamento

Articolo 12 — paragrafo 3

Testo della Commissione

Emendamento

3.     Le capacità di registrazione consentono in particolare di monitorare il funzionamento del sistema di IA ad alto rischio per quanto riguarda il verificarsi di situazioni che possono far sì che il sistema di IA presenti un rischio ai sensi dell'articolo 65, paragrafo 1, o comportare una modifica sostanziale, e agevolano il monitoraggio successivo all'immissione sul mercato di cui all'articolo 61.

soppresso

Emendamento 299

Proposta di regolamento

Articolo 13 — titolo

Testo della Commissione

Emendamento

Trasparenza e fornitura di informazioni agli utenti

Trasparenza e fornitura di informazioni

Emendamento 300

Proposta di regolamento

Articolo 13 — paragrafo 1

Testo della Commissione

Emendamento

1.   I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l'output del sistema e utilizzarlo adeguatamente . Sono garantiti un tipo e un livello di trasparenza adeguati , che consentano di conseguire il rispetto dei pertinenti obblighi dell'utente e del fornitore di cui al capo 3 del presente titolo.

1.   I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire ai fornitori e agli utenti di comprendere ragionevolmente il funzionamento del sistema. È garantita una trasparenza adeguata in conformità della finalità prevista del sistema di IA , che consenta di conseguire il rispetto dei pertinenti obblighi del fornitore e dell'utente di cui al capo 3 del presente titolo.

 

Per trasparenza si intende pertanto che, al momento dell'immissione sul mercato del sistema di IA ad alto rischio, sono utilizzati tutti i mezzi tecnici disponibili conformemente allo stato dell'arte generalmente riconosciuto per garantire che l'output del sistema di IA sia interpretabile dal fornitore e dall'utente. L'utente è in grado di comprendere e utilizzare adeguatamente il sistema di IA avendo una conoscenza generale del funzionamento del sistema di IA e dei dati trattati, il che gli consente di spiegare le decisioni adottate dal sistema di IA alla persona interessata a norma dell'articolo 68, lettera c).

Emendamento 301

Proposta di regolamento

Articolo 13 — paragrafo 2

Testo della Commissione

Emendamento

2.   I sistemi di IA ad alto rischio sono accompagnati da istruzioni per l'uso in un formato digitale o  non digitale appropriato, che comprendono informazioni concise, complete, corrette chiare che siano pertinenti, accessibili e comprensibili per gli utenti.

2.   I sistemi di IA ad alto rischio sono accompagnati da istruzioni per l'uso comprensibili in un formato digitale appropriato o  rese altrimenti disponibili su un supporto durevole , che comprendono informazioni concise, corrette , chiare per quanto possibile complete che agevolino il funzionamento e la manutenzione del sistema di IA, sostengano il processo decisionale informato degli utenti e siano ragionevolmente pertinenti, accessibili e comprensibili per gli utenti.

Emendamento 302

Proposta di regolamento

Articolo 13 — paragrafo 3 — parte introduttiva

Testo della Commissione

Emendamento

3.   Le informazioni di cui al paragrafo 2 specificano:

3.    Per conseguire i risultati di cui al paragrafo 1, le informazioni di cui al paragrafo 2 specificano:

Emendamento 303

Proposta di regolamento

Articolo 13 — paragrafo 3 — lettera a

Testo della Commissione

Emendamento

a)

l'identità e i dati di contatto del fornitore e, ove applicabile, del suo rappresentante autorizzato ;

a)

l'identità e i dati di contatto del fornitore e, ove applicabile, dei suoi rappresentanti autorizzati ;

Emendamento 304

Proposta di regolamento

Articolo 13 — paragrafo 3 — lettera a bis (nuova)

Testo della Commissione

Emendamento

 

a bis)

laddove diversi da quelli del fornitore, l'identità e i dati di contatto dell'entità incaricata della valutazione della conformità e, se del caso, del suo rappresentante autorizzato;

Emendamento 305

Proposta di regolamento

Articolo 13 — paragrafo 3 — lettera d — parte introduttiva

Testo della Commissione

Emendamento

b)

le caratteristiche, le capacità e i limiti delle prestazioni del sistema di IA ad alto rischio, tra cui:

b)

le caratteristiche, le capacità e i limiti delle prestazioni del sistema di IA ad alto rischio, tra cui , se del caso :

Emendamento 306

Proposta di regolamento

Articolo 13 — paragrafo 3 — lettera b — punto ii

Testo della Commissione

Emendamento

ii)

il livello di accuratezza, robustezza e cibersicurezza di cui all'articolo 15 rispetto al quale il sistema di IA ad alto rischio è stato sottoposto a prova e convalidato e che ci si può attendere, e qualsiasi circostanza nota e prevedibile che possa avere un impatto sul livello atteso di accuratezza, robustezza e cibersicurezza;

ii)

il livello di accuratezza, robustezza e cibersicurezza di cui all'articolo 15 rispetto al quale il sistema di IA ad alto rischio è stato sottoposto a prova e convalidato e che ci si può attendere, e qualsiasi circostanza chiaramente nota e prevedibile che possa avere un impatto sul livello atteso di accuratezza, robustezza e cibersicurezza;

Emendamento 307

Proposta di regolamento

Articolo 13 — paragrafo 3 — lettera b — punto iii

Testo della Commissione

Emendamento

iii)

qualsiasi circostanza nota o prevedibile connessa all'uso del sistema di IA ad alto rischio in conformità alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, che possa comportare rischi per la salute e la sicurezza o per i diritti fondamentali;

iii)

qualsiasi circostanza chiaramente nota o prevedibile connessa all'uso del sistema di IA ad alto rischio in conformità alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, che possa comportare rischi per la salute e la sicurezza, per i diritti fondamentali o per l'ambiente, inclusi, se del caso, esempi illustrativi di tali limitazioni e di scenari nei quali il sistema non dovrebbe essere utilizzato ;

Emendamento 308

Proposta di regolamento

Articolo 13 — paragrafo 3 — lettera b — punto iii bis (nuovo)

Testo della Commissione

Emendamento

 

iii bis)

la misura in cui il sistema di IA è in grado di fornire spiegazioni per le decisioni che adotta;

Emendamento 309

Proposta di regolamento

Articolo 13 — paragrafo 3 — lettera b — punto v

Testo della Commissione

Emendamento

v)

ove opportuno, le specifiche per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova, tenendo conto della finalità prevista del sistema di IA;

v)

informazioni pertinenti sulle azioni dell'utente che possono influenzare le prestazioni del sistema, fra cui il tipo o la qualità dei dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova, tenendo conto della finalità prevista del sistema di IA;

Emendamento 310

Proposta di regolamento

Articolo 13 — paragrafo 3 — lettera e

Testo della Commissione

Emendamento

e)

la durata prevista del sistema di IA ad alto rischio e tutte le misure di manutenzione e cura necessarie per garantire il corretto funzionamento di tale sistema, anche per quanto riguarda gli aggiornamenti software.

e)

tutte le misure di manutenzione e cura necessarie per garantire il corretto funzionamento di tale sistema, anche per quanto riguarda gli aggiornamenti software , per tutta la durata prevista dello stesso .

Emendamento 311

Proposta di regolamento

Articolo 13 — paragrafo 3 — lettera e bis (nuova)

Testo della Commissione

Emendamento

 

e bis)

una descrizione dei meccanismi inclusi nel sistema di IA che consentono agli utenti di raccogliere, conservare e interpretare correttamente i log conformemente all'articolo 12, paragrafo 1.

Emendamento 312

Proposta di regolamento

Articolo 13 — paragrafo 3 — lettera e ter (nuova)

Testo della Commissione

Emendamento

 

e ter)

Le informazioni sono fornite almeno nella lingua del paese in cui è utilizzato il sistema di IA.

Emendamento 313

Proposta di regolamento

Articolo 13 — paragrafo 3 bis (nuovo)

Testo della Commissione

Emendamento

 

3 bis.     Al fine di rispettare gli obblighi di cui al presente articolo, i fornitori e gli utenti garantiscono un livello sufficiente di alfabetizzazione in materia di IA conformemente all'articolo 4 ter.

Emendamento 314

Proposta di regolamento

Articolo 14 — paragrafo 1

Testo della Commissione

Emendamento

1.   I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui il sistema di IA è in uso.

1.   I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da essere efficacemente supervisionati da persone fisiche in misura proporzionale ai rischi associati a tali sistemi. Le persone fisiche incaricate di garantire la sorveglianza umana dispongono di un livello sufficiente di alfabetizzazione in materia di IA conformemente all'articolo 4 ter nonché del sostegno e dell'autorità necessari per esercitare tale funzione, durante il periodo in cui il sistema di IA è in uso e per consentire indagini approfondite a seguito di un incidente .

Emendamento 315

Proposta di regolamento

Articolo 14 — paragrafo 2

Testo della Commissione

Emendamento

2.   La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, in particolare quando tali rischi persistono nonostante l'applicazione di altri requisiti di cui al presente capo.

2.   La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza, i diritti fondamentali o l'ambiente che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, in particolare quando tali rischi persistono nonostante l'applicazione di altri requisiti di cui al presente capo e qualora le decisioni basate unicamente su un trattamento automatizzato da parte di sistemi di IA producano effetti giuridici o altrimenti significativi sulle persone o sui gruppi di persone sui quali il sistema deve essere utilizzato .

Emendamento 316

Proposta di regolamento

Articolo 14 — paragrafo 3 — parte introduttiva

Testo della Commissione

Emendamento

3.   La sorveglianza umana è garantita mediante almeno una delle seguenti misure:

3.   La sorveglianza umana tiene conto dei rischi specifici, del livello di automazione e del contesto del sistema di IA ed è garantita mediante almeno una delle seguenti tipologie di misure:

Emendamento 317

Proposta di regolamento

Articolo 14 — paragrafo 4 — parte introduttiva

Testo della Commissione

Emendamento

4.    Le misure di cui al paragrafo 3 consentono le seguenti azioni, a seconda delle circostanze, alle persone alle quali è affidata la sorveglianza umana:

4.    Ai fini dell'attuazione dei paragrafi da 1 a 3, il sistema di IA ad alto rischio è fornito all'utente in modo tale che le persone fisiche alle quali è affidata la sorveglianza umana abbiano la possibilità di svolgere le seguenti azioni, ove opportuno e proporzionato alle circostanze :

Emendamento 318

Proposta di regolamento

Articolo 14 — paragrafo 4 — lettera a

Testo della Commissione

Emendamento

a)

comprendere appieno le capacità e  i limiti del sistema di IA ad alto rischio ed essere in grado di monitorarne debitamente il funzionamento, in modo che i segnali di anomalie, disfunzioni e prestazioni inattese possano essere individuati e affrontati quanto prima;

a)

essere consapevole delle capacità e  dei limiti pertinenti del sistema di IA ad alto rischio e comprenderli a sufficienza, nonché essere in grado di monitorarne debitamente il funzionamento, in modo che i segnali di anomalie, disfunzioni e prestazioni inattese possano essere individuati e affrontati quanto prima;

Emendamento 319

Proposta di regolamento

Articolo 14 — paragrafo 4 — lettera e

Testo della Commissione

Emendamento

e)

essere in grado di intervenire sul funzionamento del sistema di IA ad alto rischio o di interrompere il sistema mediante un pulsante di «arresto» o una procedura analoga.

e)

essere in grado di intervenire sul funzionamento del sistema di IA ad alto rischio o di interrompere il sistema mediante un pulsante di «arresto» o una procedura analoga , che consenta di arrestare il sistema in condizioni di sicurezza, tranne se l'interferenza umana aumenta i rischi o è suscettibile di incidere negativamente sulle prestazioni in considerazione dello stato dell'arte generalmente riconosciuto .

Emendamento 320

Proposta di regolamento

Articolo 14 — paragrafo 5

Testo della Commissione

Emendamento

5.   Per i sistemi di IA ad alto rischio di cui all'allegato III, punto 1, lettera a), le misure di cui al paragrafo 3 sono tali da garantire che, inoltre, l'utente non compia azioni o adotti decisioni sulla base dell'identificazione risultante dal sistema, a meno che essa non sia stata verificata e confermata da almeno due persone fisiche.

5.   Per i sistemi di IA ad alto rischio di cui all'allegato III, punto 1, lettera a), le misure di cui al paragrafo 3 sono tali da garantire che, inoltre, l'utente non compia azioni o adotti decisioni sulla base dell'identificazione risultante dal sistema, a meno che essa non sia stata verificata e confermata da almeno due persone fisiche che dispongono delle competenze, della formazione e dell'autorità necessarie .

Emendamento 321

Proposta di regolamento

Articolo 15 — paragrafo 1

Testo della Commissione

Emendamento

1.   I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da conseguire, alla luce della loro finalità prevista, un adeguato livello di accuratezza, robustezza e cibersicurezza e  da operare in modo coerente con tali aspetti durante tutto il loro ciclo di vita.

1.   I sistemi di IA ad alto rischio sono progettati e sviluppati secondo il principio della sicurezza fin dalla progettazione e per impostazione predefinita. Alla luce della loro finalità prevista, dovrebbero conseguire un adeguato livello di accuratezza, robustezza , sicurezza, e cibersicurezza e operare in modo coerente con tali aspetti durante tutto il loro ciclo di vita. Il rispetto di tali requisiti include l'attuazione di misure conformi allo stato dell'arte, secondo lo specifico segmento di mercato o campo di applicazione.

Emendamento 322

Proposta di regolamento

Articolo 15 — paragrafo 1 bis (nuovo)

Testo della Commissione

Emendamento

 

1 bis.     Per affrontare gli aspetti tecnici relativi alle modalità di misurazione dei livelli adeguati di accuratezza e robustezza di cui al paragrafo 1 del presente articolo, l'ufficio per l'IA riunisce le autorità nazionali di metrologia e analisi comparativa e fornisce orientamenti non vincolanti in materia, come stabilito all'articolo 56, paragrafo 2, lettera a).

Emendamento 323

Proposta di regolamento

Articolo 15 — paragrafo 1 ter (nuovo)

Testo della Commissione

Emendamento

 

1 ter.     Per affrontare eventuali questioni emergenti nel mercato interno per quanto riguarda la cibersicurezza, l'Agenzia dell'Unione europea per la cibersicurezza (ENISA) è associata al comitato europeo per l'intelligenza artificiale di cui all'articolo 56, paragrafo 2, lettera b).

Emendamento 324

Proposta di regolamento

Articolo 15 — paragrafo 2

Testo della Commissione

Emendamento

2.   I livelli di accuratezza e le pertinenti metriche di accuratezza dei sistemi di IA ad alto rischio sono dichiarati nelle istruzioni per l'uso che accompagnano il sistema.

2.   I livelli di accuratezza e le pertinenti metriche di accuratezza dei sistemi di IA ad alto rischio sono dichiarati nelle istruzioni per l'uso che accompagnano il sistema. Il linguaggio utilizzato è chiaro, privo di malintesi o di affermazioni fuorvianti.

Emendamento 325

Proposta di regolamento

Articolo 15 — paragrafo 3 — comma 1

Testo della Commissione

Emendamento

I sistemi di IA ad alto rischio sono resilienti per quanto riguarda errori, guasti o incongruenze che possono verificarsi all'interno del sistema o nell'ambiente in cui esso opera, in particolare a causa della loro interazione con persone fisiche o altri sistemi.

Sono adottate misure tecniche e organizzative per garantire che i sistemi di IA ad alto rischio siano quanto più possibile resilienti per quanto riguarda errori, guasti o incongruenze che possono verificarsi all'interno del sistema o nell'ambiente in cui esso opera, in particolare a causa della loro interazione con persone fisiche o altri sistemi.

Emendamento 326

Proposta di regolamento

Articolo 15 — paragrafo 3 — comma 2

Testo della Commissione

Emendamento

La robustezza dei sistemi di IA ad alto rischio può essere conseguita mediante soluzioni tecniche di ridondanza, che possono includere piani di backup o fail-safe.

La robustezza dei sistemi di IA ad alto rischio può essere conseguita dal fornitore appropriato attraverso gli input dell'utente, ove necessario, mediante soluzioni tecniche di ridondanza, che possono includere piani di backup o fail-safe.

Emendamento 327

Proposta di regolamento

Articolo 15 — paragrafo 3 — comma 3

Testo della Commissione

Emendamento

I sistemi di IA ad alto rischio che proseguono il loro apprendimento dopo essere stati immessi sul mercato o messi in servizio sono sviluppati in modo tale da garantire che gli output potenzialmente distorti a causa dell'utilizzo di output come input per operazioni future («circuiti di feedback», feedback loops) siano oggetto di adeguate misure di attenuazione.

I sistemi di IA ad alto rischio che proseguono il loro apprendimento dopo essere stati immessi sul mercato o messi in servizio sono sviluppati in modo tale da garantire che gli output potenzialmente distorti che influenzano gli input per operazioni future («circuiti di feedback», feedback loops) e la manipolazione dannosa degli input utilizzati nell'apprendimento durante il funzionamento siano oggetto di adeguate misure di attenuazione.

Emendamento 328

Proposta di regolamento

Articolo 15 — paragrafo 4 — comma 1

Testo della Commissione

Emendamento

I sistemi di IA ad alto rischio sono resilienti ai tentativi di terzi non autorizzati di modificarne l'uso o le prestazioni sfruttando le vulnerabilità del sistema.

I sistemi di IA ad alto rischio sono resilienti ai tentativi di terzi non autorizzati di modificarne l'uso , il comportamento, gli output o le prestazioni sfruttando le vulnerabilità del sistema.

Emendamento 329

Proposta di regolamento

Articolo 15 — paragrafo 4 — comma 3

Testo della Commissione

Emendamento

Le soluzioni tecniche finalizzate ad affrontare le vulnerabilità specifiche dell'IA includono, ove opportuno, misure volte a prevenire e controllare gli attacchi che cercano di manipolare il set di dati di addestramento («avvelenamento dei dati», data poisoning), gli input progettati in modo da far sì che il modello commetta un errore («esempi antagonistici», adversarial examples) o i difetti del modello.

Le soluzioni tecniche finalizzate ad affrontare le vulnerabilità specifiche dell'IA includono, ove opportuno, misure volte a prevenire , accertare, rispondere, risolvere e controllare gli attacchi che cercano di manipolare il set di dati di addestramento («avvelenamento dei dati», data poisoning) o i componenti preaddestrati utilizzati nell'addestramento («avvelenamento dei modelli», model poisoning) , gli input progettati in modo da far sì che il modello commetta un errore («esempi antagonistici», adversarial examples o «evasione dal modello», model evasion ) , gli attacchi alla riservatezza o i difetti del modello , che potrebbero condurre a decisioni dannose .

Emendamento 330

Proposta di regolamento

Titolo III — Capo 3 — titolo

Testo della Commissione

Emendamento

OBBLIGHI DEI FORNITORI E DEGLI UTENTI DEI SISTEMI DI IA AD ALTO RISCHIO e di altre parti

OBBLIGHI DEI FORNITORI E DEGLI OPERATORI DEI SISTEMI DI IA AD ALTO RISCHIO E DI ALTRE PARTI

Emendamento 331

Proposta di regolamento

Articolo 16 — titolo

Testo della Commissione

Emendamento

Obblighi dei fornitori dei sistemi di IA ad alto rischio

Obblighi dei fornitori e degli operatori dei sistemi di IA ad alto rischio e di altre parti

Emendamento 332

Proposta di regolamento

Articolo 16 — paragrafo 1 — lettera a

Testo della Commissione

Emendamento

a)

garantiscono che i loro sistemi di IA ad alto rischio siano conformi ai requisiti di cui al capo 2 del presente titolo;

a)

garantiscono che i loro sistemi di IA ad alto rischio siano conformi ai requisiti di cui al capo 2 del presente titolo prima di immetterli sul mercato o metterli in servizio ;

Emendamento 333

Proposta di regolamento

Articolo 16 — paragrafo 1 — lettera a bis (nuova)

Testo della Commissione

Emendamento

 

a bis)

indicano il loro nome, la loro denominazione commerciale registrata o il loro marchio registrato e il loro indirizzo e i loro dati di contatto sul sistema di IA ad alto rischio oppure, ove ciò non sia possibile, in un documento di accompagnamento, a seconda dei casi;

Emendamento 334

Proposta di regolamento

Articolo 16 — paragrafo 1 — lettera a ter (nuova)

Testo della Commissione

Emendamento

 

a ter)

garantiscono che le persone fisiche alle quali è affidata la sorveglianza umana dei sistemi di IA ad alto rischio siano specificamente informate del rischio di distorsioni dell'automazione o di pregiudizio di conferma (confirmation bias);

Emendamento 335

Proposta di regolamento

Articolo 16 — paragrafo 1 — lettera a quater (nuova)

Testo della Commissione

Emendamento

 

a quater)

forniscono le specifiche per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati utilizzati, compresi i relativi limiti e le relative ipotesi, tenendo conto della finalità prevista e degli usi impropri prevedibili e ragionevolmente prevedibili del sistema di IA;

Emendamento 336

Proposta di regolamento

Articolo 16 — paragrafo 1 — lettera c

Testo della Commissione

Emendamento

c)

redigono la documentazione tecnica del sistema di IA ad alto rischio;

c)

redigono e mantengono la documentazione tecnica del sistema di IA ad alto rischio di cui all'articolo 11 ;

Emendamento 337

Proposta di regolamento

Articolo 16 — paragrafo 1 — lettera d

Testo della Commissione

Emendamento

d)

quando sono sotto il loro controllo, conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio;

d)

quando sono sotto il loro controllo, conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio che sono necessari per garantire e dimostrare la conformità al presente regolamento, conformemente all'articolo 20;

Emendamento 338

Proposta di regolamento

Articolo 16 — paragrafo 1 — lettera e

Testo della Commissione

Emendamento

e)

garantiscono che il sistema di IA ad alto rischio sia sottoposto alla pertinente procedura di valutazione della conformità prima della sua immissione sul mercato o messa in servizio;

e)

garantiscono che il sistema di IA ad alto rischio sia sottoposto alla pertinente procedura di valutazione della conformità prima della sua immissione sul mercato o messa in servizio , conformemente all'articolo 43 ;

Emendamento 339

Proposta di regolamento

Articolo 16 — paragrafo 1 — lettera e bis (nuova)

Testo della Commissione

Emendamento

 

e bis)

elaborano una dichiarazione di conformità UE a norma dell'articolo 48;

Emendamento 340

Proposta di regolamento

Articolo 16 — paragrafo 1 — lettera e ter (nuova)

Testo della Commissione

Emendamento

 

e ter)

appongono la marcatura CE sul sistema di IA ad alto rischio per indicare la conformità al presente regolamento a norma dell'articolo 49;

Emendamento 341

Proposta di regolamento

Articolo 16 — paragrafo 1 — lettera g

Testo della Commissione

Emendamento

g)

adottano le necessarie misure correttive , se il sistema di IA ad alto rischio non è conforme ai requisiti di cui al capo 2 del presente titolo ;

g)

adottano le necessarie misure correttive di cui all'articolo 21 e forniscono informazioni al riguardo ;

Emendamento 342

Proposta di regolamento

Articolo 16 — paragrafo 1 — lettera h

Testo della Commissione

Emendamento

h)

informano le autorità nazionali competenti degli Stati membri in cui hanno messo a disposizione o messo in servizio il sistema di IA e, ove applicabile, l'organismo notificato in merito alla non conformità e alle eventuali misure correttive adottate;

soppresso

Emendamento 343

Proposta di regolamento

Articolo 16 — paragrafo 1 — lettera i

Testo della Commissione

Emendamento

i)

appongono la marcatura CE sui loro sistemi di IA ad alto rischio per indicare la conformità al presente regolamento a norma dell'articolo 49;

soppresso

Emendamento 344

Proposta di regolamento

Articolo 16 — paragrafo 1 — lettera j

Testo della Commissione

Emendamento

j)

su richiesta di un'autorità nazionale competente , dimostrano la conformità del sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo.

j)

su richiesta motivata di un'autorità nazionale di controllo , dimostrano la conformità del sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo.

Emendamento 345

Proposta di regolamento

Articolo 16 — paragrafo 1 — lettera j bis (nuova)

Testo della Commissione

Emendamento

 

j bis)

garantiscono che il sistema di IA ad alto rischio sia conforme ai requisiti di accessibilità.

Emendamento 346

Proposta di regolamento

Articolo 17 — paragrafo 1 — parte introduttiva

Testo della Commissione

Emendamento

1.   I fornitori di sistemi di IA ad alto rischio istituiscono di un sistema di gestione della qualità che garantisce la conformità al presente regolamento. Tale sistema è documentato in modo sistematico e ordinato sotto forma di politiche, procedure e istruzioni scritte e comprende almeno i seguenti aspetti:

1.   I fornitori di sistemi di IA ad alto rischio predispongono un sistema di gestione della qualità che garantisce la conformità al presente regolamento. Esso è documentato in modo sistematico e ordinato sotto forma di politiche, procedure o istruzioni scritte e  può essere integrato all'interno di un sistema di gestione della qualità esistente conformemente agli atti legislativi dell'Unione. Esso comprende almeno i seguenti aspetti:

Emendamento 347

Proposta di regolamento

Articolo 17 — paragrafo 1 — lettera a

Testo della Commissione

Emendamento

a)

una strategia per la conformità normativa, compresa la conformità alle procedure di valutazione della conformità e alle procedure per la gestione delle modifiche dei sistemi di IA ad alto rischio;

soppresso

Emendamento 348

Proposta di regolamento

Articolo 17 — paragrafo 1 — lettera e

Testo della Commissione

Emendamento

e)

le specifiche tecniche, comprese le norme, da applicare e, qualora le pertinenti norme armonizzate non siano applicate integralmente, i mezzi da usare per garantire che il sistema di IA ad alto rischio sia conforme ai requisiti di cui al capo 2 del presente titolo;

e)

le specifiche tecniche, comprese le norme, da applicare e, qualora le pertinenti norme armonizzate non siano applicate integralmente, o non includano tutti i requisiti pertinenti, i mezzi da usare per garantire che il sistema di IA ad alto rischio sia conforme ai requisiti di cui al capo 2 del presente titolo;

Emendamento 349

Proposta di regolamento

Articolo 17 — paragrafo 1 — lettera f

Testo della Commissione

Emendamento

f)

i sistemi e le procedure per la gestione dei dati, compresa la raccolta, l'analisi, l'etichettatura, l'archiviazione, la filtrazione, l'estrazione, l'aggregazione, la conservazione dei dati e qualsiasi altra operazione riguardante i dati effettuata prima e ai fini dell'immissione sul mercato o della messa in servizio di sistemi di IA ad alto rischio;

f)

i sistemi e le procedure per la gestione dei dati, compresa l'acquisizione, la raccolta, l'analisi, l'etichettatura, l'archiviazione, la filtrazione, l'estrazione, l'aggregazione, la conservazione dei dati e qualsiasi altra operazione riguardante i dati effettuata prima e ai fini dell'immissione sul mercato o della messa in servizio di sistemi di IA ad alto rischio;

Emendamento 350

Proposta di regolamento

Articolo 17 — paragrafo 1 — lettera j

Testo della Commissione

Emendamento

j)

la gestione della comunicazione con le autorità nazionali competenti, le autorità competenti, comprese quelle settoriali , che forniscono o sostengono l'accesso ai dati, gli organismi notificati, altri operatori, clienti o altre parti interessate ;

j)

la gestione della comunicazione con le autorità competenti interessate , comprese quelle settoriali;

Emendamento 351

Proposta di regolamento

Articolo 17 — paragrafo 2

Testo della Commissione

Emendamento

2.   L'attuazione degli aspetti di cui al paragrafo 1 è proporzionata alle dimensioni dell'organizzazione del fornitore.

2.   L'attuazione degli aspetti di cui al paragrafo 1 è proporzionata alle dimensioni dell'organizzazione del fornitore. I fornitori rispettano, in ogni caso, il grado di rigore e il livello di protezione necessari per garantire la conformità dei loro sistemi di IA al presente regolamento.

Emendamento 352

Proposta di regolamento

Articolo 18 — titolo

Testo della Commissione

Emendamento

Obbligo di redigere la documentazione tecnica

soppresso

Emendamento 353

Proposta di regolamento

Articolo 18 — paragrafo 1

Testo della Commissione

Emendamento

1.     I fornitori di sistemi di IA ad alto rischio redigono la documentazione tecnica di cui all'articolo 11 in conformità all'allegato IV.

soppresso

Emendamento 354

Proposta di regolamento

Articolo 18 — paragrafo 2

Testo della Commissione

Emendamento

2.     I fornitori che sono enti creditizi disciplinati dalla direttiva 2013/36/UE mantengono la documentazione tecnica nell'ambito della documentazione riguardante i dispositivi, i processi e i meccanismi di governance interna di cui all'articolo 74 di tale direttiva.

soppresso

Emendamento 355

Proposta di regolamento

Articolo 19

Testo della Commissione

Emendamento

Articolo 19

soppresso

Valutazione della conformità

 

1.     I fornitori dei sistemi di IA ad alto rischio garantiscono che il sistema di IA ad alto rischio sia sottoposto alla pertinente procedura di valutazione della conformità di cui all'articolo 43 prima della sua immissione sul mercato o messa in servizio. Se in seguito a tale valutazione i sistemi di IA risultano conformi ai requisiti di cui al capo 2 del presente titolo, i fornitori redigono una dichiarazione di conformità UE a norma dell'articolo 48 e appongono la marcatura CE di conformità a norma dell'articolo 49.

 

2.     Per i sistemi di IA ad alto rischio di cui all'allegato III, punto 5, lettera b), immessi sul mercato o messi in servizio da fornitori che sono enti creditizi disciplinati dalla direttiva 2013/36/UE, la valutazione della conformità è effettuata nell'ambito della procedura di cui agli articoli da 97 a 101 di tale direttiva.

 

Emendamento 356

Proposta di regolamento

Articolo 20 — paragrafo 1

Testo della Commissione

Emendamento

1.   I fornitori di sistemi di IA ad alto rischio conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo in virtù di un accordo contrattuale con l'utente o in forza di legge . I log sono conservati per un periodo adeguato alla luce della finalità prevista del sistema di IA ad alto rischio e degli obblighi giuridici applicabili a norma del diritto dell'Unione o nazionale .

1.   I fornitori di sistemi di IA ad alto rischio conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo. Fatto salvo il diritto dell'Unione o nazionale applicabile, i log sono conservati per un periodo minimo di sei mesi. Il periodo di conservazione è conforme alle norme del settore e adeguato alla finalità prevista del sistema di IA ad alto rischio.

Emendamento 357

Proposta di regolamento

Articolo 21 — comma 1

Testo della Commissione

Emendamento

I fornitori di sistemi di IA ad alto rischio che ritengono o hanno motivo di ritenere che un sistema di IA ad alto rischio da essi immesso sul mercato o messo in servizio non sia conforme al presente regolamento adottano immediatamente le misure correttive necessarie per rendere conforme tale dispositivo, ritirarlo o richiamarlo, a seconda dei casi. Essi informano di conseguenza i distributori del sistema di IA ad alto rischio in questione e, ove applicabile, il rappresentante autorizzato e gli importatori.

I fornitori di sistemi di IA ad alto rischio che ritengono o hanno motivo di ritenere che un sistema di IA ad alto rischio da essi immesso sul mercato o messo in servizio non sia conforme al presente regolamento adottano immediatamente le misure correttive necessarie per rendere conforme tale dispositivo, ritirarlo , disattivarlo o richiamarlo, a seconda dei casi.

 

Nei casi di cui al primo comma, i fornitori informano immediatamente:

 

a)

i distributori;

 

b)

gli importatori;

 

c)

le autorità nazionali competenti degli Stati membri in cui hanno messo a disposizione o messo in servizio il sistema di IA; nonché

 

d)

ove possibile, l'operatore.

Emendamento 358

Proposta di regolamento

Articolo 21 — comma 1 bis (nuovo)

Testo della Commissione

Emendamento

 

I fornitori informano inoltre il rappresentante autorizzato, se ne è stato nominato uno a norma dell'articolo 25, e l'organismo notificato, se è stato necessario sottoporre il sistema di IA ad alto rischio a una valutazione della conformità da parte di terzi a norma dell'articolo 43. Se del caso, indagano anche sulle cause in collaborazione con l'operatore.

Emendamento 359

Proposta di regolamento

Articolo 22 — comma 1

Testo della Commissione

Emendamento

Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 65, paragrafo 1, e  tale rischio sia noto al fornitore del sistema, tale fornitore informa immediatamente le autorità nazionali competenti degli Stati membri in cui ha messo a disposizione il sistema e, ove applicabile, l'organismo notificato che ha rilasciato un certificato per il sistema di IA ad alto rischio, in particolare in merito alla non conformità e alle eventuali misure correttive adottate.

Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 65, paragrafo 1, e  il fornitore del sistema ne venga a conoscenza , tale fornitore informa immediatamente le autorità nazionali di controllo degli Stati membri in cui ha messo a disposizione il sistema e, ove applicabile, l'organismo notificato che ha rilasciato un certificato per il sistema di IA ad alto rischio, in particolare in merito alla natura della non conformità e alle eventuali misure correttive pertinenti adottate.

Emendamento 360

Proposta di regolamento

Articolo 22 — comma 1 bis (nuovo)

Testo della Commissione

Emendamento

 

Nei casi di cui al primo comma, i fornitori del sistema di IA ad alto rischio informano immediatamente:

 

a)

i distributori;

 

b)

gli importatori;

 

c)

le autorità nazionali competenti degli Stati membri in cui hanno messo a disposizione o messo in servizio il sistema di IA; nonché

 

d)

ove possibile, gli operatori.

Emendamento 361

Proposta di regolamento

Articolo 22 — comma 1 ter (nuovo)

Testo della Commissione

Emendamento

 

I fornitori informano inoltre il rappresentante autorizzato, se ne è stato nominato uno a norma dell'articolo 25.

Emendamento 362

Proposta di regolamento

Articolo 23 — titolo

Testo della Commissione

Emendamento

Cooperazione con le autorità competenti

Cooperazione con le autorità competenti , l'ufficio e la Commissione

Emendamento 363

Proposta di regolamento

Articolo 23 — comma 1

Testo della Commissione

Emendamento

I fornitori di sistemi di IA ad alto rischio, su richiesta di un'autorità nazionale competente, forniscono a  tale autorità tutte le informazioni e la documentazione necessarie per dimostrare la conformità del sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo, in una lingua ufficiale dell'Unione stabilita dallo Stato membro interessato. Su richiesta motivata di un'autorità nazionale competente, i fornitori forniscono a tale autorità l'accesso ai log generati automaticamente dai loro sistemi di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo in virtù di un accordo contrattuale con l'utente o in forza di legge.

I fornitori e, ove applicabile, gli operatori di sistemi di IA ad alto rischio, su richiesta motivata di un'autorità nazionale competente o, se del caso, dell'ufficio per l'IA o della Commissione , forniscono a  tali entità tutte le informazioni e la documentazione necessarie per dimostrare la conformità del sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo, in una lingua ufficiale dell'Unione stabilita dallo Stato membro interessato.

Emendamento 364

Proposta di regolamento

Articolo 23 — comma 1 bis (nuovo)

Testo della Commissione

Emendamento

 

Su richiesta motivata di un'autorità nazionale competente o, se del caso, della Commissione, i fornitori e, ove applicabile, gli operatori forniscono inoltre all'autorità nazionale competente che ne ha fatto richiesta o alla Commissione, a seconda dei casi, l'accesso ai log generati automaticamente dai loro sistemi di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo.

Emendamento 365

Proposta di regolamento

Articolo 23 — comma 1 ter (nuovo)

Testo della Commissione

Emendamento

 

Qualsiasi informazione ottenuta da un'autorità nazionale competente o dalla Commissione conformemente alle disposizioni del presente articolo è considerata segreto commerciale ed è trattata nel rispetto degli obblighi di riservatezza di cui all'articolo 70.

Emendamento 366

Proposta di regolamento

Articolo 25 — paragrafo 1

Testo della Commissione

Emendamento

1.   Prima di mettere a disposizione i propri sistemi sul mercato dell'Unione, qualora non possa essere identificato un importatore, i fornitori stabiliti al di fuori dell'Unione nominano, mediante mandato scritto, un rappresentante autorizzato stabilito nell'Unione.

1.   Prima di mettere a disposizione i propri sistemi sul mercato dell'Unione, i fornitori stabiliti al di fuori dell'Unione nominano, mediante mandato scritto, un rappresentante autorizzato stabilito nell'Unione.

Emendamento 367

Proposta di regolamento

Articolo 25 — paragrafo 1 bis (nuovo)

Testo della Commissione

Emendamento

 

1 bis.     Il rappresentante autorizzato risiede o è stabilito in uno degli Stati membri in cui hanno luogo le attività di cui all'articolo 2, paragrafo 1, lettera c ter).

Emendamento 368

Proposta di regolamento

Articolo 25 — paragrafo 1 ter (nuovo)

Testo della Commissione

Emendamento

 

1 ter.     Il fornitore conferisce al proprio rappresentante autorizzato i poteri e le risorse necessari per adempiere i suoi compiti a norma del presente regolamento.

Emendamento 369

Proposta di regolamento

Articolo 25 — paragrafo 2 — parte introduttiva

Testo della Commissione

Emendamento

2.   Il rappresentante autorizzato esegue i compiti specificati nel mandato ricevuto dal fabbricante. Il mandato consente al rappresentante autorizzato di eseguire i seguenti compiti:

2.   Il rappresentante autorizzato esegue i compiti specificati nel mandato ricevuto dal fabbricante. Fornisce una copia del mandato alle autorità di vigilanza del mercato, su loro richiesta, in una delle lingue ufficiali dell'istituzione dell'Unione stabilita dall'autorità nazionale competente. Ai fini del presente regolamento, il mandato consente al rappresentante autorizzato di eseguire soltanto i seguenti compiti:

Emendamento 370

Proposta di regolamento

Articolo 25 — paragrafo 2 — lettera a

Testo della Commissione

Emendamento

a)

tenere una copia della dichiarazione di conformità UE e  della documentazione tecnica a disposizione delle autorità nazionali competenti e delle autorità nazionali di cui all'articolo 63, paragrafo 7 ;

a)

verificare che siano state elaborate la dichiarazione di conformità UE e  la documentazione tecnica e che il fornitore abbia espletato un'adeguata procedura di valutazione della conformità ;

Emendamento 371

Proposta di regolamento

Articolo 25 — paragrafo 2 — lettera a bis (nuova)

Testo della Commissione

Emendamento

 

a bis)

tenere una copia della dichiarazione di conformità UE, della documentazione tecnica e, se del caso, del certificato rilasciato dall'organismo notificato a disposizione delle autorità nazionali competenti e delle autorità nazionali di cui all'articolo 63, paragrafo 7;

Emendamento 372

Proposta di regolamento

Articolo 25 — paragrafo 2 — lettera b

Testo della Commissione

Emendamento

b)

fornire all'autorità nazionale competente, su richiesta motivata, tutte le informazioni e la documentazione necessarie per dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo, compreso l'accesso ai log generati automaticamente dal sistema di IA ad alto rischio nella misura in cui tali log sono sotto il controllo del fornitore in virtù di un accordo contrattuale con l'utente o in forza di legge ;

b)

fornire all'autorità nazionale competente, su richiesta motivata, tutte le informazioni e la documentazione necessarie per dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo, compreso l'accesso ai log generati automaticamente dal sistema di IA ad alto rischio nella misura in cui tali log sono sotto il controllo del fornitore;

Emendamento 373

Proposta di regolamento

Articolo 25 — paragrafo 2 — lettera c

Testo della Commissione

Emendamento

c)

cooperare con le autorità nazionali competenti , su richiesta motivata, in merito a qualsiasi azione intrapresa da queste ultime in relazione al sistema di IA ad alto rischio.

c)

cooperare con le autorità nazionali di controllo , su richiesta motivata, in merito a qualsiasi azione intrapresa dall'autorità per ridurre e attenuare i rischi presentati dal sistema di IA ad alto rischio;

Emendamento 374

Proposta di regolamento

Articolo 25 — paragrafo 2 — lettera c bis (nuova)

Testo della Commissione

Emendamento

 

c bis)

ove applicabile, rispettare gli obblighi di registrazione di cui all'articolo 51 o, se la registrazione è effettuata dal fornitore stesso, garantire che le informazioni di cui all'allegato VIII, punto 3, siano esatte.

Emendamento 375

Proposta di regolamento

Articolo 25 — paragrafo 2 bis (nuovo)

Testo della Commissione

Emendamento

 

2 bis.     Il rappresentante autorizzato è designato come interlocutore, in aggiunta o in sostituzione del fornitore, in particolare dell'autorità nazionale di controllo o delle autorità nazionali competenti, per tutte le questioni relative al rispetto del presente regolamento.

Emendamento 376

Proposta di regolamento

Articolo 25 — paragrafo 2 ter (nuovo)

Testo della Commissione

Emendamento

 

2 ter.     Il rappresentante autorizzato pone fine al mandato se ritiene o ha motivo di ritenere che il fornitore agisca in modo contrario agli obblighi che gli incombono in virtù del presente regolamento. In tal caso, informa immediatamente l'autorità nazionale di controllo dello Stato membro in cui è stabilito e, se del caso, l'organismo notificato pertinente, della cessazione del mandato e dei relativi motivi.

Emendamento 377

Proposta di regolamento

Articolo 26 — paragrafo 1 — parte introduttiva

Testo della Commissione

Emendamento

1.   Prima di immettere sul mercato un sistema di IA ad alto rischio, gli importatori di tale sistema garantiscono che:

1.   Prima di immettere sul mercato un sistema di IA ad alto rischio, gli importatori di tale sistema garantiscono che sia conforme al presente regolamento, provvedendo affinché :

Emendamento 378

Proposta di regolamento

Articolo 26 — paragrafo 1 — lettera a

Testo della Commissione

Emendamento

a)

il fornitore di tale sistema di IA abbia eseguito l'appropriata procedura di valutazione della conformità;

a)

il fornitore di tale sistema di IA abbia eseguito la pertinente procedura di valutazione della conformità di cui all'articolo 43 ;

Emendamento 379

Proposta di regolamento

Articolo 26 — paragrafo 1 — lettera b

Testo della Commissione

Emendamento

b)

il fornitore abbia redatto la documentazione tecnica conformemente all'allegato IV;

b)

il fornitore abbia redatto la documentazione tecnica conformemente all'articolo 11 e all'allegato IV;

Emendamento 380

Proposta di regolamento

Articolo 26 — paragrafo 1 — lettera c bis (nuova)

Testo della Commissione

Emendamento

 

c bis)

ove applicabile, il fornitore abbia nominato un rappresentante autorizzato conformemente all'articolo 25, paragrafo 1.

Emendamento 381

Proposta di regolamento

Articolo 26 — paragrafo 2

Testo della Commissione

Emendamento

2.   Qualora ritenga o abbia motivo di ritenere che un sistema di IA ad alto rischio non sia conforme al presente regolamento, un importatore non lo immette sul mercato fino a quando tale sistema di IA non sia stato reso conforme. Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 65, paragrafo 1, l'importatore ne informa il fornitore del sistema di IA e le autorità di vigilanza del mercato.

2.   Qualora ritenga o abbia motivo di ritenere che un sistema di IA ad alto rischio non sia conforme al presente regolamento, sia contraffatto o accompagnato da una documentazione falsificata, un importatore non lo immette sul mercato fino a quando tale sistema di IA non sia stato reso conforme. Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 65, paragrafo 1, l'importatore ne informa il fornitore del sistema di IA e le autorità di vigilanza del mercato.

Emendamento 382

Proposta di regolamento

Articolo 26 — paragrafo 3

Testo della Commissione

Emendamento

3.   Gli importatori indicano il loro nome, la loro denominazione commerciale registrata o il loro marchio registrato e l'indirizzo al quale possono essere contattati sul sistema di IA ad alto rischio oppure, ove ciò non sia possibile, sul suo imballaggio o in un documento di accompagnamento.

3.   Gli importatori indicano il loro nome, la loro denominazione commerciale registrata o il loro marchio registrato e l'indirizzo al quale possono essere contattati sul sistema di IA ad alto rischio e sul suo imballaggio o in un documento di accompagnamento , ove applicabile .

Emendamento 383

Proposta di regolamento

Articolo 26 — paragrafo 5

Testo della Commissione

Emendamento

5.   Gli importatori forniscono all'autorità nazionale competente, su richiesta motivata, tutte le informazioni e la documentazione necessarie per dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo in una lingua che può essere compresa facilmente da tale autorità nazionale competente , compreso l'accesso ai log generati automaticamente dal sistema di IA ad alto rischio nella misura in cui tali log sono sotto il controllo del fornitore in virtù di un accordo contrattuale con l'utente o in forza di legge . Essi cooperano inoltre con tali autorità in merito a qualsiasi azione intrapresa dall'autorità nazionale competente in relazione a tale sistema.

5.   Gli importatori forniscono all'autorità nazionale competente, su richiesta motivata, tutte le informazioni e la documentazione necessarie per dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo in una lingua che può essere compresa facilmente da tale autorità, compreso l'accesso ai log generati automaticamente dal sistema di IA ad alto rischio nella misura in cui tali log sono sotto il controllo del fornitore conformemente all'articolo 20 .

Emendamento 384

Proposta di regolamento

Articolo 26 — paragrafo 5 bis (nuovo)

Testo della Commissione

Emendamento

 

5 bis.     Gli importatori cooperano con l'autorità nazionale competente in merito a qualsiasi azione intrapresa da tale autorità per ridurre e attenuare i rischi presentati dal sistema di IA ad alto rischio.

Emendamento 385

Proposta di regolamento

Articolo 27 — paragrafo 1

Testo della Commissione

Emendamento

1.   Prima di mettere a disposizione sul mercato un sistema di IA ad alto rischio, i distributori verificano che il sistema di IA ad alto rischio rechi la necessaria marcatura CE di conformità, che sia accompagnato dalla documentazione e dalle istruzioni per l'uso necessarie e che il fornitore e l'importatore del sistema, a seconda dei casi, abbiano rispettato gli obblighi di cui al presente regolamento.

1.   Prima di mettere a disposizione sul mercato un sistema di IA ad alto rischio, i distributori verificano che il sistema di IA ad alto rischio rechi la necessaria marcatura CE di conformità, che sia accompagnato dalla documentazione e dalle istruzioni per l'uso necessarie e che il fornitore e l'importatore del sistema, a seconda dei casi, abbiano rispettato i loro obblighi di cui al presente regolamento , rispettivamente all'articolo 16 e all'articolo 26, paragrafo 3 .

Emendamento 386

Proposta di regolamento

Articolo 27 — paragrafo 2

Testo della Commissione

Emendamento

2.   Qualora ritenga o abbia motivo di ritenere che un sistema di IA ad alto rischio non sia conforme ai requisiti di cui al capo 2 del presente titolo, un distributore non lo mette a disposizione sul mercato fino a quando tale sistema di IA ad alto rischio non sia stato reso conforme a tali requisiti. Inoltre, qualora il sistema presenti un rischio ai sensi dell'articolo 65, paragrafo 1, il distributore ne informa il fornitore o l'importatore del sistema, a seconda dei casi.

2.   Qualora ritenga o abbia motivo di ritenere , sulla base delle informazioni in suo possesso, che un sistema di IA ad alto rischio non sia conforme ai requisiti di cui al capo 2 del presente titolo, un distributore non lo mette a disposizione sul mercato fino a quando tale sistema di IA ad alto rischio non sia stato reso conforme a tali requisiti. Inoltre, qualora il sistema presenti un rischio ai sensi dell'articolo 65, paragrafo 1, il distributore ne informa il fornitore o l'importatore del sistema e la pertinente autorità nazionale competente , a seconda dei casi.

Emendamento 387

Proposta di regolamento

Articolo 27 — paragrafo 4

Testo della Commissione

Emendamento

4.   Un distributore che ritiene o ha motivo di ritenere che un sistema di IA ad alto rischio che ha messo a disposizione sul mercato non sia conforme ai requisiti di cui al capo 2 del presente titolo adotta le misure correttive necessarie per rendere tale sistema conforme a tali requisiti, ritirarlo o richiamarlo o garantisce che il fornitore, l'importatore o qualsiasi operatore pertinente, a seconda dei casi, adotti tali misure correttive. Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 65, paragrafo 1, il distributore ne informa immediatamente le autorità nazionali competenti degli Stati membri in cui ha messo il prodotto a disposizione, fornendo in particolare informazioni precise sulla non conformità e sulle eventuali misure correttive adottate.

4.   Un distributore che ritiene o ha motivo di ritenere , sulla base delle informazioni in suo possesso, che un sistema di IA ad alto rischio che ha messo a disposizione sul mercato non sia conforme ai requisiti di cui al capo 2 del presente titolo adotta le misure correttive necessarie per rendere tale sistema conforme a tali requisiti, ritirarlo o richiamarlo o garantisce che il fornitore, l'importatore o qualsiasi operatore pertinente, a seconda dei casi, adotti tali misure correttive. Qualora il sistema di IA ad alto rischio presenti un rischio ai sensi dell'articolo 65, paragrafo 1, il distributore ne informa immediatamente il fornitore o l'importatore del sistema e le autorità nazionali competenti degli Stati membri in cui ha messo il prodotto a disposizione, fornendo in particolare informazioni precise sulla non conformità e sulle eventuali misure correttive adottate.

Emendamento 388

Proposta di regolamento

Articolo 27 — paragrafo 5

Testo della Commissione

Emendamento

5.   Su richiesta motivata di un'autorità nazionale competente, i distributori di sistemi di IA ad alto rischio forniscono a tale autorità tutte le informazioni e la documentazione necessarie per dimostrare la conformità di un sistema ad alto rischio ai requisiti di cui al capo 2 del presente titolo. I distributori cooperano inoltre con tale autorità nazionale competente in merito a qualsiasi misura adottata da tale autorità.

5.   Su richiesta motivata di un'autorità nazionale competente, i distributori di sistemi di IA ad alto rischio forniscono a tale autorità tutte le informazioni e la documentazione in loro possesso o a loro disposizione, in conformità degli obblighi dei distributori di cui al paragrafo 1, che sono necessarie per dimostrare la conformità di un sistema ad alto rischio ai requisiti di cui al capo 2 del presente titolo.

Emendamento 389

Proposta di regolamento

Articolo 27 — paragrafo 5 bis (nuovo)

Testo della Commissione

Emendamento

 

5 bis.     I distributori cooperano con le autorità nazionali competenti in merito a qualsiasi azione intrapresa da dette autorità per ridurre e attenuare i rischi rappresentati dai sistemi di IA ad alto rischio.

Emendamento 390

Proposta di regolamento

Articolo 28 — titolo

Testo della Commissione

Emendamento

Obblighi di distributori, importatori, utenti e altri terzi

Responsabilità lungo la catena del valore dell'IA di fornitori, distributori, importatori, operatori o altri terzi

Emendamento 391

Proposta di regolamento

Articolo 28 — paragrafo 1 — parte introduttiva

Testo della Commissione

Emendamento

1.   Qualsiasi distributore, importatore, utente o altro terzo è considerato un fornitore ai fini del presente regolamento ed è soggetto agli obblighi del fornitore a norma dell'articolo 16, nelle circostanze seguenti:

1.   Qualsiasi distributore, importatore, operatore o altro terzo è considerato un fornitore di un sistema di IA ad alto rischio ai fini del presente regolamento ed è soggetto agli obblighi del fornitore a norma dell'articolo 16, nelle circostanze seguenti:

Emendamento 392

Proposta di regolamento

Articolo 28 — paragrafo 1 — lettera a

Testo della Commissione

Emendamento

a)

se immette sul mercato o mette in servizio un sistema di IA ad alto rischio con il loro nome marchio ;

a)

se appone il proprio nome o marchio su un sistema di IA ad alto rischio già immesso sul mercato messo in servizio ;

Emendamento 393

Proposta di regolamento

Articolo 28 — paragrafo 1 — lettera b

Testo della Commissione

Emendamento

b)

se modifica la finalità prevista di un sistema di IA ad alto rischio già immesso sul mercato o messo in servizio;

b)

se apporta una modifica sostanziale a un sistema di IA ad alto rischio già immesso sul mercato o  già messo in servizio in modo che resti un sistema di IA ad alto rischio a norma dell'articolo 6 ;

Emendamento 394

Proposta di regolamento

Articolo 28 — paragrafo 1 — lettera b bis (nuova)

Testo della Commissione

Emendamento

 

b bis)

se apporta una modifica sostanziale a un sistema di IA, anche uno per finalità generali, che non è stato classificato come ad alto rischio e che è già stato immesso sul mercato o messo in servizio in modo tale che il sistema di IA diventi un sistema di IA ad alto rischio a norma dell'articolo 6;

Emendamento 395

Proposta di regolamento

Articolo 28 — paragrafo 2

Testo della Commissione

Emendamento

2.   Qualora si verifichino le circostanze di cui al paragrafo 1, lettera b ) o c ), il fornitore che ha inizialmente immesso sul mercato o messo in servizio il sistema di IA ad alto rischio non è più considerato un fornitore ai fini del presente regolamento.

2.   Qualora si verifichino le circostanze di cui al paragrafo 1, lettera da a ) a b bis ), il fornitore che ha inizialmente immesso sul mercato o messo in servizio il sistema di IA ad alto rischio non è più considerato un fornitore di quel determinato sistema di IA ai fini del presente regolamento. Tale ex fornitore fornisce al nuovo fornitore la documentazione tecnica e tutte le altre capacità informative pertinenti e ragionevolmente attese dal sistema di IA, l'accesso tecnico o assistenza di altro tipo basata sullo stato dell'arte generalmente riconosciuto che sono necessari per l'adempimento degli obblighi di cui al presente regolamento.

 

Il presente paragrafo si applica anche ai fornitori di modelli di base quali definiti all'articolo 3 quando il modello di base è direttamente integrato in un sistema di IA ad alto rischio.

Emendamento 396

Proposta di regolamento

Articolo 28 — paragrafo 2 bis (nuovo)

Testo della Commissione

Emendamento

 

2 bis.     Il fornitore di un sistema di IA ad alto rischio e il terzo che fornisce strumenti, servizi, componenti o processi utilizzati o integrati nel sistema di IA ad alto rischio precisano, mediante accordo scritto, le informazioni, le capacità, l'accesso tecnico e o assistenza di altro tipo, sulla base dello stato dell'arte generalmente riconosciuto, che il terzo è tenuto a fornire per permettere al fornitore del sistema di IA ad alto rischio di adempiere pienamente agli obblighi di cui al presente regolamento.

 

La Commissione elabora e raccomanda clausole contrattuali tipo non vincolanti tra i fornitori di sistemi di IA ad alto rischio e i terzi che forniscono strumenti, servizi, componenti o processi utilizzati o integrati in sistemi di IA ad alto rischio, al fine di assistere entrambe le parti nell'elaborazione e nella negoziazione di contratti con diritti e obblighi contrattuali equilibrati, in linea con il grado di controllo di ciascuna parte. Nell'elaborare clausole contrattuali tipo non vincolanti, la Commissione tiene conto dei possibili requisiti contrattuali applicabili in determinati settori o casi commerciali. Le clausole contrattuali non vincolanti sono pubblicate e disponibili gratuitamente in un formato elettronico facilmente utilizzabile sul sito web dell'ufficio per l'IA.

Emendamento 397

Proposta di regolamento

Articolo 28 — paragrafo 2 ter (nuovo)

Testo della Commissione

Emendamento

 

2 ter.     Ai fini del presente articolo, i segreti commerciali sono preservati e sono comunicati soltanto a condizione che siano preventivamente adottate tutte le misure specifiche necessarie, conformemente alla direttiva UE 2016/943, per tutelarne la riservatezza, in particolare rispetto a terzi. All'occorrenza possono essere concordate opportune disposizioni tecniche e organizzative per tutelare i diritti di proprietà intellettuale o i segreti commerciali.

Emendamento 398

Proposta di regolamento

Articolo 28 bis (nuovo)

Testo della Commissione

Emendamento

 

Articolo 28 bis

 

Clausole contrattuali abusive imposte unilateralmente a una PMI o start-up

 

1.     Una clausola contrattuale relativa alla fornitura di strumenti, servizi, componenti o processi utilizzati o integrati in un sistema di IA ad alto rischio o ai mezzi di ricorso per la violazione o la cessazione dei relativi obblighi imposti unilateralmente da un'impresa a una PMI o start-up non è vincolante per quest'ultima impresa se è abusiva.

 

2.     Una clausola contrattuale non dovrebbe essere considerata abusiva se deriva dal diritto dell'Unione vigente.

 

3.     Una clausola contrattuale è abusiva se è di natura tale da compromettere oggettivamente la capacità della parte cui la clausola è stata imposta unilateralmente di tutelare il suo legittimo interesse commerciale per le informazioni in questione o se il suo utilizzo si discosta gravemente dalle buone prassi commerciali nella fornitura di strumenti, servizi, componenti o processi che sono utilizzati o integrati in un sistema di IA ad alto rischio, in contrasto con la buona fede e la lealtà, o crea un sostanziale squilibrio tra i diritti e gli obblighi delle parti contrattuali. Una clausola contrattuale è abusiva anche se ha l'effetto di trasferire tra le parti contrattuali le sanzioni di cui all'articolo 71 o le relative spese di contenzioso di cui all'articolo 71, paragrafo 8.

 

4.     Una clausola contrattuale è abusiva ai fini del presente articolo se ha per oggetto o effetto di:

 

a)

escludere o limitare la responsabilità della parte che ha imposto unilateralmente la clausola in caso di atti intenzionali o negligenza grave;

 

b)

escludere i mezzi di ricorso a disposizione della parte alla quale la clausola è stata imposta unilateralmente in caso di inadempimento degli obblighi contrattuali o la responsabilità della parte che ha imposto unilateralmente la clausola in caso di violazione di tali obblighi;

 

c)

conferire alla parte che ha imposto unilateralmente la clausola il diritto esclusivo di determinare se la documentazione tecnica e i dati forniti sono conformi al contratto o di interpretare una qualsiasi clausola del contratto.

 

5.     Una clausola contrattuale è ritenuta imposta unilateralmente ai sensi del presente articolo se è stata inserita da una parte contraente senza che l'altra parte sia stata in grado di influenzarne il contenuto malgrado un tentativo di negoziarla. Alla parte contraente che ha inserito una clausola contrattuale incombe l'onere di provare che tale clausola non è stata imposta unilateralmente.

 

6.     Se la clausola contrattuale abusiva è scindibile dalle altre clausole contrattuali, le clausole rimanenti mantengono carattere vincolante. La parte che ha stabilito la clausola controversa non può sostenere che si tratta di una clausola abusiva.

 

7.     Il presente articolo si applica a tutti i nuovi contratti entrati in vigore dopo … [data di entrata in vigore del presente regolamento]. Le imprese riesaminano gli obblighi contrattuali esistenti soggetti al presente regolamento entro … [tre anni dalla data di entrata in vigore del presente regolamento].

 

8.     Data la rapidità con cui si verificano le innovazioni sui mercati, l'elenco delle clausole contrattuali abusive di cui all'articolo 28 bis è riesaminato periodicamente dalla Commissione e, se necessario, è aggiornato alla luce delle nuove prassi commerciali.

Emendamento 399

Proposta di regolamento

Articolo 28 ter (nuovo)

Testo della Commissione

Emendamento

 

Articolo 28 ter

 

Obblighi del fornitore di un modello di base

 

1.     Un fornitore di un modello di base, prima di metterlo a disposizione sul mercato o di metterlo in servizio, garantisce che sia conforme ai requisiti previsti dal presente articolo, a prescindere dal fatto che sia fornito come modello autonomo o integrato in un sistema di IA o in un prodotto, o fornito su licenza gratuita e open source, come servizio, nonché altri canali di distribuzione.

 

2.     Ai fini del paragrafo 1 il fornitore di un modello di base:

 

a)

dimostra, mediante progettazione, prove e analisi adeguate, l'individuazione, la riduzione e l'attenuazione dei rischi ragionevolmente prevedibili per la salute, la sicurezza, i diritti fondamentali, l'ambiente, la democrazia e lo Stato di diritto, prima e durante lo sviluppo, con metodi adeguati, ad esempio con il coinvolgimento di esperti indipendenti, nonché la documentazione dei restanti rischi non attenuabili dopo lo sviluppo;

 

b)

elabora e incorpora soltanto insiemi di dati soggetti a idonee misure di governance dei dati per i modelli di base, in particolare misure per esaminare l'adeguatezza delle fonti di dati ed eventuali distorsioni e un'opportuna attenuazione;

 

c)

progetta e sviluppa il modello di base al fine di conseguire, durante l'intero ciclo di vita, opportuni livelli di prestazioni, prevedibilità, interpretabilità, corregibilità, protezione e cibersicurezza, valutati mediante metodi adeguati quali la valutazione dei modelli con la partecipazione di esperti indipendenti, analisi documentate e test approfonditi nelle fasi di concettualizzazione, progettazione e sviluppo;

 

d)

progetta e sviluppa il modello di base, avvalendosi delle norme applicabili per ridurre l'uso di energia, l'uso di risorse e i rifiuti, nonché per aumentare l'efficienza energetica e l'efficienza complessiva del sistema, fatto salvo la vigente normativa dell'Unione e nazionale in materia. Tale obbligo non si applica prima della pubblicazione delle norme di cui all'articolo 40. I modelli di base sono progettati con capacità che consentono la misurazione e la registrazione del consumo di energia e risorse e, se tecnicamente fattibile, degli altri effetti ambientali che l'adozione e l'utilizzo dei sistemi può avere sul loro intero ciclo di vita;

 

e)

redige un'ampia documentazione tecnica e istruzioni per l'uso intelligibili per consentire ai fornitori a valle di adempiere agli obblighi di cui all'articolo 16 e all'articolo 28, paragrafo 1;

 

f)

pone in essere un sistema di gestione della qualità per garantire e documentare la conformità al presente articolo, con la possibilità di testare il rispetto del presente requisito;

 

g)

registra tale modello di base nella banca dati dell'UE di cui all'articolo 60, conformemente alle istruzioni di cui all'allegato VIII, lettera C.

 

Nel soddisfare tali requisiti si tiene conto dello stato dell'arte generalmente riconosciuto, anche come indicato nelle pertinenti norme armonizzate o nelle specifiche comuni, nonché dei più recenti metodi di valutazione e misurazione, rispecchiati in particolare negli orientamenti e nelle capacità di analisi comparativa di cui all'articolo 58 bis;

 

3.     Per un periodo che si conclude 10 anni dopo l'immissione sul mercato o la messa in servizio del sistema di IA i fornitori dei modelli di base tengono la documentazione tecnica di cui al paragrafo 2, lettera e), a disposizione delle autorità nazionali competenti.

 

4.     Inoltre, i fornitori di modelli di base utilizzati nei sistemi di IA destinati espressamente a generare, con diversi livelli di autonomia, contenuti quali testi complessi, immagini, audio o video («IA generativa») e i fornitori specializzati nella trasformazione di un modello di base in un sistema di IA generativa:

 

a)

adempiono agli obblighi di trasparenza di cui all'articolo 52, paragrafo 1,

 

b)

formano e, se del caso, progettano e sviluppano il modello di base in modo da assicurare opportune garanzie contro la generazione di contenuti che violano il diritto dell'Unione, in linea con lo stato dell'arte generalmente riconosciuto e fatti salvi i diritti fondamentali, compresa la libertà di espressione;

 

c)

fatta salva la normativa dell'Unione o nazionale in materia di diritto d'autore, documentano e mettono a disposizione del pubblico una sintesi sufficientemente dettagliata dell'uso dei dati sulla formazione protetti da diritto d'autore.

Emendamento 400

Proposta di regolamento

Articolo 29 — paragrafo 1

Testo della Commissione

Emendamento

1.   Gli utenti di sistemi di IA ad alto rischio usano tali sistemi conformemente alle istruzioni per l'uso che accompagnano i sistemi, a norma dei paragrafi 2 e 5.

1.   Gli operatori di sistemi di IA ad alto rischio adottano idonee misure tecniche e organizzative per garantire di utilizzare tali sistemi conformemente alle istruzioni per l'uso che accompagnano i sistemi, a norma dei paragrafi 2 e 5.

Emendamento 401

Proposta di regolamento

Articolo 29 — paragrafo 1 bis (nuovo)

Testo della Commissione

Emendamento

 

1 bis.     Nella misura in cui esercitano un controllo sul sistema di IA ad alto rischio, gli operatori:

 

i)

attuano la sorveglianza umana conformemente ai requisiti stabiliti nel presente regolamento;

 

ii)

garantiscono che le persone fisiche preposte ad assicurare la sorveglianza umana dei sistemi di IA ad alto rischio siano competenti, adeguatamente qualificate e formate e dispongano delle risorse necessarie per assicurare l'efficace supervisione del sistema di IA a norma dell'articolo 14;

 

iii)

garantiscono che le misure pertinenti e adeguate in materia di robustezza e cibersicurezza siano periodicamente monitorate per verificarne l'efficacia e siano periodicamente adeguate o aggiornate.

Emendamento 402

Proposta di regolamento

Articolo 29 — paragrafo 2

Testo della Commissione

Emendamento

2.   Gli obblighi di cui al paragrafo 1 lasciano impregiudicati gli altri obblighi degli utenti previsti dal diritto dell'Unione o nazionale e la discrezionalità dell'utente nell'organizzare le proprie risorse e attività al fine di attuare le misure di sorveglianza umana indicate dal fornitore.

2.   Gli obblighi di cui ai paragrafi 1 e 1 bis lasciano impregiudicati gli altri obblighi degli operatori previsti dal diritto dell'Unione o nazionale e la discrezionalità dell'operatore nell'organizzare le proprie risorse e attività al fine di attuare le misure di sorveglianza umana indicate dal fornitore.

Emendamento 403

Proposta di regolamento

Articolo 29 — paragrafo 3

Testo della Commissione

Emendamento

3.   Fatto salvo il paragrafo 1, nella misura in cui esercita il controllo sui dati di input, l'utente garantisce che tali dati di input siano pertinenti alla luce della finalità prevista del sistema di IA ad alto rischio.

3.   Fatto salvo i paragrafi 1 e bis , nella misura in cui esercita il controllo sui dati di input, l'operatore garantisce che tali dati di input siano pertinenti e sufficientemente rappresentativi alla luce della finalità prevista del sistema di IA ad alto rischio.

Emendamento 404

Proposta di regolamento

Articolo 29 — paragrafo 4 — parte introduttiva

Testo della Commissione

Emendamento

4.   Gli utenti monitorano il funzionamento del sistema di IA ad alto rischio sulla base delle istruzioni per l'uso. Se hanno motivo di ritenere che l'uso in conformità alle istruzioni per l'uso possa far sì che il sistema di IA presenti un rischio ai sensi dell'articolo 65, paragrafo 1, ne informano il fornitore o il distributore e sospendono l'uso del sistema. Essi informano inoltre il fornitore o il distributore qualora abbiano individuato un incidente grave o un malfunzionamento ai sensi dell'articolo 62 e interrompono l'uso del sistema di IA. Nel caso in cui l'utente non sia in grado di raggiungere il fornitore, si applica mutatis mutandis l'articolo 62.

4.   Gli operatori monitorano il funzionamento del sistema di IA ad alto rischio sulla base delle istruzioni per l'uso e, se del caso, informano i fornitori a tale riguardo conformemente all'articolo 61 . Se hanno motivo di ritenere che l'uso in conformità alle istruzioni per l'uso possa far sì che il sistema di IA presenti un rischio ai sensi dell'articolo 65, paragrafo 1, ne informano senza indebito ritardo il fornitore o il distributore e  le competenti autorità nazionali di controllo e sospendono l'uso del sistema. Essi informano immediatamente inoltre , in primo luogo, il fornitore e, successivamente, l'importatore o il distributore e le competenti autorità nazionali di controllo qualora abbiano individuato un incidente grave o un malfunzionamento ai sensi dell'articolo 62 e interrompono l'uso del sistema di IA. Nel caso in cui l'operatore non sia in grado di raggiungere il fornitore, si applica mutatis mutandis l'articolo 62.

Emendamento 405

Proposta di regolamento

Articolo 29 — paragrafo 4 — comma 1

Testo della Commissione

Emendamento

Per gli utenti che sono enti creditizi disciplinati dalla direttiva 2013/36/UE, l'obbligo di cui al primo comma si considera soddisfatto se sono rispettate le regole sui dispositivi, i processi e i meccanismi di governance interna di cui all'articolo 74 di tale direttiva.

Per gli operatori che sono enti creditizi disciplinati dalla direttiva 2013/36/UE, l'obbligo di cui al primo comma si considera soddisfatto se sono rispettate le regole sui dispositivi, i processi e i meccanismi di governance interna di cui all'articolo 74 di tale direttiva.

Emendamento 406

Proposta di regolamento

Articolo 29 — paragrafo 5 — comma 1

Testo della Commissione

Emendamento

5.   Gli utenti di sistemi di IA ad alto rischio conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo. I log sono conservati per un periodo adeguato alla luce della finalità prevista del sistema di IA ad alto rischio e  degli obblighi giuridici applicabili a norma del diritto dell'Unione o nazionale .

5.   Gli operatori di sistemi di IA ad alto rischio conservano i log generati automaticamente dai loro sistemi di IA ad alto rischio, nella misura in cui tali log sono sotto il loro controllo e sono necessari per garantire e dimostrare la conformità al presente regolamento, per audit ex post di qualsiasi malfunzionamento, incidente o uso improprio ragionevolmente prevedibili del sistema, o per garantire e monitorare il corretto funzionamento del sistema durante il suo intero ciclo di vita . Fatto salvo il diritto dell'Unione o nazionale applicabile, i log sono conservati per un periodo minimo di sei mesi. Il periodo di conservazione è conforme alle norme del settore e adeguato alla finalità prevista del sistema di IA ad alto rischio.

Emendamento 407

Proposta di regolamento

Articolo 29 — paragrafo 5 — comma 2

Testo della Commissione

Emendamento

Gli utenti che sono enti creditizi disciplinati dalla direttiva 2013/36/UE mantengono i log nell'ambito della documentazione riguardante i dispositivi, i processi e i meccanismi di governance interna di cui all'articolo 74 di tale direttiva.

Gli operatori che sono enti creditizi disciplinati dalla direttiva 2013/36/UE mantengono i log nell'ambito della documentazione riguardante i dispositivi, i processi e i meccanismi di governance interna di cui all'articolo 74 di tale direttiva.

Emendamento 408

Proposta di regolamento

Articolo 29 — paragrafo 5 bis (nuovo)

Testo della Commissione

Emendamento

 

5 bis.     Prima di mettere in servizio o utilizzare un sistema di IA ad alto rischio sul luogo di lavoro, gli operatori consultano i rappresentanti dei lavoratori allo scopo di trovare un accordo a norma della direttiva 2002/14/CE e informano i dipendenti interessati che saranno soggetti al sistema.

Emendamento 409

Proposta di regolamento

Articolo 29 — paragrafo 5 ter (nuovo)

Testo della Commissione

Emendamento

 

5 ter.     Gli operatori di sistemi di IA ad alto rischio che sono autorità pubbliche o istituzioni, organi e organismi o imprese di cui all'articolo 51, paragrafo 1bis, lettera b), dell'Unione adempiono agli obblighi di registrazione di cui all'articolo 51.

Emendamento 410

Proposta di regolamento

Articolo 29 — paragrafo 6

Testo della Commissione

Emendamento

6.   Gli utenti di sistemi di IA ad alto rischio usano le informazioni fornite a norma dell'articolo 13 per adempiere al loro obbligo di effettuare una valutazione d'impatto sulla protezione dei dati a norma dell'articolo 35 del regolamento (UE) 2016/679 o dell'articolo 27 della direttiva (UE) 2016/680, ove applicabile .

6.    Ove applicabile, gli operatori di sistemi di IA ad alto rischio usano le informazioni fornite a norma dell'articolo 13 per adempiere al loro obbligo di effettuare una valutazione d'impatto sulla protezione dei dati a norma dell'articolo 35 del regolamento (UE) 2016/679 o dell'articolo 27 della direttiva (UE) 2016/680, di cui si pubblica una sintesi tenendo conto dell'impiego specifico e del contesto specifico in cui il sistema di IA deve operare . Gli operatori possono ritornare in parte a tali valutazioni d'impatto sulla protezione dei dati per adempiere ad alcuni degli obblighi di cui al presente articolo, nella misura in cui la valutazione d'impatto sulla protezione dei dati rispetta tali obblighi.

Emendamento 411

Proposta di regolamento

Articolo 29 — paragrafo 6 bis (nuovo)

Testo della Commissione

Emendamento

 

6 bis.     Fatto salvo l'articolo 52, gli operatori dei sistemi di IA ad alto rischio di cui all'allegato III, che adottano decisioni o assistono nell'adozione di decisioni che riguardano persone fisiche, informano queste ultime che sono soggette all'uso del sistema di IA ad alto rischio. Tale informazione la finalità prevista e il tipo di decisioni adottate. L'operatore informa inoltre la persona fisica del suo diritto alla spiegazione di cui all'articolo 68 quater.

Emendamento 412

Proposta di regolamento

Articolo 29 — paragrafo 6 ter (nuovo)

Testo della Commissione

Emendamento

 

6 ter.     Gli operatori cooperano con le autorità nazionali competenti in merito a qualsiasi azione intrapresa da dette autorità in relazione al sistema ad alto rischio ai fini dell'attuazione del presente regolamento.

Emendamento 413

Proposta di regolamento

Articolo 29 bis (nuovo)

Testo della Commissione

Emendamento

 

Articolo 29 bis

 

Valutazione d'impatto sui diritti fondamentali per i sistemi di IA ad alto rischio

 

Prima di mettere in servizio un sistema di IA ad alto rischio quale definito all'articolo 6, paragrafo 2, ad eccezione dei sistemi di IA destinati ad essere utilizzati nel settore 2 dell'allegato III, gli operatori effettuano una valutazione dell'impatto dei sistemi nel contesto specifico di impiego. Tale valutazione comprende, almeno, i seguenti elementi:

 

a)

una chiara descrizione della finalità prevista per la quale verrà utilizzato il sistema;

 

b)

una chiara descrizione dell'ambito geografico e temporale previsto per l'uso del sistema;

 

c)

le categorie di persone fisiche e gruppi verosimilmente interessati dall'uso del sistema;

 

d)

la verifica che l'uso del sistema è conforme al diritto dell'Unione e nazionale in materia di diritti fondamentali;

 

e)

l'impatto ragionevolmente prevedibile sui diritti fondamentali di mettere in servizio il sistema di IA ad alto rischio;

 

f)

determinati rischi di danno suscettibili di incidere sulle persone emarginate o sui gruppi vulnerabili;

 

g)

l'impatto negativo ragionevolmente prevedibile dell'utilizzo del sistema sull'ambiente;

 

h)

un piano dettagliato su come saranno attenuati i danni o l'impatto negativo sui diritti fondamentali individuati;

 

j)

il sistema di governance che sarà messo in atto dall'operatore, compresa la supervisione umana, la gestione dei reclami e i mezzi di ricorso.

 

2.     Qualora non possa essere individuato un piano dettagliato per attenuare i rischi identificati nel corso della valutazione di cui al paragrafo 1, l'operatore si astiene dal mettere in servizio il sistema di IA ad alto rischio e informa senza indebito ritardo il fornitore e l'autorità nazionale di controllo. Le autorità nazionali di controllo, a norma degli articoli 65 e 67, tengono conto di tali informazioni quando conducono indagini sui sistemi che presentano un rischio a livello nazionale.

 

3.     L'obbligo di cui al paragrafo 1 si applica al nuovo uso del sistema di IA ad alto rischio. L'operatore può, in casi analoghi, ispirarsi da una valutazione d'impatto sui diritti fondamentali effettuata in precedenza o da una valutazione esistente effettuata dai fornitori. Se, durante l'uso del sistema di IA ad alto rischio, ritiene che non siano più soddisfatti i criteri di cui al paragrafo 1, l'operatore effettua una nuova valutazione d'impatto sui diritti fondamentali.

 

4.     Nel corso della valutazione d'impatto, l'operatore, ad eccezione delle PMI, informa l'autorità nazionale di controllo e i pertinenti portatori di interessi e coinvolge, nella misura del possibile, i rappresentanti delle persone o dei gruppi di persone suscettibili di essere interessate dal sistema di IA ad alto rischio, individuati al paragrafo 1, compresi, tra l'altro: gli organismi per la parità, le agenzie di protezione dei consumatori, le parti sociali e le agenzie di protezione dei dati, al fine di ricevere un contributo alla valutazione d'impatto. Per ricevere una risposta degli organismi l'operatore concede un periodo di sei settimane. Le PMI possono applicare le disposizioni di cui al presente paragrafo su base volontaria.

 

Nel caso di cui all'articolo 47, paragrafo 1, le autorità pubbliche possono essere esentate da tali obblighi.

 

5.     L'operatore che è un'autorità pubblica o un'impresa di cui all'articolo 51, paragrafo 1 bis, lettera b, pubblica una sintesi dei risultati della valutazione d'impatto nell'ambito della registrazione dell'uso ai sensi dell'obbligo di cui all'articolo 51, paragrafo 2.

 

6.     Qualora all'operatore sia già stato richiesto di svolgere una valutazione d'impatto sulla protezione dei dati a norma dell'articolo 35 del regolamento (UE) 2016/679 o dell'articolo 27 della direttiva (UE) 2016/680, la valutazione d'impatto sui diritti fondamentali di cui al paragrafo 1 è condotta insieme alla valutazione d'impatto sulla protezione dei dati. La valutazione d'impatto sulla protezione dei dati è pubblicata come addendum.

Emendamento 414

Proposta di regolamento

Articolo 30 — paragrafo 1

Testo della Commissione

Emendamento

1.   Ciascuno Stato membro designa o istituisce un'autorità di notifica responsabile della predisposizione e dell'esecuzione delle procedure necessarie per la valutazione, la designazione e la notifica degli organismi di valutazione della conformità e per il loro monitoraggio.

1.   Ciascuno Stato membro designa o istituisce un'autorità di notifica responsabile della predisposizione e dell'esecuzione delle procedure necessarie per la valutazione, la designazione e la notifica degli organismi di valutazione della conformità e per il loro monitoraggio. Tali procedure sono sviluppate nell'ambito della collaborazione tra le autorità di notifica di tutti gli Stati membri.

Emendamento 415

Proposta di regolamento

Articolo 30 — paragrafo 7

Testo della Commissione

Emendamento

7.   Le autorità di notifica dispongono di un numero sufficiente di dipendenti competenti per l'adeguata esecuzione dei relativi compiti.

7.   Le autorità di notifica dispongono di un numero sufficiente di dipendenti competenti per l'adeguata esecuzione dei relativi compiti. Se del caso, il personale competente possiede le competenze necessarie, ad esempio una laurea in un settore giuridico appropriato, ai fini del controllo dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell'Unione europea.

Emendamento 416

Proposta di regolamento

Articolo 30 — paragrafo 8

Testo della Commissione

Emendamento

8.   Le autorità di notifica si accertano che le valutazioni della conformità siano effettuate in modo proporzionato, evitando oneri inutili per i fornitori, e che gli organismi notificati svolgano le loro attività tenendo debitamente conto delle dimensioni di un'impresa, del settore in cui opera, della sua struttura e del grado di complessità del sistema di IA in questione.

8.   Le autorità di notifica si accertano che le valutazioni della conformità siano effettuate in modo proporzionato e tempestivo , evitando oneri inutili per i fornitori, e che gli organismi notificati svolgano le loro attività tenendo debitamente conto delle dimensioni di un'impresa, del settore in cui opera, della sua struttura e del grado di complessità del sistema di IA in questione. Si presta particolare attenzione alla riduzione al minimo degli oneri amministrativi e dei costi di conformità per le microimprese e le piccole imprese quali definite nell'allegato alla raccomandazione 2003/361/CE della Commissione.

Emendamento 417

Proposta di regolamento

Articolo 32 — paragrafo 1

Testo della Commissione

Emendamento

1.   Le autorità di notifica possono notificare solo gli organismi di valutazione della conformità che soddisfino i requisiti di cui all'articolo 33.

1.   Le autorità di notifica notificano solo gli organismi di valutazione della conformità che soddisfino i requisiti di cui all'articolo 33.

Emendamento 418

Proposta di regolamento

Articolo 32 — paragrafo 2

Testo della Commissione

Emendamento

2.   Le autorità di notifica notificano la Commissione e gli altri Stati membri utilizzando lo strumento elettronico di notifica elaborato e gestito dalla Commissione.

2.   Le autorità di notifica notificano la Commissione e gli altri Stati membri utilizzando lo strumento elettronico di notifica elaborato e gestito dalla Commissione , di ciascun organismo di valutazione della conformità di cui al paragrafo 1 .

Emendamento 419

Proposta di regolamento

Articolo 32 — paragrafo 3

Testo della Commissione

Emendamento

3.   La notifica include tutti i dettagli delle attività di valutazione della conformità, del modulo o dei moduli di valutazione della conformità e delle tecnologie di intelligenza artificiale interessate.

3.   La notifica di cui al paragrafo 2 include tutti i dettagli delle attività di valutazione della conformità, del modulo o dei moduli di valutazione della conformità e delle tecnologie di intelligenza artificiale interessate , nonché la relativa attestazione di competenza .

Emendamento 420

Proposta di regolamento

Articolo 32 — paragrafo 4

Testo della Commissione

Emendamento

4.   L'organismo di valutazione della conformità interessato può eseguire le attività di un organismo notificato solo se non sono sollevate obiezioni da parte della Commissione o degli altri Stati membri entro un mese dalla notifica.

4.   L'organismo di valutazione della conformità interessato può eseguire le attività di un organismo notificato solo se non sono sollevate obiezioni da parte della Commissione o degli altri Stati membri entro due settimane dalla convalida della notifica , qualora essa includa un certificato di accreditamento di cui all'articolo 31, paragrafo 2, o entro due mesi dalla notifica qualora essa includa le prove documentali di cui all'articolo 31, paragrafo 3 .

Emendamento 421

Proposta di regolamento

Articolo 32 — paragrafo 4 bis (nuovo)

Testo della Commissione

Emendamento

 

4 bis.     Se sono sollevate obiezioni, la Commissione avvia senza ritardo consultazioni con gli Stati membri pertinenti e l'organismo di valutazione della conformità. In seguito a tale consultazione la Commissione decide se l'autorizzazione è giustificata o meno. La Commissione trasmette la propria decisione allo Stato membro interessato e all'organismo di valutazione della conformità pertinente.

Emendamento 422

Proposta di regolamento

Articolo 32 — paragrafo 4 ter (nuovo)

Testo della Commissione

Emendamento

 

4 ter.     Gli Stati membri notificano alla Commissione e agli altri Stati membri gli organismi preposti alla valutazione di conformità.

Emendamento 423

Proposta di regolamento

Articolo 33 — paragrafo 2

Testo della Commissione

Emendamento

2.   Gli organismi notificati soddisfano i requisiti organizzativi, di gestione della qualità e relativi alle risorse e ai processi necessari all'assolvimento dei loro compiti.

2.   Gli organismi notificati soddisfano i requisiti organizzativi, di gestione della qualità e relativi alle risorse e ai processi necessari all'assolvimento dei loro compiti , nonché i requisiti minimi di cibersicurezza stabiliti per gli enti della pubblica amministrazione identificati come operatori di servizi essenziali a norma della direttiva (UE) 2022/2555 .

Emendamento 424

Proposta di regolamento

Articolo 33 — paragrafo 4

Testo della Commissione

Emendamento

4.   Gli organismi notificati sono indipendenti dal fornitore di un sistema di IA ad alto rischio in relazione al quale svolgono attività di valutazione della conformità. Gli organismi notificati sono inoltre indipendenti da qualsiasi altro operatore avente un interesse economico nel sistema di IA ad alto rischio oggetto della valutazione, nonché da eventuali concorrenti del fornitore.

4.   Gli organismi notificati sono indipendenti dal fornitore di un sistema di IA ad alto rischio in relazione al quale svolgono attività di valutazione della conformità. Gli organismi notificati sono inoltre indipendenti da qualsiasi altro operatore avente un interesse economico nel sistema di IA ad alto rischio oggetto della valutazione, nonché da eventuali concorrenti del fornitore. Ciò non preclude l'uso dei sistemi di IA valutati che sono necessari per il funzionamento dell'organismo di valutazione della conformità o l'uso di tali sistemi per scopi privati.

Emendamento 425

Proposta di regolamento

Articolo 33 — paragrafo 4 bis (nuovo)

Testo della Commissione

Emendamento

 

4 bis.     La valutazione della conformità a norma del paragrafo 1 è effettuata dai dipendenti di organismi notificati che non hanno prestato nessun altro servizio connesso alla questione valutata diverso dalla valutazione della conformità al fornitore di un sistema di IA ad alto rischio né a persone giuridiche collegate a tale fornitore nei 12 mesi precedenti la valutazione e si sono impegnati a non fornire tali servizi nei 12 mesi successivi al completamento della valutazione.

Emendamento 426

Proposta di regolamento

Articolo 33 — paragrafo 6

Testo della Commissione

Emendamento

6.   Gli organismi notificati dispongono di procedure documentate per garantire che il loro personale, i loro comitati, affiliate, subappaltatori e qualsiasi altra organizzazione associata o il personale di organismi esterni rispettino la riservatezza delle informazioni di cui vengono in possesso nello svolgimento delle attività di valutazione della conformità, salvo quando la legge ne prescriva la divulgazione. Il personale degli organismi notificati è tenuto a osservare il segreto professionale riguardo a tutte le informazioni ottenute nello svolgimento dei suoi compiti a norma del presente regolamento, tranne che nei confronti delle autorità di notifica dello Stato membro in cui svolge le sue attività.

6.   Gli organismi notificati dispongono di procedure documentate per garantire che il loro personale, i loro comitati, affiliate, subappaltatori e qualsiasi altra organizzazione associata o il personale di organismi esterni rispettino la riservatezza delle informazioni di cui vengono in possesso nello svolgimento delle attività di valutazione della conformità, salvo quando la legge ne prescriva la divulgazione. Il personale degli organismi notificati è tenuto a osservare il segreto professionale riguardo a tutte le informazioni ottenute nello svolgimento dei suoi compiti a norma del presente regolamento, tranne che nei confronti delle autorità di notifica dello Stato membro in cui svolge le sue attività. Qualsiasi informazione e documentazione ottenuta dagli organismi notificati a norma delle disposizioni del presente articolo è trattata nel rispetto degli obblighi di riservatezza di cui all'articolo 70.

Emendamento 427

Proposta di regolamento

Articolo 34 — paragrafo 3

Testo della Commissione

Emendamento

3.   Le attività possono essere subappaltate o eseguite da un'affiliata solo con il consenso del fornitore.

3.   Le attività possono essere subappaltate o eseguite da un'affiliata solo con il consenso del fornitore. Gli organismi notificati mettono a disposizione del pubblico un elenco delle loro affiliate.

Emendamento 428

Proposta di regolamento

Articolo 34 — paragrafo 4

Testo della Commissione

Emendamento

4.   Gli organismi notificati tengono a disposizione dell'autorità di notifica i documenti pertinenti riguardanti la valutazione delle qualifiche del subappaltatore o dell'affiliata e il lavoro da essi eseguito a norma del presente regolamento.

4.   Gli organismi notificati tengono a disposizione dell'autorità di notifica i documenti pertinenti riguardanti la verifica delle qualifiche del subappaltatore o dell'affiliata e il lavoro da essi eseguito a norma del presente regolamento.

Emendamento 429

Proposta di regolamento

Articolo 35 — titolo

Testo della Commissione

Emendamento

Numeri di identificazione e liste di organismi notificati designati a norma del presente regolamento

Numeri di identificazione e liste di organismi notificati

Emendamento 430

Proposta di regolamento

Articolo 36 — paragrafo 1

Testo della Commissione

Emendamento

1.   Qualora un'autorità di notifica sospetti o sia stata informata del fatto che un organismo notificato non soddisfa più i requisiti di cui all'articolo 33 o non adempie i suoi obblighi, tale autorità indaga senza ritardo sulla questione con la massima diligenza. In tale contesto, essa informa l'organismo notificato interessato in merito alle obiezioni sollevate e gli dà la possibilità di esprimere il suo punto di vista. Se l'autorità di notifica conclude che l'organismo notificato su cui ha condotto le indagini non soddisfa più i requisiti di cui all'articolo 33 o non adempie i suoi obblighi, tale autorità limita, sospende o ritira la notifica, a seconda dei casi, in funzione della gravità dell'inadempimento. Essa inoltre ne informa immediatamente la Commissione e gli altri Stati membri.

1.   Qualora un'autorità di notifica sospetti o sia stata informata del fatto che un organismo notificato non soddisfa più i requisiti di cui all'articolo 33 o non adempie i suoi obblighi, tale autorità indaga senza ritardo sulla questione con la massima diligenza. In tale contesto, essa informa l'organismo notificato interessato in merito alle obiezioni sollevate e gli dà la possibilità di esprimere il suo punto di vista. Se l'autorità di notifica conclude che l'organismo notificato non soddisfa più i requisiti di cui all'articolo 33 o non adempie i suoi obblighi, tale autorità limita, sospende o ritira la notifica, a seconda dei casi, in funzione della gravità dell'inadempimento. Essa inoltre ne informa immediatamente la Commissione e gli altri Stati membri.

Emendamento 431

Proposta di regolamento

Articolo 36 — paragrafo 2

Testo della Commissione

Emendamento

2.   Nei casi di limitazione, sospensione o ritiro della notifica, oppure di cessazione dell'attività dell'organismo notificato, l'autorità di notifica adotta le misure appropriate per garantire che le pratiche di tale organismo notificato siano evase da un altro organismo notificato o siano tenute a disposizione delle autorità di notifica responsabili, su loro richiesta.

2.   Nei casi di limitazione, sospensione o ritiro della notifica, oppure di cessazione dell'attività dell'organismo notificato, l'autorità di notifica adotta le misure appropriate per garantire che le pratiche di tale organismo notificato siano evase da un altro organismo notificato o siano tenute a disposizione delle autorità di notifica responsabili, nonché dell'autorità di vigilanza del mercato, su loro richiesta.

Emendamento 432

Proposta di regolamento

Articolo 37 — paragrafo 1

Testo della Commissione

Emendamento

1.   Ove necessario, la Commissione indaga su tutti i casi in cui vi siano motivi di dubitare della conformità di un organismo notificato ai requisiti di cui all'articolo 33 .

1.   Ove necessario, la Commissione indaga su tutti i casi in cui vi siano motivi di dubitare della competenza di un organismo notificato o della continua ottemperanza di un organismo notificato ai requisiti e alle responsabilità applicabili .

Emendamento 433

Proposta di regolamento

Articolo 37 — paragrafo 2

Testo della Commissione

Emendamento

2.   L'autorità di notifica fornisce alla Commissione, su richiesta, tutte le informazioni relative alla notifica dell'organismo notificato interessato.

2.   L'autorità di notifica fornisce alla Commissione, su richiesta, tutte le informazioni relative alla notifica o al mantenimento della competenza dell'organismo notificato interessato.

Emendamento 434

Proposta di regolamento

Articolo 37 — paragrafo 3

Testo della Commissione

Emendamento

3.   La Commissione provvede affinché tutte le informazioni riservate ottenute nel corso delle sue indagini a norma del presente articolo siano trattate in maniera riservata.

3.   La Commissione provvede affinché tutte le informazioni sensibili ottenute nel corso delle sue indagini a norma del presente articolo siano trattate in maniera riservata.

Emendamento 435

Proposta di regolamento

Articolo 37 — paragrafo 4

Testo della Commissione

Emendamento

4.   La Commissione, qualora accerti che un organismo notificato non soddisfa o non soddisfa più i requisiti di cui all'articolo 33 , adotta una decisione motivata con cui chiede allo Stato membro notificante di adottare le misure correttive necessarie, compreso il ritiro della notifica. Tale atto di esecuzione è adottato in conformità alla procedura d'esame di cui all'articolo 74, paragrafo 2.

4.   La Commissione, qualora accerti che un organismo notificato non soddisfa o non soddisfa più i requisiti per la sua notifica , informa di conseguenza lo Stato membro notificante e gli chiede di adottare le misure correttive necessarie compresa la sospensione o il ritiro della notifica. Se lo Stato membro non intraprende le azioni correttive necessarie, la Commissione può, mediante un atto di esecuzione, sospendere, limitare o ritirare la designazione. Tale atto di esecuzione è adottato in conformità alla procedura d'esame di cui all'articolo 74, paragrafo 2.

Emendamento 436

Proposta di regolamento

Articolo 38 — paragrafo 2 bis (nuovo)

Testo della Commissione

Emendamento

 

2 bis.     La Commissione provvede allo scambio di conoscenze e migliori prassi tra le autorità nazionali degli Stati membri responsabili della politica di notifica.

Emendamento 437

Proposta di regolamento

Articolo 40 — comma 1

Testo della Commissione

Emendamento

I sistemi di IA ad alto rischio che sono conformi alle norme armonizzate o a parti di esse i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell'Unione europea si presumono conformi ai requisiti essenziali, di cui al capo 2 del presente titolo, nella misura in cui tali requisiti sono contemplati da tali norme.

I sistemi di IA ad alto rischio e i modelli di base che sono conformi alle norme armonizzate o a parti di esse i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell'Unione europea a norma del regolamento (UE) n. 1025/2012 si presumono conformi ai requisiti essenziali, di cui al capo 2 del presente titolo o all'articolo 28 bis , nella misura in cui tali requisiti sono contemplati da tali norme.

Emendamento 438

Proposta di regolamento

Articolo 40 — comma 1 bis (nuovo)

Testo della Commissione

Emendamento

 

La Commissione presenta richieste di normazione che contemplano tutti i requisiti del presente regolamento conformemente all'articolo 10 del regolamento (UE) n. 1025/2012 entro … [due mesi dalla data di entrata in vigore del presente regolamento]. In sede di preparazione della richiesta di normazione, la Commissione consulta l'ufficio per l'IA e il forum consultivo.

Emendamento 439

Proposta di regolamento

Articolo 40 — comma 1 ter (nuovo)

Testo della Commissione

Emendamento

 

Nel presentare una richiesta di normazione alle organizzazioni europee di normazione, la Commissione specifica che le norme devono essere coerenti, anche con il diritto settoriale di cui all'allegato II, e volte a garantire che i sistemi di IA o i modelli di base immessi sul mercato o messi in servizio nell'Unione soddisfino i pertinenti requisiti di cui al presente regolamento.

Emendamento 440

Proposta di regolamento

Articolo 40 — comma 1 quater (nuovo)

Testo della Commissione

Emendamento

 

Gli attori coinvolti nel processo di normazione tengono conto dei principi generali per un'IA affidabile di cui all'articolo 4, lettera a), cercano di promuovere gli investimenti e l'innovazione nell'IA nonché la competitività e la crescita del mercato dell'Unione e contribuiscono a intensificare la cooperazione globale in materia di normazione e a tenere conto delle norme internazionali esistenti nel settore dell'IA che sono coerenti con i valori, i diritti e gli interessi fondamentali dell'Unione nonché garantiscono una rappresentanza equilibrata degli interessi e l'effettiva partecipazione di tutti i portatori di interessi coinvolti a norma degli articoli 5, 6 e 7 del regolamento (UE) n. 1025/2012.

Emendamento 441

Proposta di regolamento

Articolo 41 — paragrafo 1

Testo della Commissione

Emendamento

1.     Qualora non esistano norme armonizzate di cui all'articolo 40 o la Commissione ritenga che le norme armonizzate pertinenti siano insufficienti o che vi sia la necessità di rispondere a specifiche preoccupazioni in materia di sicurezza o di diritti fondamentali, la Commissione può, mediante atti di esecuzione, adottare specifiche comuni in relazione ai requisiti di cui al capo 2 del presente titolo. Tali atti di esecuzione sono adottati in conformità alla procedura d'esame di cui all'articolo 74, paragrafo 2.

soppresso

Emendamento 442

Proposta di regolamento

Articolo 41 — paragrafo 1 bis (nuovo)

Testo della Commissione

Emendamento

 

1 bis.     La Commissione, mediante atti di esecuzione adottati secondo la procedura d'esame di cui all'articolo 74, paragrafo 2, e previa consultazione dell'ufficio per l'IA e del foro consultivo per l'IA, può adottare specifiche comuni riguardo ai requisiti di cui al capo 2 del presente titolo o all'articolo 28 ter se sono soddisfatte tutte le seguenti condizioni:

 

a)

non vi è alcun riferimento a norme armonizzate già pubblicate nella Gazzetta ufficiale dell'Unione europea in relazione ai requisiti essenziali, a meno che la norma armonizzata in questione non sia una norma esistente che deve essere rivista;

 

b)

la Commissione ha chiesto a una o più organizzazioni europee di normazione di elaborare una norma armonizzata per i requisiti essenziali di cui al capo 2;

 

c)

la richiesta di cui alla lettera B) non è stata accettata da alcuna delle organizzazioni europee di normazione o vi sono indebiti ritardi nella definizione di una norma armonizzata appropriata o la norma fornita non soddisfa i requisiti del pertinente diritto dell'Unione o non è conforme alla richiesta della Commissione.

Emendamento 443

Proposta di regolamento

Articolo 41 — paragrafo 1 ter (nuovo)

Testo della Commissione

Emendamento

 

1 ter.     Ove la Commissione ritenga necessario venire incontro a determinate preoccupazioni in materia di diritti fondamentali, le specifiche comuni adottate dalla Commissione a norma del paragrafo 1 bis trattano anche tali preoccupazioni specifiche in materia di diritti fondamentali.

Emendamento 444

Proposta di regolamento

Articolo 41 — paragrafo 1 quater (nuovo)

Testo della Commissione

Emendamento

 

1 quater.     La Commissione elabora specifiche comuni per la metodologia intesa ad adempiere all'obbligo di comunicazione e documentazione sul consumo di energia e di risorse durante lo sviluppo, l'addestramento e la diffusione del sistema di IA ad alto rischio.

Emendamento 445

Proposta di regolamento

Articolo 41 — paragrafo 2

Testo della Commissione

Emendamento

2.    Nel preparare le specifiche comuni di cui al paragrafo 1, la Commissione raccoglie i pareri dei pertinenti organismi o gruppi di esperti istituiti a norma del pertinente diritto settoriale dell'Unione.

2.    Durante l'intero processo di elaborazione delle specifiche comuni di cui ai paragrafi 1 bis e ter , la Commissione consulta regolarmente l'ufficio per l'IA e il forum consultivo, le organizzazioni e gli organismi europei di normazione i gruppi di esperti istituiti a norma del pertinente diritto settoriale dell'Unione , nonché altre parti interessate coinvolte . La Commissione persegue gli obiettivi di cui all'articolo 40, paragrafo 1 quater e motiva debitamente la sua decisione di ricorrere a specifiche comuni.

 

Se intende adottare specifiche comuni a norma del paragrafo 1 bis del presente articolo, la Commissione individua chiaramente anche le preoccupazioni specifiche in materia di diritti fondamentali da trattare.

 

In sede di adozione di specifiche comuni a norma dei paragrafi 1 bis e 1 ter del presente articolo, la Commissione tiene conto del parere emesso dall'ufficio per l'IA di cui all'articolo 56 sexies, lettera b), del presente regolamento. Se decide di non seguire il parere dell'ufficio per l'IA, la Commissione ne fornisce una spiegazione motivata a quest'ultimo.

Emendamento 446

Proposta di regolamento

Articolo 41 — paragrafo 3

Testo della Commissione

Emendamento

3.   I sistemi di IA ad alto rischio conformi alle specifiche comuni di cui al paragrafo 1 si presumono conformi ai requisiti di cui al capo 2 del presente titolo, nella misura in cui tali requisiti sono contemplati da tali specifiche comuni.

3.   I sistemi di IA ad alto rischio conformi alle specifiche comuni di cui ai paragrafi bis e 1 ter si presumono conformi ai requisiti di cui al capo 2 del presente titolo, nella misura in cui tali requisiti sono contemplati da tali specifiche comuni.

Emendamento 447

Proposta di regolamento

Articolo 41 — paragrafo 3 bis (nuovo)

Testo della Commissione

Emendamento

 

3 bis.     Qualora una norma armonizzata sia adottata da un organismo europeo di normazione e proposta alla Commissione per la pubblicazione del suo riferimento nella Gazzetta ufficiale dell'Unione europea, la Commissione valuta la norma armonizzata conformemente al regolamento (UE) n. 1025/2012. Quando un riferimento a una norma armonizzata è pubblicato nella Gazzetta ufficiale dell'Unione europea, la Commissione abroga gli atti di cui ai paragrafi 1 e 1 ter, o le parti di tali atti che riguardano gli stessi requisiti di cui al capo 2 del presente titolo.

Emendamento 448

Proposta di regolamento

Articolo 41 — paragrafo 4

Testo della Commissione

Emendamento

4.   Qualora non rispettino le specifiche comuni di cui al paragrafo 1, i fornitori adottano soluzioni tecniche debitamente motivate che sono almeno equivalenti .

4.   Qualora non rispettino le specifiche comuni di cui al paragrafo 1, i fornitori di sistemi di IA ad alto rischio adottano soluzioni tecniche debitamente motivate che soddisfano i requisiti di cui al capo II a un livello almeno equivalente .

Emendamento 449

Proposta di regolamento

Articolo 42 — paragrafo 1

Testo della Commissione

Emendamento

1.   Tenendo conto della loro finalità prevista, i sistemi di IA ad alto rischio che sono stati addestrati e sottoposti a prova con dati concernenti il contesto geografico, comportamentale e funzionale specifico all'interno del quale sono destinati a essere usati si presumono conformi al requisito di cui all'articolo 10, paragrafo 4.

1.   Tenendo conto della loro finalità prevista, i sistemi di IA ad alto rischio che sono stati addestrati e sottoposti a prova con dati concernenti il contesto geografico, comportamentale , contestuale e funzionale specifico all'interno del quale sono destinati a essere usati si presumono conformi ai rispettivi requisiti di cui all'articolo 10, paragrafo 4.

Emendamento 450

Proposta di regolamento

Articolo 43 — paragrafo 1 — parte introduttiva

Testo della Commissione

Emendamento

1.   Per i sistemi di IA ad alto rischio elencati nell'allegato III, punto 1, se ha applicato le norme armonizzate di cui all'articolo 40 o, ove applicabile, le specifiche comuni di cui all'articolo 41 nel dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo, il fornitore segue una delle procedure seguenti:

1.   Per i sistemi di IA ad alto rischio elencati nell'allegato III, punto 1, se ha applicato le norme armonizzate di cui all'articolo 40 o, ove applicabile, le specifiche comuni di cui all'articolo 41 nel dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo, il fornitore sceglie una delle procedure seguenti:

Emendamento 451

Proposta di regolamento

Articolo 43 — paragrafo 1 — lettera a

Testo della Commissione

Emendamento

a)

la procedura di valutazione della conformità basata sul controllo interno di cui all'allegato VI;

a)

la procedura di valutazione della conformità basata sul controllo interno di cui all'allegato VI o

Emendamento 452

Proposta di regolamento

Articolo 43 — paragrafo 1 — lettera b

Testo della Commissione

Emendamento

b)

la procedura di valutazione della conformità basata sulla valutazione del sistema di gestione della qualità e  sulla valutazione della documentazione tecnica, con il coinvolgimento di un organismo notificato, di cui all'allegato VII.

b)

la procedura di valutazione della conformità basata sulla valutazione del sistema di gestione della qualità e della documentazione tecnica, con il coinvolgimento di un organismo notificato, di cui all'allegato VII.

Emendamento 453

Proposta di regolamento

Articolo 43 — paragrafo 1 — comma 2

Testo della Commissione

Emendamento

Se non ha applicato o ha applicato solo in parte le norme armonizzate di cui all'articolo 40 nel dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo, o se tali norme armonizzate non esistono e non sono disponibili le specifiche comuni di cui all'articolo 41, il fornitore segue la procedura di valutazione della conformità di cui all'allegato VII.

Nel dimostrare la conformità di un sistema di IA ad alto rischio ai requisiti di cui al capo 2 del presente titolo, il fornitore segue la procedura di valutazione della conformità di cui all'allegato VII nei seguenti casi:

 

a)

qualora non esistano norme armonizzate di cui all'articolo 40, i cui riferimenti siano stati pubblicati nella Gazzetta ufficiale dell’Unione europea, riguardanti tutti i requisiti di sicurezza del sistema di IA e non siano disponibili le specifiche comuni di cui all'articolo 41;

 

b)

qualora esistano le specifiche tecniche di cui alla lettera a), ma il fornitore non le ha applicate o le ha applicate soltanto in parte;

 

c)

qualora una o più specifiche tecniche di cui alla lettera a) sono state pubblicate con una limitazione e soltanto sulla parte della norma che è oggetto di limitazione;

 

d)

qualora il fornitore ritenga che la natura, la progettazione, la costruzione o la destinazione del sistema di IA richiedano il ricorso alla verifica da parte di terzi a prescindere dal grado di rischio.

Emendamento 454

Proposta di regolamento

Articolo 43 — paragrafo 1 — comma 3

Testo della Commissione

Emendamento

Ai fini della procedura di valutazione della conformità di cui all'allegato VII, il fornitore può scegliere uno qualsiasi degli organismi notificati. Tuttavia, quando il sistema è destinato ad essere messo in servizio dalle autorità di contrasto, dalle autorità competenti in materia di immigrazione o di asilo, nonché da istituzioni, organismi o agenzie dell'UE, l'autorità di vigilanza del mercato di cui all'articolo 63, paragrafo 5 o 6, a seconda dei casi, agisce in qualità di organismo notificato.

Ai fini dello svolgimento della procedura di valutazione della conformità di cui all'allegato VII, il fornitore può scegliere uno qualsiasi degli organismi notificati. Tuttavia, quando il sistema è destinato ad essere messo in servizio dalle autorità di contrasto, dalle autorità competenti in materia di immigrazione o di asilo, nonché da istituzioni, organismi o agenzie dell'UE, l'autorità di vigilanza del mercato di cui all'articolo 63, paragrafo 5 o 6, a seconda dei casi, agisce in qualità di organismo notificato.

Emendamento 455

Proposta di regolamento

Articolo 43 — paragrafo 4 — comma 1

Testo della Commissione

Emendamento

4.   I sistemi di IA ad alto rischio sono sottoposti a una nuova procedura di valutazione della conformità dopo ogni modifica sostanziale, indipendentemente dal fatto che il sistema modificato sia destinato a essere ulteriormente distribuito o continui a essere usato dall'utente attuale.

4.   I sistemi di IA ad alto rischio che sono già stati oggetto di una procedura di valutazione della conformità sono sottoposti a una nuova procedura di valutazione della conformità dopo ogni modifica sostanziale, indipendentemente dal fatto che il sistema modificato sia destinato a essere ulteriormente distribuito o continui a essere usato dall'operatore attuale.

Emendamento 456

Proposta di regolamento

Articolo 43 — paragrafo 4 bis (nuovo)

Testo della Commissione

Emendamento

 

4 bis.     Nel fissare le tariffe per la valutazione della conformità da parte di terzi a norma del presente articolo si tiene conto degli interessi e delle esigenze specifici delle PMI, riducendo tali tariffe proporzionalmente alle loro dimensioni e alle dimensioni della loro quota di mercato.

Emendamento 457

Proposta di regolamento

Articolo 43 — paragrafo 5

Testo della Commissione

Emendamento

5.   Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73 al fine di aggiornare gli allegati VI e VII per introdurre elementi delle procedure di valutazione della conformità che divengano necessari alla luce del progresso tecnico.

5.   Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73 al fine di aggiornare gli allegati VI e VII per introdurre elementi delle procedure di valutazione della conformità che divengano necessari alla luce del progresso tecnico. In sede di preparazione di tali atti delegati, la Commissione consulta l'ufficio per l'IA e le parti interessate coinvolte.

Emendamento 458

Proposta di regolamento

Articolo 43 — paragrafo 6

Testo della Commissione

Emendamento

6.   Alla Commissione è conferito il potere di adottare atti delegati al fine di modificare i paragrafi 1 e 2 per assoggettare i sistemi di IA ad alto rischio di cui all'allegato III, punti da 2 a 8, alla procedura di valutazione della conformità di cui all'allegato VII o a parti di essa. La Commissione adotta tali atti delegati tenendo conto dell'efficacia della procedura di valutazione della conformità basata sul controllo interno di cui all'allegato VI nel prevenire o ridurre al minimo i rischi per la salute, la sicurezza e la protezione dei diritti fondamentali posti da tali sistemi, nonché della disponibilità di capacità e risorse adeguate tra gli organismi notificati.

6.   Alla Commissione è conferito il potere di adottare atti delegati al fine di modificare i paragrafi 1 e 2 per assoggettare i sistemi di IA ad alto rischio di cui all'allegato III, punti da 2 a 8, alla procedura di valutazione della conformità di cui all'allegato VII o a parti di essa. La Commissione adotta tali atti delegati tenendo conto dell'efficacia della procedura di valutazione della conformità basata sul controllo interno di cui all'allegato VI nel prevenire o ridurre al minimo i rischi per la salute, la sicurezza e la protezione dei diritti fondamentali posti da tali sistemi, nonché della disponibilità di capacità e risorse adeguate tra gli organismi notificati. In sede di preparazione di tali atti delegati, la Commissione consulta l'ufficio per l'IA e le parti interessate coinvolte.

Emendamento 459

Proposta di regolamento

Articolo 44 — paragrafo 1

Testo della Commissione

Emendamento

1.   I certificati rilasciati dagli organismi notificati a norma dell'allegato VII sono redatti in una delle lingue ufficiali dell'Unione scelta dallo Stato membro in cui è stabilito l'organismo notificato oppure in una lingua ufficiale dell'Unione altrimenti accettabile per l'organismo notificato.

1.   I certificati rilasciati dagli organismi notificati a norma dell'allegato VII sono redatti in una o più lingue ufficiali dell'Unione scelte dallo Stato membro in cui è stabilito l'organismo notificato oppure in una o più lingue ufficiali altrimenti accettabili per l'organismo notificato.

Emendamento 460

Proposta di regolamento

Articolo 44 — paragrafo 2

Testo della Commissione

Emendamento

2.   I certificati sono validi per il periodo in essi indicato, che non può superare i  cinque anni. Su domanda del fornitore, la validità di un certificato può essere prorogata per ulteriori periodi, ciascuno non superiore a  cinque anni, sulla base di una nuova valutazione secondo le procedure di valutazione della conformità applicabili.

2.   I certificati sono validi per il periodo in essi indicato, che non può superare i  quattro anni. Su domanda del fornitore, la validità di un certificato può essere prorogata per ulteriori periodi, ciascuno non superiore a  quattro anni, sulla base di una nuova valutazione secondo le procedure di valutazione della conformità applicabili.

Emendamento 461

Proposta di regolamento

Articolo 44 — paragrafo 3

Testo della Commissione

Emendamento

3.   Qualora constati che il sistema di IA non soddisfa più i requisiti di cui al capo 2 del presente titolo, l'organismo notificato , tenendo conto del principio di proporzionalità, sospende o ritira il certificato rilasciato o impone limitazioni, a meno che la conformità a tali requisiti sia garantita mediante opportune misure correttive adottate dal fornitore del sistema entro un termine adeguato stabilito dall'organismo notificato. L'organismo notificato motiva la propria decisione.

3.   Qualora constati che il sistema di IA non soddisfa più i requisiti di cui al capo 2 del presente titolo, l'organismo notificato sospende o ritira il certificato rilasciato o impone limitazioni, a meno che la conformità a tali requisiti sia garantita mediante opportune misure correttive adottate dal fornitore del sistema entro un termine adeguato stabilito dall'organismo notificato. L'organismo notificato motiva la propria decisione.

Emendamento 462

Proposta di regolamento

Articolo 45 — comma 1

Testo della Commissione

Emendamento

Gli Stati membri provvedono affinché una procedura di ricorso contro le decisioni degli organismi notificati sia messa a disposizione delle parti aventi un interesse legittimo in tali decisioni.

Gli Stati membri provvedono affinché una procedura di ricorso contro le decisioni degli organismi notificati , anche sui certificati di conformità rilasciati, sia messa a disposizione delle parti aventi un interesse legittimo in tali decisioni.

Emendamento 463

Proposta di regolamento

Articolo 46 — paragrafo 3

Testo della Commissione

Emendamento

3.   Ciascun organismo notificato fornisce agli altri organismi notificati che svolgono attività simili di valutazione della conformità riguardanti le stesse tecnologie di intelligenza artificiale informazioni pertinenti su questioni relative ai risultati negativi e, su richiesta, positivi della valutazione della conformità.

3.   Ciascun organismo notificato fornisce agli altri organismi notificati che svolgono attività simili di valutazione della conformità informazioni pertinenti su questioni relative ai risultati negativi e, su richiesta, positivi della valutazione della conformità.

Emendamento 464

Proposta di regolamento

Articolo 47 — paragrafo 1

Testo della Commissione

Emendamento

1.   In deroga all'articolo 43, qualsiasi autorità di vigilanza del mercato può autorizzare l'immissione sul mercato o la messa in servizio di specifici sistemi di IA ad alto rischio nel territorio dello Stato membro interessato, per motivi eccezionali di sicurezza pubblica o di protezione della vita e della salute delle persone e di protezione dell'ambiente e  dei principali beni industriali e infrastrutturali . Tale autorizzazione è valida per un periodo di tempo limitato, mentre sono in corso le necessarie procedure di valutazione della conformità, e termina una volta completate tali procedure. Il completamento di tali procedure è effettuato senza indebito ritardo.

1.   In deroga all'articolo 43, qualsiasi autorità nazionale di controllo può chiedere a un'autorità giudiziaria di autorizzare l'immissione sul mercato o la messa in servizio di specifici sistemi di IA ad alto rischio nel territorio dello Stato membro interessato, per motivi eccezionali di protezione della vita e della salute delle persone e di protezione dell'ambiente e  delle infrastrutture critiche . Tale autorizzazione è valida per un periodo di tempo limitato, mentre sono in corso le necessarie procedure di valutazione della conformità, e termina una volta completate tali procedure. Il completamento di tali procedure è effettuato senza indebito ritardo.

Emendamento 465

Proposta di regolamento

Articolo 47 — paragrafo 2

Testo della Commissione

Emendamento

2.   L'autorizzazione di cui al paragrafo 1 è rilasciata solo se l'autorità di vigilanza del mercato conclude che il sistema di IA ad alto rischio è conforme ai requisiti di cui al capo 2 del presente titolo. L'autorità di vigilanza del mercato informa la Commissione e gli altri Stati membri di eventuali autorizzazioni rilasciate a norma del paragrafo 1.

2.   L'autorizzazione di cui al paragrafo 1 è rilasciata solo se l'autorità nazionale di controllo e l'autorità giudiziaria concludono che il sistema di IA ad alto rischio è conforme ai requisiti di cui al capo 2 del presente titolo. L'autorità nazionale di controllo informa la Commissione , l'ufficio per l'IA e gli altri Stati membri di eventuali richieste presentate e successive autorizzazioni rilasciate a norma del paragrafo 1.

Emendamento 466

Proposta di regolamento

Articolo 47 — paragrafo 3

Testo della Commissione

Emendamento

3.   Se, entro 15 giorni di calendario dal ricevimento dell'informazione di cui al paragrafo 2, né gli Stati membri né la Commissione sollevano obiezioni in merito a un'autorizzazione rilasciata da un'autorità di vigilanza del mercato di uno Stato membro in conformità al paragrafo 1, tale autorizzazione è considerata giustificata.

3.   Se, entro 15 giorni di calendario dal ricevimento dell'informazione di cui al paragrafo 2, né gli Stati membri né la Commissione sollevano obiezioni in merito alla richiesta dell'autorità nazionale di controllo relativa a un'autorizzazione rilasciata da un'autorità nazionale di controllo di uno Stato membro in conformità al paragrafo 1, tale autorizzazione è considerata giustificata.

Emendamento 467

Proposta di regolamento

Articolo 47 — paragrafo 4

Testo della Commissione

Emendamento

4.   Se, entro 15 giorni di calendario dal ricevimento della notifica di cui al paragrafo 2, uno Stato membro solleva obiezioni in merito a  un'autorizzazione rilasciata da un'autorità di vigilanza del mercato di un altro Stato membro, o se la Commissione ritiene che l'autorizzazione sia contraria al diritto dell'Unione o che la conclusione degli Stati membri riguardante la conformità del sistema di cui al paragrafo 2 sia infondata, la Commissione avvia senza ritardo consultazioni con lo Stato membro interessato; l'operatore o gli operatori interessati sono consultati e hanno la possibilità di esprimere il loro parere. In seguito a tale consultazione la Commissione decide se l'autorizzazione è giustificata o meno. La Commissione trasmette la propria decisione allo Stato membro interessato e all'operatore o agli operatori pertinenti.

4.   Se, entro 15 giorni di calendario dal ricevimento della notifica di cui al paragrafo 2, uno Stato membro solleva obiezioni in merito a  una richiesta formulata da un'autorità nazionale di controllo di un altro Stato membro, o se la Commissione ritiene che l'autorizzazione sia contraria al diritto dell'Unione o che la conclusione degli Stati membri riguardante la conformità del sistema di cui al paragrafo 2 sia infondata, la Commissione avvia senza ritardo consultazioni con lo Stato membro interessato e l'ufficio per l'IA ; l'operatore o gli operatori interessati sono consultati e hanno la possibilità di esprimere il loro parere. In seguito a tale consultazione la Commissione decide se l'autorizzazione è giustificata o meno. La Commissione trasmette la propria decisione allo Stato membro interessato e all'operatore o agli operatori pertinenti.

Emendamento 468

Proposta di regolamento

Articolo 47 — paragrafo 5

Testo della Commissione

Emendamento

5.   Se l'autorizzazione è ritenuta ingiustificata, essa è ritirata dall'autorità di vigilanza del mercato dello Stato membro interessato.

5.   Se l'autorizzazione è ritenuta ingiustificata, essa è ritirata dall'autorità nazionale di controllo dello Stato membro interessato.

Emendamento 469

Proposta di regolamento

Articolo 48 — paragrafo 1

Testo della Commissione

Emendamento

1.   Il fornitore compila una dichiarazione scritta di conformità UE per ciascun sistema di IA e la tiene a disposizione delle autorità nazionali competenti per dieci anni dalla data in cui il sistema di IA è stato immesso sul mercato. La dichiarazione di conformità UE identifica il sistema di IA per il quale è stata redatta. Su richiesta, una copia della dichiarazione di conformità UE è messa a disposizione delle pertinenti autorità nazionali competenti.

1.   Il fornitore compila una dichiarazione scritta di conformità UE leggibile meccanicamente fisica o elettronica per ciascun sistema di IA ad alto rischio e la tiene a disposizione dell'autorità nazionale di controllo e delle pertinenti autorità nazionali competenti per dieci anni dalla data in cui il sistema di IA ad alto rischio è stato immesso sul mercato. Su richiesta, una copia della dichiarazione di conformità UE è sottoposta all'autorità nazionale di controllo e alle pertinenti autorità nazionali competenti.

Emendamento 470

Proposta di regolamento

Articolo 48 — paragrafo 2

Testo della Commissione

Emendamento

2.   La dichiarazione di conformità UE attesta che il sistema di IA ad alto rischio in questione soddisfa i requisiti di cui al capo 2 del presente titolo. La dichiarazione di conformità UE riporta come minimo le informazioni di cui all'allegato V ed è tradotta in una lingua o nelle lingue ufficiali dell'Unione richieste dallo Stato membro nel quale il sistema di IA ad alto rischio è messo a disposizione.

2.   La dichiarazione di conformità UE attesta che il sistema di IA ad alto rischio in questione soddisfa i requisiti di cui al capo 2 del presente titolo. La dichiarazione di conformità UE riporta come minimo le informazioni di cui all'allegato V ed è tradotta in una lingua o nelle lingue ufficiali dell'Unione richieste dallo Stato membro nel quale il sistema di IA ad alto rischio è immesso sul mercato o messo a disposizione.

Emendamento 471

Proposta di regolamento

Articolo 48 — paragrafo 3

Testo della Commissione

Emendamento

3.   Qualora i sistemi di IA ad alto rischio siano soggetti ad altre normative di armonizzazione dell'Unione che richiedano anch'esse una dichiarazione di conformità UE, è redatta un'unica dichiarazione di conformità UE in relazione a tutte le normative dell'Unione applicabili al sistema di IA ad alto rischio. La dichiarazione contiene tutte le informazioni necessarie per identificare la normativa di armonizzazione dell'Unione cui si riferisce la dichiarazione.

3.   Qualora i sistemi di IA ad alto rischio siano soggetti ad altre normative di armonizzazione dell'Unione che richiedano anch'esse una dichiarazione di conformità UE, può essere redatta un'unica dichiarazione di conformità UE in relazione a tutte le normative dell'Unione applicabili al sistema di IA ad alto rischio. La dichiarazione contiene tutte le informazioni necessarie per identificare la normativa di armonizzazione dell'Unione cui si riferisce la dichiarazione.

Emendamento 472

Proposta di regolamento

Articolo 48 — paragrafo 5

Testo della Commissione

Emendamento

5.   Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73 al fine di aggiornare il contenuto della dichiarazione di conformità UE di cui all'allegato V per introdurre elementi che si rendano necessari alla luce del progresso tecnico.

5.    Previa consultazione dell'ufficio per l'IA, alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73 al fine di aggiornare il contenuto della dichiarazione di conformità UE di cui all'allegato V per introdurre elementi che si rendano necessari alla luce del progresso tecnico.

Emendamento 473

Proposta di regolamento

Articolo 49 — paragrafo 1

Testo della Commissione

Emendamento

1.   La marcatura CE è apposta sul sistema di IA ad alto rischio in modo visibile, leggibile e indelebile. Qualora ciò sia impossibile o difficilmente realizzabile a causa della natura del sistema di IA ad alto rischio, il marchio è apposto sull'imballaggio o sui documenti di accompagnamento, a seconda dei casi.

1.   La marcatura fisica CE è apposta sul sistema di IA ad alto rischio in modo visibile, leggibile e indelebile prima della sua immissione sul mercato . Qualora ciò sia impossibile o difficilmente realizzabile a causa della natura del sistema di IA ad alto rischio, il marchio è apposto sull'imballaggio o sui documenti di accompagnamento, a seconda dei casi. Può essere seguita da un pittogramma o da qualsiasi altra marcatura che indichi un rischio di uso particolare.

Emendamento 474

Proposta di regolamento

Articolo 49 — paragrafo 1 bis (nuovo)

Testo della Commissione

Emendamento

 

1 bis.     Per i sistemi di IA ad alto rischio esclusivamente digitali è utilizzata una marcatura CE digitale soltanto se è facilmente accessibile attraverso l'interfaccia da cui si accede al sistema di IA o tramite un codice leggibile meccanicamente o altri mezzi elettronici facilmente accessibili.

Emendamento 475

Proposta di regolamento

Articolo 49 — paragrafo 3

Testo della Commissione

Emendamento

3.   Ove applicabile, la marcatura CE è seguita dal numero di identificazione dell'organismo notificato responsabile delle procedure di valutazione della conformità di cui all'articolo 43. Il numero d'identificazione è inoltre indicato in tutto il materiale promozionale in cui si afferma che il sistema di IA ad alto rischio soddisfa i requisiti per la marcatura CE.

3.   Ove applicabile, la marcatura CE è seguita dal numero di identificazione dell'organismo notificato responsabile delle procedure di valutazione della conformità di cui all'articolo 43. Il numero di identificazione dell'organismo notificato è apposto dall'organismo stesso o, in base alle istruzioni di quest'ultimo dal mandatario del fornitore. Il numero d'identificazione è inoltre indicato in tutto il materiale promozionale in cui si afferma che il sistema di IA ad alto rischio soddisfa i requisiti per la marcatura CE.

Emendamento 476

Proposta di regolamento

Articolo 49 — paragrafo 3 bis (nuovo)

Testo della Commissione

Emendamento

 

3 bis.     Se i sistemi di IA ad alto rischio sono disciplinati da altre normative dell'Unione che prevedono anch'esse l'apposizione della marcatura CE, quest'ultima indica che i sistemi di IA ad alto rischio soddisfano anche i requisiti delle altre normative in questione.

Emendamento 477

Proposta di regolamento

Articolo 50 — comma 1 — parte introduttiva

Testo della Commissione

Emendamento

Il fornitore, per un periodo che termina 10 anni dopo che il sistema di IA è stato immesso sul mercato o messo in servizio, tiene a disposizione delle autorità nazionali competenti:

Il fornitore, per un periodo che termina 10 anni dopo che il sistema di IA è stato immesso sul mercato o messo in servizio, tiene a disposizione dell'autorità nazionale di controllo e delle autorità nazionali competenti:

Emendamento 478

Proposta di regolamento

Articolo 51 — comma 1

Testo della Commissione

Emendamento

Prima di immettere sul mercato o mettere in servizio un sistema di IA ad alto rischio di cui all'articolo 6, paragrafo 2, il fornitore o, ove applicabile, il rappresentante autorizzato registra tale sistema nella banca dati dell'UE di cui all'articolo 60.

Prima di immettere sul mercato o mettere in servizio un sistema di IA ad alto rischio di cui all'articolo 6, paragrafo 2, il fornitore o, ove applicabile, il rappresentante autorizzato registra tale sistema nella banca dati dell'UE di cui all'articolo 60 , conformemente all'articolo 60, paragrafo 2 .

Emendamento 479

Proposta di regolamento

Articolo 51 — comma 1 bis (nuovo)

Testo della Commissione

Emendamento

 

Prima di mettere in servizio o utilizzare un sistema di IA ad alto rischio a norma dell'articolo 6, paragrafo 2, registrano l'uso di quel sistema di IA nella banca dati dell'UE di cui all'articolo 60 le seguenti categorie di operatori:

 

a)

gli operatori che sono autorità pubbliche o istituzioni, organi, uffici o agenzie dell'Unione od operatori che agiscono per loro conto;

 

b)

operatori che sono imprese designate come gatekeeper a norma del regolamento (UE) 2022/1925.

Emendamento 480

Proposta di regolamento

Articolo 51 — comma 1 ter (nuovo)

Testo della Commissione

Emendamento

 

Gli operatori che non rientrano nell'ambito di applicazione del comma 1 bis hanno il diritto di registrare volontariamente l'uso di un sistema di IA ad alto rischio citata nell'articolo 6, paragrafo 2, nella banca dati dell'UE di cui all'articolo 60.

Emendamento 481

Proposta di regolamento

Articolo 51 — comma 1 quater (nuovo)

Testo della Commissione

Emendamento

 

Una registrazione aggiornata deve essere completata immediatamente dopo ogni modifica sostanziale.

Emendamento 482

Proposta di regolamento

Titolo IV

Testo della Commissione

Emendamento

OBBLIGHI DI TRASPARENZA PER DETERMINATI SISTEMI DI IA

OBBLIGHI DI TRASPARENZA

Emendamento 483

Proposta di regolamento

Articolo 52 — titolo

Testo della Commissione

Emendamento

Obblighi di trasparenza per determinati sistemi di IA

Obblighi di trasparenza

Emendamento 484

Proposta di regolamento

Articolo 52 — paragrafo 1

Testo della Commissione

Emendamento

1.   I fornitori garantiscono che i sistemi di IA destinati a interagire con le persone fisiche siano progettati e sviluppati in modo tale che le persone fisiche siano informate del fatto di stare interagendo con un sistema di IA, a meno che ciò non risulti evidente dalle circostanze e dal contesto di utilizzo. Tale obbligo non si applica ai sistemi di IA autorizzati dalla legge per accertare, prevenire, indagare e perseguire reati , a meno che tali sistemi non siano a disposizione del pubblico per segnalare un reato .

1.   I fornitori garantiscono che i sistemi di IA destinati a interagire con le persone fisiche siano progettati e sviluppati in modo tale che il sistema di IA, il fornitore stesso o l'utente informino in modo tempestivo, chiaro e comprensibile la persona fisica esposta a un sistema di IA del fatto di stare interagendo con un sistema di IA , a meno che ciò non risulti evidente dalle circostanze e dal contesto di utilizzo .

 

Ove opportuno e pertinente, tali informazioni specificano anche quali funzioni sono consentite dall'IA, se vi è una sorveglianza umana e chi è responsabile del processo decisionale, nonché i diritti e i processi esistenti che, conformemente al diritto dell'Unione e nazionale, consentono alle persone fisiche o ai loro rappresentanti di opporsi all'applicazione di tali sistemi nei loro confronti e di presentare ricorso per via giudiziaria contro le decisioni adottate dai sistemi di IA o i danni da essi causati, compreso il loro diritto di chiedere una spiegazione. Tale obbligo non si applica ai sistemi di IA autorizzati dalla legge per accertare, prevenire, indagare e perseguire reati, a meno che tali sistemi non siano a disposizione del pubblico per segnalare un reato.

Emendamento 485

Proposta di regolamento

Articolo 52 — paragrafo 2

Testo della Commissione

Emendamento

2.   Gli utenti di un sistema di riconoscimento delle emozioni o di un sistema di categorizzazione biometrica informano le persone fisiche che vi sono esposte in merito al funzionamento del sistema. Tale obbligo non si applica ai sistemi di IA utilizzati per la categorizzazione biometrica, che sono autorizzati dalla legge per accertare, prevenire e indagare reati.

2.   Gli utenti di un sistema di riconoscimento delle emozioni o di un sistema di categorizzazione biometrica non vietato a norma dell'articolo 5 informano in modo tempestivo, chiaro e comprensibile le persone fisiche che vi sono esposte in merito al funzionamento del sistema e ottengono il loro consenso prima del trattamento dei loro dati biometrici e di altri dati personali in conformità del regolamento (UE) 2016/679, del regolamento (UE) 2016/1725 e della direttiva (UE) 2016/280, a seconda dei casi . Tale obbligo non si applica ai sistemi di IA utilizzati per la categorizzazione biometrica, che sono autorizzati dalla legge per accertare, prevenire e indagare reati.

Emendamento 486

Proposta di regolamento

Articolo 52 — paragrafo 3 — comma 1

Testo della Commissione

Emendamento

3.   Gli utenti di un sistema di IA che genera o manipola immagini o contenuti audio o  video che assomigliano notevolmente a persone , oggetti, luoghi o altre entità o eventi esistenti e che potrebbero apparire falsamente autentici o veritieri per una persona («deep fake») sono tenuti a rendere noto che il contenuto è stato generato o manipolato artificialmente.

3.   Gli utenti di un sistema di IA che genera o manipola testi o contenuti audio o  visivi che potrebbero apparire falsamente autentici o veritieri e che rappresentano persone che sembrano dire cose che non hanno detto o compiere atti che non hanno commesso, senza il loro consenso («deep fake»), sono tenuti a rendere noto in modo adeguato, tempestivo, chiaro e visibile che il contenuto è stato generato o manipolato artificialmente nonché, ove possibile, il nome della persona fisica o giuridica che li ha generati o manipolati. A tal fine, i contenuti sono etichettati in modo tale da segnalare il loro carattere non autentico in maniera chiaramente visibile alle persone cui sono destinati. Per etichettare i contenuti, gli utenti tengono conto dello stato dell'arte generalmente riconosciuto e delle pertinenti norme e specifiche armonizzate.

Emendamento 487

Proposta di regolamento

Articolo 52 — paragrafo 3 — comma 2

Testo della Commissione

Emendamento

Tuttavia il primo comma non si applica se l'uso è autorizzato dalla legge per accertare, prevenire, indagare e perseguire reati o se è necessario per l'esercizio del diritto alla libertà di espressione e del diritto alla libertà delle arti e delle scienze garantito dalla Carta dei diritti fondamentali dell'UE, e fatte salve le tutele adeguate per i diritti e le libertà dei terzi.

3 bis.    Il paragrafo 3 non si applica se l'uso di un sistema di IA che genera o manipola testi o contenuti audio o visivi è autorizzato dalla legge o se è necessario per l'esercizio del diritto alla libertà di espressione e del diritto alla libertà delle arti e delle scienze garantito dalla Carta dei diritti fondamentali dell'UE, e fatte salve le tutele adeguate per i diritti e le libertà dei terzi. Qualora tali contenuti facciano parte di un'opera o di un programma cinematografico, videoludico o analogo manifestamente creativo, satirico, artistico o fittizio, gli obblighi di trasparenza di cui al paragrafo 3 si limitano all'obbligo di rivelare l'esistenza di tali contenuti generati o manipolati in modo adeguato, chiaro e visibile che non ostacoli l'esposizione dell'opera, nonché di divulgare i diritti d'autore applicabili, se del caso. Non impedisce inoltre alle autorità di contrasto di utilizzare sistemi di IA destinati a individuare i «deep fake» e a prevenire, indagare e perseguire reati connessi al loro uso.

Emendamento 488

Proposta di regolamento

Articolo 52 — paragrafo 3 ter (nuovo)

Testo della Commissione

Emendamento

 

3 ter.     Le informazioni di cui ai paragrafi da 1 a 3 sono fornite alle persone fisiche al più tardi al momento della prima interazione o esposizione. Devono essere accessibili alle persone vulnerabili, come le persone con disabilità o i minori, nonché corredate, ove pertinente e possibile, di procedure di intervento o di segnalazione per la persona fisica esposta, che tengano conto dello stato dell'arte generalmente riconosciuto e delle pertinenti norme armonizzate e specifiche comuni.

Emendamento 489

Proposta di regolamento

Articolo 53 — paragrafo 1

Testo della Commissione

Emendamento

1.    Gli spazi di sperimentazione normativa per l'IA istituiti da una o più autorità competenti degli Stati membri o dal Garante europeo della protezione dei dati forniscono un ambiente controllato che facilita lo sviluppo, le prove e la convalida di sistemi di IA innovativi per un periodo di tempo limitato prima della loro immissione sul mercato o della loro messa in servizio conformemente un piano specifico. Ciò avviene sotto la guida e il controllo diretti delle autorità competenti al fine di garantire la conformità ai requisiti del presente regolamento e, se del caso, di altre normative dell'Unione e degli Stati membri controllate all'interno dello spazio di sperimentazione.

1.    Gli Stati membri istituiscono almeno uno spazio di sperimentazione normativa per l'IA a  livello nazionale, che sarà operativo al più tardi il giorno dell'entrata in applicazione del presente regolamento. Tale spazio di sperimentazione può anche essere istituito congiuntamente con uno o diversi altri Stati membri .

Emendamento 490

Proposta di regolamento

Articolo 53 — paragrafo 1 bis (nuovo)

Testo della Commissione

Emendamento

 

1 bis.     Possono essere istituiti ulteriori spazi di sperimentazione normativa per l'IA a livello regionale o locale o congiuntamente con altri Stati membri.

Emendamento 491

Proposta di regolamento

Articolo 53 — paragrafo 1 ter (nuovo)

Testo della Commissione

Emendamento

 

1 ter.     Anche la Commissione e il Garante europeo della protezione dei dati, da soli, congiuntamente o in collaborazione con uno o più Stati membri, possono istituire spazi di sperimentazione normativa per l'IA a livello dell'Unione.

Emendamento 492

Proposta di regolamento

Articolo 53 — paragrafo 1 quater (nuovo)

Testo della Commissione

Emendamento

 

1 quater.     Le autorità costituenti assegnano risorse sufficienti per conformarsi al presente articolo in maniera efficace e tempestiva.

Emendamento 493

Proposta di regolamento

Articolo 53 — paragrafo 1 quinquies (nuovo)

Testo della Commissione

Emendamento

 

1 quinquies.     Gli spazi di sperimentazione normativa per l'IA, conformemente ai criteri di cui all'articolo 53 bis, garantiscono un ambiente controllato che promuove l'innovazione e facilita lo sviluppo, la sperimentazione e la convalida di sistemi di IA innovativi per un periodo di tempo limitato prima della loro immissione sul mercato o della loro messa in servizio conformemente a un piano specifico concordato tra i potenziali fornitori e l'autorità costituente.

Emendamento 494

Proposta di regolamento

Articolo 53 — paragrafo 1 sexies (nuovo)

Testo della Commissione

Emendamento

 

1 sexies.     L'istituzione di spazi di sperimentazione normativa per l'IA è intesa a contribuire ai seguenti obiettivi:

 

a)

le autorità competenti forniscano orientamenti ai potenziali fornitori di sistemi di IA per conseguire la conformità normativa con il presente regolamento o, se del caso, ad altre pertinenti normative applicabili dell'Unione e degli Stati membri;

 

b)

i potenziali fornitori consentano e agevolino la sperimentazione e lo sviluppo di soluzioni innovative relative ai sistemi di IA;

 

c)

apprendimento normativo in un ambiente controllato.

Emendamento 495

Proposta di regolamento

Articolo 53 — paragrafo 1 septies (nuovo)

Testo della Commissione

Emendamento

 

1 septies.     Le autorità costituenti forniscono orientamenti e supervisione nell'ambito dello spazio di sperimentazione allo scopo di individuare i rischi, in particolare per i diritti fondamentali, la democrazia e lo Stato di diritto, la salute e la sicurezza e l'ambiente, testare e dimostrare le misure di attenuazione dei rischi individuati e la loro efficacia e garantire la conformità ai requisiti del presente regolamento e, se del caso, di altre normative dell'Unione e degli Stati membri.

Emendamento 496

Proposta di regolamento

Articolo 53 — paragrafo 1 octies (nuovo)

Testo della Commissione

Emendamento

 

1 octies.     Le autorità costituenti forniscono ai potenziali fornitori di spazi di sperimentazione che sviluppano sistemi di IA ad alto rischio orientamenti e supervisione sul modo in cui soddisfare i requisiti previsti dal presente regolamento, in modo che i sistemi di IA possano uscire dallo spazio di sperimentazione presumendo la conformità ai requisiti specifici del presente regolamento che sono stati valutati all'interno dello spazio di sperimentazione. Nella misura in cui il sistema di IA soddisfa i requisiti quando esce dallo spazio di sperimentazione, esso si considera conforme al presente regolamento. A tale riguardo, le autorità di vigilanza del mercato o gli organismi notificati, a seconda dei casi, tengono conto delle relazioni di uscita elaborate dall'autorità costituita nel contesto delle procedure di valutazione della conformità o delle verifiche di vigilanza del mercato.

Emendamento 497

Proposta di regolamento

Articolo 53 — paragrafo 2

Testo della Commissione

Emendamento

2.    Gli Stati membri garantiscono che, nella misura in cui i sistemi di IA innovativi comportano il trattamento di dati personali o rientrano altrimenti nell'ambito di competenza di altre autorità nazionali o autorità competenti che forniscono o sostengono l'accesso ai dati, le autorità nazionali per la protezione dei dati e tali altre autorità nazionali siano associate al funzionamento dello spazio di sperimentazione normativa per l'IA.

2.    Le autorità costituenti garantiscono che, nella misura in cui i sistemi di IA innovativi comportano il trattamento di dati personali o rientrano altrimenti nell'ambito di competenza di altre autorità nazionali o autorità competenti che forniscono o sostengono l'accesso ai dati personali , le autorità nazionali per la protezione dei dati o, nei casi di cui al paragrafo 1 ter, il GEPD, e tali altre autorità nazionali siano associate al funzionamento dello spazio di sperimentazione normativa per l'IA e partecipino al controllo di tali aspetti avvalendosi pienamente dei rispettivi compiti e poteri .

Emendamento 498

Proposta di regolamento

Articolo 53 — paragrafo 3

Testo della Commissione

Emendamento

3.   Gli spazi di sperimentazione normativa per l'IA non pregiudicano i poteri correttivi e di controllo delle autorità competenti. Qualsiasi rischio significativo per la salute e la sicurezza e i diritti fondamentali individuato durante lo sviluppo e le prove di tali sistemi deve comportare l'adozione di immediate misure di attenuazione e, in mancanza di ciò , la sospensione del processo di sviluppo e di prova fino a che tali rischi non risultino attenuati.

3.   Gli spazi di sperimentazione normativa per l'IA non pregiudicano i poteri correttivi e di controllo delle autorità competenti , anche a livello regionale o locale . Qualsiasi rischio significativo per i diritti fondamentali, la democrazia e lo stato di diritto, la salute e la sicurezza o l'ambiente individuato durante lo sviluppo e le prove di tali sistemi di IA deve comportare l'adozione di immediate e adeguate misure di attenuazione . Le autorità competenti hanno il potere di sospendere , in via temporanea o permanente, il processo di prova o la partecipazione allo spazio di sperimentazione se non è possibile un'attenuazione efficace e informano l'ufficio di IA di tale decisione;

Emendamento 499

Proposta di regolamento

Articolo 53 — paragrafo 4

Testo della Commissione

Emendamento

4.   I partecipanti allo spazio di sperimentazione normativa per l'IA restano responsabili ai sensi della normativa applicabile dell'Unione e degli Stati membri in materia di responsabilità per eventuali danni arrecati a terzi a seguito della sperimentazione che ha luogo nello spazio di sperimentazione.

4.   I potenziali fornitori nello spazio di sperimentazione normativa per l'IA restano responsabili ai sensi della normativa applicabile dell'Unione e degli Stati membri in materia di responsabilità per eventuali danni arrecati a terzi a seguito della sperimentazione che ha luogo nello spazio di sperimentazione. Tuttavia, a condizione che i potenziali fornitori rispettino il piano specifico di cui al paragrafo 1 ter e i termini e le condizioni di partecipazione e seguano in buona fede la guida fornita dalle autorità costituenti, queste ultime non adottano alcuna sanzione amministrativa per violazione del presente regolamento.

Emendamento 500

Proposta di regolamento

Articolo 53 — paragrafo 5

Testo della Commissione

Emendamento

5.   Le autorità competenti degli Stati membri che hanno istituito spazi di sperimentazione normativa per l'IA coordinano le loro attività e cooperano nel quadro del comitato europeo per l'intelligenza artificiale. Esse presentano al Comitato e alla Commissione relazioni annuali sui risultati dell'attuazione di tali sistemi, comprese le buone pratiche, gli insegnamenti tratti e le raccomandazioni sulla loro configurazione e, ove pertinente, sull'applicazione del presente regolamento e di altre normative dell'Unione soggette a controllo nell'ambito dello spazio di sperimentazione.

5.   Le autorità costituenti coordinano le loro attività e cooperano nel quadro dell'ufficio per l'IA .

Emendamento 501

Proposta di regolamento

Articolo 53 — paragrafo 5 bis (nuovo)

Testo della Commissione

Emendamento

 

5 bis.     Le autorità costituenti informano l'ufficio per l'IA dell'istituzione di uno spazio di sperimentazione e possono chiedere sostegno e orientamenti. L'ufficio per l'IA mette a disposizione del pubblico un elenco degli spazi di sperimentazione previsti ed esistenti che tiene aggiornato per incoraggiare una maggiore interazione negli spazi di sperimentazione normativa e la cooperazione transnazionale.

Emendamento 502

Proposta di regolamento

Articolo 53 — paragrafo 5 ter (nuovo)

Testo della Commissione

Emendamento

 

5 ter.     Le autorità costituenti presentano all'ufficio per l'IA e, a meno che la Commissione non sia l'unica autorità costituita, relazioni annuali a decorrere dall'anno successivo alla creazione dello spazio di sperimentazione e, successivamente, ogni anno fino alla sua chiusura, e quindi una relazione definitiva. Tali relazioni contengono informazioni sui progressi e i risultati dell'attuazione di tali spazi di sperimentazione, comprese le prassi eccellenti, gli incidenti, gli insegnamenti tratti e le raccomandazioni sulla loro configurazione e, ove pertinente, sull'applicazione ed eventuale revisione del presente regolamento e di altre normative dell'Unione soggette a controllo nell'ambito dello spazio di sperimentazione. Le relazioni annuali o estratti delle stesse sono messi a disposizione del pubblico online.

Emendamento 503

Proposta di regolamento

Articolo 53 — paragrafo 6

Testo della Commissione

Emendamento

6.    Le modalità e le condizioni di funzionamento degli spazi di sperimentazione normativa per l'IA, compresi i criteri di ammissibilità e la procedura per la domanda, la selezione, la partecipazione l'uscita dallo spazio di sperimentazione, nonché i diritti e gli obblighi dei partecipanti sono stabiliti in atti di esecuzione. Tali atti di esecuzione sono adottati in conformità alla procedura d'esame di cui all'articolo 74, paragrafo 2.

6.    La Commissione sviluppa un'interfaccia unica dedicata contenente tutte le informazioni pertinenti relative agli spazi di sperimentazione normativa , unitamente a un punto di contatto unico a livello dell'Unione per interagire con gli spazi di sperimentazione normativa permettere ai portatori di interessi di formulare richieste di informazioni presso le autorità competenti e di chiedere orientamenti non vincolanti sulla conformità di prodotti, servizi e modelli aziendali innovativi che integrano le tecnologie di IA;

 

La Commissione si coordina proattivamente con le autorità nazionali, regionali e locali, se del caso.

Emendamento 504

Proposta di regolamento

Articolo 53 — paragrafo 6 bis (nuovo)

Testo della Commissione

Emendamento

 

6 bis.     Ai fini del paragrafo 1 e 1 bis, la Commissione svolge un ruolo complementare che permette agli Stati membri con di basarsi sulle loro competenze e, dall'altro lato, li assiste e fornisce conoscenze tecniche e risorse agli Stati membri che chiedono orientamenti sulla creazione e la gestione di tali spazi di sperimentazione normativa.

Emendamento 505

Proposta di regolamento

Articolo 53 bis (nuovo)

Testo della Commissione

Emendamento

 

Articolo 53 bis

 

Modalità e funzionamento degli spazi di sperimentazione normativa per l'IA

 

1.     Onde evitare la frammentazione nell'intera Unione, la Commissione, in consultazione con l'ufficio per l'IA, adotta un atto delegato che precisa le modalità per l'istituzione, lo sviluppo, l'attuazione, il funzionamento e la supervisione degli spazi di sperimentazione normativa per l'IA, tra cui i criteri di ammissibilità e la procedura per la domanda, la selezione, la partecipazione e l'uscita dallo spazio di sperimentazione, nonché i diritti e gli obblighi dei partecipanti sulla base delle disposizioni di cui al presente articolo.

 

2.     Alla Commissione è conferito il potere di adottare atti delegati conformemente all'articolo 73, entro 12 mesi dall'entrata in vigore del presente regolamento. Essa garantisce che:

 

a)

gli spazi di sperimentazione normativa siano aperti a qualsiasi potenziale fornitore di un sistema di IA che soddisfi i criteri di ammissibilità e selezione. I criteri di accesso allo spazio di sperimentazione normativa sono trasparenti ed equi e le autorità istitutive informano i richiedenti della loro decisione entro 3 mesi dalla domanda;

 

b)

gli spazi di sperimentazione normativa consentano un accesso ampio e paritario e tengano il passo con la domanda di partecipazione;

 

c)

l'accesso agli spazi di sperimentazione normativa per l'IA sia gratuito per le PMI e le start-up, fatti salvi i costi straordinari che le autorità istituenti possono recuperare in maniera equa e proporzionata;

 

d)

gli spazi di sperimentazione normativa facilitino il coinvolgimento di altri attori pertinenti nell'ambito dell'ecosistema dell'IA, quali organismi notificati e organizzazioni di normazione (PMI, start-up, imprese, innovatori, strutture di prova e di sperimentazione, laboratori di ricerca e sperimentazione e poli di innovazione digitale, centri di eccellenza, singoli ricercatori), al fine di consentire e facilitare la cooperazione con i settori pubblico e privato;

 

e)

gli spazi di sperimentazione normativa consentano ai potenziali fornitori di adempiere, in un ambiente controllato, agli obblighi di valutazione della conformità del presente regolamento o l'applicazione volontaria dei codici di condotta di cui all'articolo 69;

 

f)

le procedure, i processi e i requisiti amministrativi per l'applicazione, la selezione, la partecipazione e l'uscita dallo spazio di sperimentazione siano semplici, facilmente intelligibili, comunicati chiaramente per agevolare la partecipazione delle PMI e delle start-up con capacità giuridiche e amministrative limitate e siano razionalizzati in tutta l'Unione, al fine di evitare la frammentazione e che la partecipazione a uno spazio di sperimentazione normativa istituito da uno Stato membro, dalla Commissione o dal GEPD sia reciprocamente e uniformemente riconosciuta e produca gli stessi effetti giuridici nell'intera Unione;

 

g)

la partecipazione allo spazio di sperimentazione normativa per l'IA sia limitata a un periodo commisurato alla complessità e alla portata del progetto;

 

h)

gli spazi di sperimentazione agevolino lo sviluppo di strumenti e infrastrutture per la sperimentazione, l'analisi comparativa, la valutazione e la spiegazione delle dimensioni dei sistemi di IA pertinenti per gli spazi di sperimentazione, quali l'accuratezza, la robustezza e la cibersicurezza, nonché la riduzione al minimo dei rischi per i diritti fondamentali, l'ambiente e la società in generale.

 

3.     I potenziali fornitori negli spazi di sperimentazione, soprattutto le PMI e le start-up, beneficiano di un accesso agevolato ai servizi di pre-diffusione, quali gli orientamenti sull'attuazione del presente regolamento, ad altri servizi a valore aggiunto, quali l'assistenza per i documenti di normazione e la certificazione e la consultazione, e ad altre iniziative del mercato unico digitale, quali i centri di prova e di sperimentazione, i poli digitali, i centri di eccellenza e le capacità di analisi comparativa dell'UE.

Emendamento 506

Proposta di regolamento

Articolo 54 — titolo

Testo della Commissione

Emendamento

Ulteriore trattamento dei dati personali per lo sviluppo nello spazio di sperimentazione normativa per l'IA di determinati sistemi di IA nell'interesse pubblico

Ulteriore trattamento dei dati per lo sviluppo nello spazio di sperimentazione normativa per l'IA di determinati sistemi di IA nell'interesse pubblico

Emendamento 507

Proposta di regolamento

Articolo 54 — paragrafo 1 — parte introduttiva

Testo della Commissione

Emendamento

1.   Nello spazio di sperimentazione normativa per l'IA i dati personali legalmente raccolti per altre finalità sono trattati ai fini dello sviluppo e delle prove nello spazio di sperimentazione di determinati sistemi di IA innovativi alle seguenti condizioni:

1.   Nello spazio di sperimentazione normativa per l'IA i dati personali legalmente raccolti per altre finalità possono essere trattati unicamente ai fini dello sviluppo e delle prove nello spazio di sperimentazione di determinati sistemi di IA allorché sono soddisfatte tutte le seguenti condizioni:

Emendamento 508

Proposta di regolamento

Articolo 54 — paragrafo 1 — lettera a — parte introduttiva

Testo della Commissione

Emendamento

a)

i sistemi di IA innovativi sono sviluppati per salvaguardare un interesse pubblico rilevante in uno o più dei seguenti settori:

a)

i sistemi di IA sono sviluppati per salvaguardare un interesse pubblico rilevante in uno o più dei seguenti settori:

 

 

ii)

la sicurezza pubblica e la sanità pubblica, compresi l'individuazione, la diagnosi, la prevenzione, il controllo e la cura delle malattie;

 

 

iii)

un elevato livello di protezione e di miglioramento della qualità dell'ambiente, la tutela della biodiversità, l'inquinamento nonché la mitigazione dei cambiamenti climatici e l'adattamento ad essi;

 

 

iii bis)

la sicurezza e la resilienza dei sistemi, delle infrastrutture critiche e delle reti di trasporto;

Emendamento 509

Proposta di regolamento

Articolo 54 — paragrafo 1 — lettera a — punto i

Testo della Commissione

Emendamento

i)

la prevenzione, l'indagine, l'accertamento e il perseguimento di reati o l'esecuzione di sanzioni penali, incluse la salvaguardia contro le minacce alla sicurezza pubblica e la prevenzione delle stesse, sotto il controllo e la responsabilità delle autorità competenti. Il trattamento si basa sul diritto degli Stati membri o dell'Unione;

soppresso

Emendamento 510

Proposta di regolamento

Articolo 54 — paragrafo 1 — lettera c

Testo della Commissione

Emendamento

c)

esistono meccanismi di monitoraggio efficaci per individuare eventuali rischi elevati per i diritti fondamentali degli interessati durante la sperimentazione nello spazio di sperimentazione e meccanismi di risposta per attenuare rapidamente tali rischi e, ove necessario, interrompere il trattamento;

c)

esistono meccanismi di monitoraggio efficaci per individuare eventuali rischi elevati per i diritti e le libertà degli interessati di cui all'articolo 35 del regolamento (UE) 2016/679 e all'articolo 35 del regolamento (UE) 2018/1725 durante la sperimentazione nello spazio di sperimentazione e meccanismi di risposta per attenuare rapidamente tali rischi e, ove necessario, interrompere il trattamento;

Emendamento 511

Proposta di regolamento

Articolo 54 — paragrafo 1 — lettera d

Testo della Commissione

Emendamento

d)

i dati personali da trattare nel contesto dello spazio di sperimentazione sono in un ambiente di trattamento dei dati funzionalmente separato, isolato e protetto sotto il controllo dei partecipanti e solo le persone autorizzate hanno accesso a tali dati;

d)

i dati personali da trattare nel contesto dello spazio di sperimentazione sono in un ambiente di trattamento dei dati funzionalmente separato, isolato e protetto sotto il controllo dei potenziali fornitori e solo le persone autorizzate hanno accesso a tali dati;

Emendamento 512

Proposta di regolamento

Articolo 54 — paragrafo 1 — lettera f

Testo della Commissione

Emendamento

f)

il trattamento di dati personali nel contesto dello spazio di sperimentazione non comporta misure o decisioni aventi ripercussioni sugli interessati;

f)

il trattamento di dati personali nel contesto dello spazio di sperimentazione non comporta misure o decisioni aventi ripercussioni sugli interessati né incide sull'applicazione dei loro diritti sanciti dal diritto dell'Unione in materia di protezione dei dati personali ;

Emendamento 513

Proposta di regolamento

Articolo 54 — paragrafo 1 — lettera g

Testo della Commissione

Emendamento

g)

i dati personali trattati nell'ambito dello spazio di sperimentazione sono cancellati una volta terminata la partecipazione allo spazio di sperimentazione o al raggiungimento del termine del periodo di conservazione dei dati personali;

g)

i dati personali trattati nell'ambito dello spazio di sperimentazione sono protetti mediante adeguate misure tecniche e organizzative e cancellati una volta terminata la partecipazione allo spazio di sperimentazione o al raggiungimento del termine del periodo di conservazione dei dati personali;

Emendamento 514

Proposta di regolamento

Articolo 54 — paragrafo 1 — lettera h

Testo della Commissione

Emendamento

h)

i log del trattamento dei dati personali nel contesto dello spazio di sperimentazione sono conservati per la durata della partecipazione allo spazio di sperimentazione e per 1 anno dopo la sua cessazione, al solo scopo di adempiere gli obblighi di rendicontazione e documentazione previsti dal presente articolo o da altre normative applicabili dell'Unione o degli Stati membri e solo per il tempo necessario per adempiere tali obblighi ;

h)

i log del trattamento dei dati personali nel contesto dello spazio di sperimentazione sono conservati per la durata della partecipazione allo spazio di sperimentazione;

Emendamento 515

Proposta di regolamento

Articolo 54 — paragrafo 1 — lettera j

Testo della Commissione

Emendamento

j)

una breve sintesi del progetto di IA sviluppato nello spazio di sperimentazione, dei suoi obiettivi e dei risultati attesi è pubblicata sul sito web delle autorità competenti.

j)

una breve sintesi del sistema di IA sviluppato nello spazio di sperimentazione, dei suoi obiettivi , delle ipotesi e dei risultati attesi è pubblicata sul sito web delle autorità competenti.

Emendamento 516

Proposta di regolamento

Articolo 54 bis (nuovo)

Testo della Commissione

Emendamento

 

Articolo 54 bis

 

Promozione della ricerca e dello sviluppo dell'IA a sostegno di risultati vantaggiosi dal punto di vista sociale e ambientale

 

1.     Gli Stati membri promuovono la ricerca e lo sviluppo di soluzioni di IA a sostegno di risultati vantaggiosi dal punto di vista sociale e ambientale, compreso, ma non solo, lo sviluppo di soluzioni basate sull'IA per aumentare l'accessibilità per le persone con disabilità, affrontare le disuguaglianze socioeconomiche e conseguire obiettivi in materia di sostenibilità e di ambiente:

 

a)

fornendo ai progetti pertinenti un accesso prioritario agli spazi di sperimentazione normativa per l'IA nella misura in cui essi soddisfano le condizioni di ammissibilità;

 

b)

stanziando finanziamenti pubblici, anche da pertinenti fondi dell'UE, per la ricerca e lo sviluppo dell'IA a sostegno di risultati vantaggiosi dal punto di vista sociale e ambientale;

 

c)

organizzando specifiche attività di sensibilizzazione sull'applicazione del presente regolamento, sulla disponibilità di fondi dedicati e sulle procedure di richiesta degli stessi, adeguate alle esigenze di tali progetti;

 

d)

ove opportuno, istituendo canali dedicati accessibili, anche nell'ambito dello spazio di sperimentazione, per la comunicazione con i progetti al fine di fornire orientamenti e rispondere alle domande sull'attuazione del presente regolamento.

 

Gli Stati membri sostengono la società civile e i portatori di interessi sociali nel guidare tali progetti o parteciparvi.

Emendamento 517

Proposta di regolamento

Articolo 55 — titolo

Testo della Commissione

Emendamento

Misure per i fornitori di piccole dimensioni e gli utenti

Misure per le PMI, le start-up e gli utenti

Emendamento 518

Proposta di regolamento

Articolo 55 — paragrafo 1 — lettera a

Testo della Commissione

Emendamento

a)

fornire ai fornitori di piccole dimensioni e alle start-up un accesso prioritario agli spazi di sperimentazione normativa per l'IA nella misura in cui essi soddisfano le condizioni di ammissibilità;

a)

fornire alle PMI e alle start-up stabilite nell'Unione un accesso prioritario agli spazi di sperimentazione normativa per l'IA nella misura in cui essi soddisfano le condizioni di ammissibilità;

Emendamento 519

Proposta di regolamento

Articolo 55 — paragrafo 1 — lettera b

Testo della Commissione

Emendamento

b)

organizzare specifiche attività di sensibilizzazione sull'applicazione del presente regolamento adattate alle esigenze dei fornitori di piccole dimensioni e degli utenti;

b)

organizzare specifiche attività di sensibilizzazione e di sviluppo rafforzato delle competenze digitali sull'applicazione del presente regolamento adattate alle esigenze delle PMI, delle start-up e degli utenti;

Emendamento 520

Proposta di regolamento

Articolo 55 — paragrafo 1 — lettera c

Testo della Commissione

Emendamento

c)

ove opportuno, istituire un canale dedicato per la comunicazione con i fornitori di piccole dimensioni , gli utenti e altri innovatori, al fine di fornire orientamenti e rispondere alle domande sull'attuazione del presente regolamento.

c)

utilizzare i canali dedicati esistenti e, ove opportuno, istituire nuovi canali dedicati per la comunicazione con le PMI, le start-up , gli utenti e altri innovatori, al fine di fornire orientamenti e rispondere alle domande sull'attuazione del presente regolamento;

Emendamento 521

Proposta di regolamento

Articolo 55 — paragrafo 1 — lettera c bis (nuova)

Testo della Commissione

Emendamento

 

c bis)

promuovere la partecipazione delle PMI e di altri portatori di interessi pertinenti al processo di sviluppo della normazione;

Emendamento 522

Proposta di regolamento

Articolo 55 — paragrafo 2

Testo della Commissione

Emendamento

2.   Nel fissare le tariffe per la valutazione della conformità a norma dell'articolo 43 si tiene conto degli interessi e delle esigenze specifici dei fornitori di piccole dimensioni , riducendo tali tariffe proporzionalmente alle loro dimensioni e alle dimensioni del loro mercato.

2.   Nel fissare le tariffe per la valutazione della conformità a norma dell'articolo 43 si tiene conto degli interessi e delle esigenze specifici delle PMI, delle start-up e degli utenti , riducendo tali tariffe proporzionalmente alla fase di sviluppo, alle loro dimensioni, alle dimensioni del loro mercato e alla domanda del mercato. La Commissione valuta periodicamente i costi di certificazione e di conformità per le PMI e le start-up, anche attraverso consultazioni trasparenti con le PMI, le start-up e gli utenti, e collabora con gli Stati membri per ridurre tali costi, ove possibile. La Commissione riferisce in merito a tali risultati al Parlamento europeo e al Consiglio nell'ambito della relazione sulla valutazione e sul riesame del presente regolamento di cui all'articolo 84, paragrafo 2.

Emendamento 523

Proposta di regolamento

Articolo 56 — SEZIONE 1 — Titolo

Testo della Commissione

Emendamento

 

Titolo

 

SEZIONE 1: Disposizioni generali sull'ufficio europeo per l'intelligenza artificiale

Emendamento 524

Proposta di regolamento

Articolo 56 — titolo

Testo della Commissione

Emendamento

Istituzione del comitato europeo per l'intelligenza artificiale

Istituzione dell'ufficio europeo per l'intelligenza artificiale

Emendamento 525

Proposta di regolamento

Articolo 56 — paragrafo 1

Testo della Commissione

Emendamento

1.   È istituito un «comitato europeo per l'intelligenza artificiale» ( il «comitato» ).

1.   È istituito un «ufficio europeo per l'intelligenza artificiale» ( l'«ufficio per l'IA» ). L'ufficio per l'IA è un organismo indipendente dell'Unione. Esso è dotato di personalità giuridica.

Emendamento 526

Proposta di regolamento

Articolo 56 — paragrafo 2 — parte introduttiva

Testo della Commissione

Emendamento

2.    Il comitato fornisce consulenza assistenza alla Commissione al fine di:

2.    L'ufficio per l'AI è dotato di una segreteria dispone di risorse finanziarie e di personale adeguati allo scopo di svolgere i compiti previsti dal presente regolamento.

Emendamento 527

Proposta di regolamento

Articolo 56 — paragrafo 2 bis (nuovo)

Testo della Commissione

Emendamento

 

2 bis.     L'ufficio per l'IA ha sede a Bruxelles.

Emendamento 528

Proposta di regolamento

Articolo 56 bis (nuovo)

Testo della Commissione

Emendamento

 

Articolo 56 bis

Struttura

La struttura amministrativa e di gestione dell'ufficio per l'IA comprende:

a)

un consiglio di amministrazione, compreso un presidente;

b)

una segreteria amministrata da un direttore esecutivo;

c)

un forum consultivo.

Emendamento 529

Proposta di regolamento

Articolo 56 ter (nuovo)

Testo della Commissione

Emendamento

 

Articolo 56 ter

 

Compiti dell'ufficio per l'IA

 

L'ufficio per l'IA svolge i compiti seguenti:

 

a)

fornisce sostegno, consulenza e cooperazione agli Stati membri, alle autorità nazionali di controllo, alla Commissione e alle altre istituzioni, organi e organismi dell'Unione in merito all'attuazione del presente regolamento;

 

b)

monitora e garantisce l'applicazione efficace e coerente del presente regolamento, fatti salvi i compiti delle autorità nazionali di controllo;

 

c)

contribuisce al coordinamento tra le autorità nazionali di controllo responsabili dell'applicazione del presente regolamento;

 

d)

funge da mediatore nelle discussioni su gravi disaccordi che possono sorgere tra le autorità competenti in merito all'applicazione del regolamento;

 

e)

coordina indagini congiunte, a norma dell'articolo 66 bis;

 

f)

contribuisce all'efficace cooperazione con le autorità competenti dei paesi terzi e con le organizzazioni internazionali;

 

g)

raccoglie e condivide le competenze e le migliori pratiche degli Stati membri e assiste le autorità nazionali di controllo degli Stati membri e la Commissione nello sviluppo delle competenze organizzative e tecniche necessarie per l'attuazione del presente regolamento, anche agevolando la creazione e il mantenimento di un gruppo di esperti dell'Unione;

 

h)

esamina, di propria iniziativa o su richiesta del suo consiglio di amministrazione o della Commissione, le questioni relative all'attuazione del presente regolamento e formula pareri, raccomandazioni o contributi scritti, anche per quanto riguarda:

 

 

i)

specifiche tecniche o norme esistenti;

 

 

ii)

le linee direttrici della Commissione:

 

 

iii)

codici di condotta e relativa applicazione, in stretta cooperazione con l'industria e con altri pertinenti portatori di interessi;

 

 

iv)

l'eventuale revisione del regolamento, la preparazione degli atti delegati e gli eventuali allineamenti del presente regolamento agli atti giuridici elencati nell'allegato II;

 

 

v)

le tendenze, come la competitività globale europea nell'intelligenza artificiale, la diffusione dell'intelligenza artificiale nell'Unione, lo sviluppo di competenze digitali e le minacce sistemiche emergenti relative all'intelligenza artificiale;

 

 

vi)

orientamenti sulle modalità di applicazione del presente regolamento alla tipologia in costante evoluzione delle catene del valore dell'IA, in particolare per quanto riguarda le conseguenti implicazioni in termini di responsabilità di tutti i soggetti coinvolti;

 

i)

la pubblicazione di:

 

 

i)

una relazione annuale comprendente una valutazione dell'attuazione del presente regolamento, un riesame delle relazioni sugli incidenti gravi di cui all'articolo 62 e il funzionamento della banca dati di cui all'articolo 60 e

 

 

ii)

raccomandazioni alla Commissione sulla categorizzazione delle pratiche vietate, sui sistemi di IA ad alto rischio di cui all'allegato III, sui codici di condotta di cui all'articolo 69 e sull'applicazione dei principi generali delineati all'articolo 4 bis;

 

j)

assiste le autorità nella creazione e nello sviluppo di spazi di sperimentazione normativa e agevola la cooperazione tra gli spazi di sperimentazione normativa;

 

k)

organizza riunioni con le agenzie e gli organismi di governance dell'Unione i cui compiti sono connessi all'intelligenza artificiale e all'attuazione del presente regolamento;

 

l)

organizza consultazioni trimestrali con il forum consultivo e, se del caso, consultazioni pubbliche con altri portatori di interessi e rende pubblici i risultati di tali consultazioni sul suo sito web;

 

m)

promuove la consapevolezza e la comprensione da parte del pubblico riguardo ai benefici, ai rischi, alle garanzie e ai diritti e obblighi in relazione all'uso di sistemi di IA;

 

n)

facilita lo sviluppo di criteri comuni e una comprensione condivisa tra gli operatori del mercato e le autorità competenti dei concetti pertinenti di cui al presente regolamento;

 

o)

fornisce un monitoraggio dei modelli di base e organizza un dialogo regolare con gli sviluppatori dei modelli di base per quanto riguarda la loro conformità, nonché con i sistemi di IA che fanno uso di tali modelli di IA;

 

p)

fornisce orientamenti interpretativi su come la legge sull'IA si applica alla tipologia in costante evoluzione delle catene del valore dell'IA e su quali saranno le implicazioni che ne derivano in termini di responsabilità di tutti i soggetti coinvolti nei diversi scenari basati sullo stato dell'arte generalmente riconosciuto, anche come indicato nelle pertinenti norme armonizzate;

 

q)

assicura una sorveglianza e un monitoraggio particolari e istituzionalizza un dialogo regolare con i fornitori di modelli di base sulla conformità dei modelli di base e dei sistemi di IA che si avvalgono di tali modelli di IA all'articolo 28 ter del presente regolamento e sulle migliori pratiche del settore per l'autogoverno. Tali riunioni sono aperte alle autorità nazionali di controllo, agli organismi notificati e alle autorità di vigilanza del mercato affinché possano parteciparvi e contribuirvi.

 

r)

pubblica e aggiorna periodicamente orientamenti sulle soglie che qualificano l'addestramento di un modello di base come un ciclo di addestramento ampio, registra e monitora i casi noti di cicli di addestramento ampi e pubblica una relazione annuale sullo stato di avanzamento dello sviluppo, della proliferazione e dell'uso di modelli di base insieme a opzioni strategiche per affrontare i rischi e le opportunità specifici dei modelli di base;

 

s)

promuove l'alfabetizzazione in materia di intelligenza artificiale conformemente all'articolo 4 ter.

Emendamento 530

Proposta di regolamento

Articolo 56 quater (nuovo)

Testo della Commissione

Emendamento

 

Articolo 56 quater

 

Responsabilità, indipendenza e trasparenza

 

1.     L'ufficio per l'IA:

 

a)

risponde del proprio operato al Parlamento europeo e al Consiglio, ai sensi del presente regolamento.

 

b)

agisce in modo indipendente nello svolgimento dei suoi compiti o nell'esercizio dei suoi poteri; e

 

c)

garantisce un elevato livello di trasparenza per quanto riguarda le sue attività e sviluppa buone prassi amministrative al riguardo.

 

Ai documenti in possesso dell'ufficio per l'IA si applica il regolamento (CE) n. 1049/2001.

Emendamento 531

Proposta di regolamento

Articolo — 57 bis (nuovo) — SEZIONE 2 — titolo

Testo della Commissione

Emendamento

 

Titolo

 

SEZIONE 2: Consiglio di amministrazione

Emendamento 532

Proposta di regolamento

Articolo - 57 bis (nuovo)

Testo della Commissione

Emendamento

 

Articolo - 57 bis

 

Composizione del consiglio di amministrazione

 

1.     Il consiglio di amministrazione è composto dai seguenti membri:

 

a)

un rappresentante dell'autorità nazionale di controllo di ciascuno Stato membro;

 

b)

un rappresentante della Commissione;

 

c)

un rappresentante del Garante europeo della protezione dei dati (GEPD);

 

d)

un rappresentante dell'Agenzia dell'Unione europea per la cibersicurezza (ENISA);

 

e)

un rappresentante dell'Agenzia dell'Unione europea per i diritti fondamentali (FRA).

 

Ciascun rappresentante di un'autorità nazionale di controllo dispone di un voto. I rappresentanti della Commissione, del GEPD, dell'ENISA e della FRA non hanno diritto di voto. Ogni membro ha un supplente. La nomina dei membri e dei membri supplenti del consiglio di amministrazione tiene conto della necessità di garantire l'equilibrio di genere. I nomi dei membri del consiglio di amministrazione e i loro supplenti sono resi pubblici.

 

2.     I membri e i membri supplenti del consiglio di amministrazione non possono detenere posizioni o interessi commerciali confliggenti in relazione a questioni connesse all'applicazione del presente regolamento.

 

3.     Le norme relative alle riunioni e alle votazioni del consiglio di amministrazione, nonché alla nomina e alla revoca del direttore esecutivo sono stabilite nel regolamento interno di cui all'articolo - 57 ter, lettera a).

Emendamento 533

Proposta di regolamento

Articolo - 57 ter (nuovo)

Testo della Commissione

Emendamento

 

Articolo - 57 ter

 

Funzioni del consiglio di amministrazione

 

1.     Il consiglio di amministrazione svolge i seguenti compiti:

 

a)

prende decisioni strategiche sulle attività dell'ufficio per l'IA e adotta il suo regolamento interno a maggioranza dei due terzi dei suoi membri;

 

b)

attua il proprio regolamento interno;

 

c)

adotta il documento unico di programmazione dell'ufficio per l'IA e la sua relazione pubblica annuale e trasmette entrambi al Parlamento europeo, al Consiglio, alla Commissione e alla Corte dei conti;

 

d)

adotta il bilancio dell'ufficio per l'IA;

 

e)

nomina il direttore esecutivo e, se del caso, ne proroga o riduce il mandato o lo rimuove dall'incarico;

 

f)

decide in merito all'istituzione delle strutture interne dell'ufficio per l'IA e, se necessario, alla modifica delle strutture interne necessarie per l'adempimento dei compiti dell'ufficio per l'IA;

Emendamento 534

Proposta di regolamento

Articolo - 57 quater (nuovo)

Testo della Commissione

Emendamento

 

Articolo - 57 quater

Presidenza del consiglio di amministrazione

1.     Il consiglio di amministrazione elegge a maggioranza semplice un presidente e due vicepresidenti tra i suoi membri votanti.

2.     Il mandato del presidente e dei vicepresidenti ha una durata di quattro anni. Il mandato del presidente e dei vicepresidenti può essere rinnovato una volta.

Emendamento 535

Proposta di regolamento

Articolo 57 — SEZIONE 3 — titolo

Testo della Commissione

Emendamento

Struttura del comitato

Segreteria

Emendamento 536

Proposta di regolamento

Articolo 57 — paragrafo 1

Testo della Commissione

Emendamento

1.    Il comitato è composto dalle autorità nazionali di controllo, rappresentate dal capo di tale autorità o da un alto funzionario di livello equivalente, e dal Garante europeo della protezione dei dati. Altre autorità nazionali possono essere invitate alle riunioni, qualora le questioni discusse siano di loro pertinenza .

1.    Le attività della segreteria sono gestite da un direttore esecutivo. Il direttore esecutivo risponde al consiglio di amministrazione. Fermi restando i rispettivi poteri del consiglio di amministrazione e delle istituzioni dell'Unione, il direttore esecutivo non sollecita né accetta istruzioni da alcun governo o altro organo.

Emendamento 537

Proposta di regolamento

Articolo 57 — paragrafo 2

Testo della Commissione

Emendamento

2.    Il comitato adotta il suo regolamento interno a maggioranza semplice dei suoi membri, previo consenso della Commissione. Il regolamento interno contiene anche gli aspetti operativi relativi all'esecuzione dei compiti del comitato di cui all'articolo 58. Il comitato può istituire sottogruppi, se necessario, per esaminare questioni specifiche.

2.    Il direttore esecutivo partecipa alle audizioni su qualsiasi questione connessa alle attività dell'ufficio per l'IA e riferisce sull'esercizio delle sue funzioni su invito del Parlamento europeo o del Consiglio .

Emendamento 538

Proposta di regolamento

Articolo 57 — paragrafo 3

Testo della Commissione

Emendamento

3.    Il comitato è presieduto dalla Commissione. La Commissione convoca le riunioni e prepara l'ordine del giorno in conformità ai compiti del comitato a norma del presente regolamento e del relativo regolamento interno. La Commissione fornisce sostegno amministrativo e analitico per le attività del comitato a norma del presente regolamento.

3.    Il direttore esecutivo rappresenta l'ufficio per l'IA, anche nelle sedi internazionali per la cooperazione in materia di intelligenza artificiale.

Emendamento 539

Proposta di regolamento

Articolo 57 — paragrafo 4

Testo della Commissione

Emendamento

4.    Il comitato può invitare esperti e osservatori esterni a partecipare alle sue riunioni e può tenere scambi con terzi interessati al fine di orientare, nella giusta misura, le proprie attività. A tal fine la Commissione può agevolare gli scambi tra il comitato e altri organismi, uffici, agenzie e gruppi consultivi dell'Unione.

4.    La segreteria fornisce al consiglio di amministrazione e al forum consultivo il sostegno analitico, amministrativo e logistico necessario per svolgere i compiti dell'ufficio per l'IA, tra l'altro:

 

a)

attuando le decisioni, i programmi e le attività adottati dal consiglio di amministrazione;

 

b)

preparando ogni anno il progetto di documento unico di programmazione, il progetto di bilancio, la relazione annuale di attività dell'Ufficio per l'IA, i progetti di parere e i progetti di posizione dell'ufficio per l'IA, e presentandoli al consiglio di amministrazione;

 

c)

coordinandosi con le sedi internazionali per la cooperazione in materia di intelligenza artificiale.

Emendamento 540

Proposta di regolamento

Articolo 58 — SEZIONE 4 — titolo

Testo della Commissione

Emendamento

Compiti del comitato

Forum consultivo

Emendamento 541

Proposta di regolamento

Articolo 58 — comma 1 — parte introduttiva

Testo della Commissione

Emendamento

Nel fornire consulenza e assistenza alla Commissione nel contesto dell'articolo 56, paragrafo 2, il Comitato in particolare:

Il forum consultivo fornisce all'ufficio per l'IA il contributo dei portatori di interessi nelle questioni relative al presente regolamento, in particolare per quanto riguarda i compiti di cui all'articolo 56 ter, lettera l).

Emendamento 542

Proposta di regolamento

Articolo 58 — comma 2 (nuovo)

Testo della Commissione

Emendamento

 

La composizione del forum consultivo rappresenta una selezione equilibrata di portatori di interessi, tra cui l'industria, le start-up, le PMI, la società civile, le parti sociali e il mondo accademico. La composizione del forum consultivo è equilibrata per quanto riguarda gli interessi commerciali e non commerciali e, all'interno della categoria degli interessi commerciali, per quanto riguarda le PMI e le altre imprese.

Emendamento 543

Proposta di regolamento

Articolo 58 — comma 3 (nuovo)

Testo della Commissione

Emendamento

 

Il consiglio di amministrazione nomina i membri del forum consultivo conformemente alla procedura di selezione stabilita nel regolamento interno dell'ufficio per l'IA, tenendo conto della necessità di trasparenza e nel rispetto dei criteri di cui al paragrafo 2.

Emendamento 544

Proposta di regolamento

Articolo 58 — comma 4 (nuovo)

Testo della Commissione

Emendamento

 

Il mandato dei membri del forum consultivo ha una durata di due anni, prorogabile fino a un massimo di quattro anni.

Emendamento 545

Proposta di regolamento

Articolo 58 — comma 5 (nuovo)

Testo della Commissione

Emendamento

 

Il Comitato europeo di normazione (CEN), il Comitato europeo di normazione elettrotecnica (CENELEC) e l'Istituto europeo per le norme di telecomunicazione (ETSI) sono membri permanenti del forum consultivo. Il Centro comune di ricerca è membro permanente, senza diritto di voto.

Emendamento 546

Proposta di regolamento

Articolo 58 — comma 6 (nuovo)

Testo della Commissione

Emendamento

 

Il comitato consultivo redige il proprio regolamento interno. Esso elegge due copresidenti tra i suoi membri, conformemente ai criteri di cui al paragrafo 2. Il mandato dei vicepresidenti ha una durata di due anni, rinnovabile una volta.

Emendamento 547

Proposta di regolamento

Articolo 58 — comma 7 (nuovo)

Testo della Commissione

Emendamento

 

Il forum consultivo tiene riunioni almeno quattro volte all'anno. Il forum consultivo può invitare esperti e altri portatori di interessi alle sue riunioni. Il direttore esecutivo può partecipare, ex officio, alle riunioni del forum consultivo.

Emendamento 548

Proposta di regolamento

Articolo 58 — comma 8 (nuovo)

Testo della Commissione

Emendamento

 

Nell'adempimento del suo ruolo di cui al paragrafo 1, il forum consultivo può preparare pareri, raccomandazioni e contributi scritti.

Emendamento 549

Proposta di regolamento

Articolo 58 — comma 9 (nuovo)

Testo della Commissione

Emendamento

 

Il forum consultivo può istituire sottogruppi permanenti o temporanei, se necessario, per esaminare questioni specifiche connesse agli obiettivi del presente regolamento.

Emendamento 550

Proposta di regolamento

Articolo 58 — comma 10 (nuovo)

Testo della Commissione

Emendamento

 

Il forum consultivo prepara una relazione annuale sulle sue attività. Tale relazione è resa pubblica.

Emendamento 551

Proposta di regolamento

Articolo 58 bis — SEZIONE 5 — titolo

Testo della Commissione

Emendamento

 

Autorità europee per l'analisi comparativa

Emendamento 552

Proposta di regolamento

Articolo 58 bis (nuovo)

Testo della Commissione

Emendamento

 

Articolo 58 bis

Analisi comparativa

Le autorità europee per l'analisi comparativa di cui all'articolo 15, paragrafo 1 bis, e l'ufficio per l'IA, in stretta cooperazione con i partner internazionali, sviluppano congiuntamente orientamenti e capacità efficaci sotto il profilo dei costi per misurare e valutare gli aspetti dei sistemi e dei componenti di IA, in particolare dei modelli di base pertinenti per la conformità e l'applicazione del presente regolamento secondo lo stato dell'arte generalmente riconosciuto, ivi compreso quanto si riflette nelle pertinenti norme armonizzate.

Emendamento 553

Proposta di regolamento

Articolo 59 — titolo

Testo della Commissione

Emendamento

Designazione delle autorità nazionali competenti

Designazione delle autorità nazionali di controllo

Emendamento 554

Proposta di regolamento

Articolo 59 — paragrafo 1

Testo della Commissione

Emendamento

1.   Ciascuno Stato membro istituisce o designa autorità nazionali competenti al fine di garantire l'applicazione e l'attuazione del presente regolamento. Le autorità nazionali competenti sono organizzate e gestite in modo che sia salvaguardata l'obiettività e l'imparzialità dei loro compiti e attività.

1.    Entro … [tre mesi dalla data di entrata in vigore del presente regolamento] ciascuno Stato membro designa un'autorità nazionale di controllo, che è organizzata e gestita in modo tale da salvaguardare l'obiettività e l'imparzialità dei suoi compiti e  delle sue attività.

Emendamento 555

Proposta di regolamento

Articolo 59 — paragrafo 2

Testo della Commissione

Emendamento

2.    Ciascuno Stato membro designa un' autorità nazionale di controllo tra le autorità nazionali competenti. L'autorità nazionale di controllo agisce in qualità di autorità di notifica e di autorità di vigilanza del mercato , a meno che uno Stato membro non abbia motivi organizzativi e amministrativi per designare più di un'autorità .

2.    L' autorità nazionale di controllo assicura l'applicazione e l'attuazione del presente regolamento. Per quanto riguarda i sistemi di IA ad alto rischio relativi ai prodotti cui si applicano gli atti giuridici elencati nell'allegato II, le autorità competenti designate a norma di tali atti giuridici continuano a guidare le procedure amministrative. Tuttavia, nella misura in cui un caso riguardi aspetti contemplati esclusivamente dal presente regolamento, tali autorità competenti sono vincolate dalle misure connesse a detti aspetti adottate dall'autorità nazionale di controllo designata a norma del presente regolamento. L'autorità nazionale di controllo agisce in qualità di autorità di vigilanza del mercato.

Emendamento 556

Proposta di regolamento

Articolo 59 — paragrafo 3

Testo della Commissione

Emendamento

3.   Gli Stati membri informano la Commissione della loro designazione o delle loro designazioni e, ove applicabile, dei motivi che giustificano la designazione di più autorità .

3.    Entro … [tre mesi dalla data di entrata in vigore del presente regolamento] gli Stati membri mettono a disposizione del pubblico e comunicano all'ufficio per l'IA e alla Commissione il nome dell'autorità nazionale di controllo e il suo recapito. L'autorità nazionale di controllo funge da punto di contatto unico per il presente regolamento e dovrebbe essere contattabile tramite mezzi di comunicazione elettronica .

Emendamento 557

Proposta di regolamento

Articolo 59 — paragrafo 4

Testo della Commissione

Emendamento

4.   Gli Stati membri garantiscono che le autorità nazionali competenti dispongano di risorse finanziarie e umane adeguate per svolgere i loro compiti a norma del presente regolamento. In particolare, le autorità nazionali competenti dispongono di sufficiente personale permanentemente disponibile, le cui competenze e conoscenze comprendono una comprensione approfondita delle tecnologie, dei dati e del calcolo dei dati di intelligenza artificiale, dei diritti fondamentali, dei rischi per la salute e la sicurezza e una conoscenza delle norme e dei requisiti giuridici esistenti.

4.   Gli Stati membri garantiscono che l'autorità nazionale di controllo disponga di risorse tecniche, finanziarie e umane adeguate , nonché delle infrastrutture necessarie per svolgere efficacemente i loro compiti a norma del presente regolamento. In particolare, l'autorità nazionale di controllo dispone di sufficiente personale permanentemente disponibile, le cui competenze e conoscenze comprendono una comprensione approfondita delle tecnologie, dei dati e del calcolo dei dati di intelligenza artificiale, della protezione dei dati personali, della cibersicurezza, del diritto in materia di concorrenza, dei diritti fondamentali, dei rischi per la salute e la sicurezza e una conoscenza delle norme e dei requisiti giuridici esistenti. Gli Stati membri valutano e, se ritenuto necessario, aggiornano annualmente i requisiti in termini di competenze e risorse di cui al presente paragrafo.

Emendamento 558

Proposta di regolamento

Articolo 59 — paragrafo 4 bis (nuovo)

Testo della Commissione

Emendamento

 

4 bis.     Ciascuna autorità nazionale di controllo esercita i propri poteri e svolge le proprie funzioni in modo indipendente, imparziale e senza pregiudizi. Nell'adempimento dei rispettivi compiti e nell'esercizio dei rispettivi poteri previsti dal presente regolamento, i membri di ciascuna autorità nazionale di controllo non sollecitano né accettano istruzioni da alcun organismo e si astengono da qualsiasi atto incompatibile con il carattere delle loro funzioni.

Emendamento 559

Proposta di regolamento

Articolo 59 — paragrafo 4 ter (nuovo)

Testo della Commissione

Emendamento

 

4 ter.     Le autorità nazionali di controllo soddisfano i requisiti minimi di cibersicurezza stabiliti per gli organismi della pubblica amministrazione individuati come operatori di servizi essenziali ai sensi della direttiva (UE) 2022/2555.

Emendamento 560

Proposta di regolamento

Articolo 59 — paragrafo 4 quater (nuovo)

Testo della Commissione

Emendamento

 

4 quater.     Nello svolgimento dei propri compiti, l'autorità nazionale di controllo agisce nel rispetto degli obblighi di riservatezza di cui all'articolo 70.

Emendamento 561

Proposta di regolamento

Articolo 59 — paragrafo 5

Testo della Commissione

Emendamento

5.   Gli Stati membri riferiscono annualmente alla Commissione in merito allo stato delle risorse finanziarie e umane delle autorità nazionali competenti , con una valutazione della loro adeguatezza. La Commissione trasmette tali informazioni al comitato affinché le discuta e formuli eventuali raccomandazioni.

5.   Gli Stati membri riferiscono annualmente alla Commissione in merito allo stato delle risorse finanziarie e umane dell' autorità nazionale di controllo , con una valutazione della loro adeguatezza. La Commissione trasmette tali informazioni all'ufficio per l'IA affinché le discuta e formuli eventuali raccomandazioni.

Emendamento 562

Proposta di regolamento

Articolo 59 — paragrafo 6

Testo della Commissione

Emendamento

6.     La Commissione agevola lo scambio di esperienze tra autorità nazionali competenti.

soppresso

Emendamento 563

Proposta di regolamento

Articolo 59 — paragrafo 7

Testo della Commissione

Emendamento

7.   Le autorità nazionali competenti possono fornire orientamenti e consulenza sull'attuazione del presente regolamento, anche ai fornitori di piccole dimensioni . Ogniqualvolta le autorità nazionali competenti intendono fornire orientamenti e consulenza in relazione a un sistema di IA in settori disciplinati da altre normative dell'Unione, sono consultate le autorità nazionali competenti a norma di tale normativa dell'Unione, come opportuno. Gli Stati membri possono inoltre istituire un punto di contatto centrale per la comunicazione con gli operatori.

7.   Le autorità nazionali di controllo possono fornire orientamenti e consulenza sull'attuazione del presente regolamento, anche alle PMI e alle start-up, tenendo conto degli orientamenti e dei pareri dell'ufficio per l'IA o della Commissione . Ogniqualvolta le autorità nazionali di controllo intendono fornire orientamenti e consulenza in relazione a un sistema di IA in settori disciplinati da altra legislazione dell'Unione, gli orientamenti sono redatti in consultazione con le autorità nazionali competenti a norma di tale legislazione dell'Unione, come opportuno.

Emendamento 564

Proposta di regolamento

Articolo 59 — paragrafo 8

Testo della Commissione

Emendamento

8.   Nei casi in cui le istituzioni, le agenzie e gli organismi dell'Unione rientrano nell'ambito di applicazione del presente regolamento, il Garante europeo della protezione dei dati agisce in qualità di autorità competente per la loro vigilanza.

8.   Nei casi in cui le istituzioni, le agenzie e gli organismi dell'Unione rientrano nell'ambito di applicazione del presente regolamento, il Garante europeo della protezione dei dati agisce in qualità di autorità competente per la loro vigilanza e il loro coordinamento .

Emendamento 565

Proposta di regolamento

Articolo 59 bis (nuovo)

Testo della Commissione

Emendamento

 

Articolo 59 bis

 

Meccanismo di cooperazione tra autorità nazionali di controllo nei casi che coinvolgono due o più Stati membri

 

1.     Ciascuna autorità nazionale di controllo espleta i compiti che le sono assegnati ed esercita i poteri che le sono conferiti a norma del presente regolamento nel territorio del rispettivo Stato membro.

 

2.     Nei casi che coinvolgono due o più autorità nazionali di controllo, l'autorità nazionale di controllo dello Stato membro in cui ha avuto luogo la violazione è considerata l'autorità nazionale di controllo capofila.

 

3.     Nei casi di cui al paragrafo 2, le autorità nazionali di controllo in questione cooperano e si scambiano tutte le informazioni pertinenti a tempo debito. Le autorità nazionali di controllo cooperano al fine di raggiungere un consenso.

Emendamento 566

Proposta di regolamento

Titolo VII

Testo della Commissione

Emendamento

VII BANCA DATI DELL'UE PER I SISTEMI DI IA INDIPENDENTI AD ALTO RISCHIO

BANCA DATI DELL'UE PER I SISTEMI DI IA AD ALTO RISCHIO

Emendamento 567

Proposta di regolamento

Articolo 60 — titolo

Testo della Commissione

Emendamento

Banca dati dell'UE per i sistemi di IA indipendenti ad alto rischio

Banca dati dell'UE per i sistemi di IA ad alto rischio

Emendamento 568

Proposta di regolamento

Articolo 60 — paragrafo 1

Testo della Commissione

Emendamento

1.   La Commissione, in collaborazione con gli Stati membri, istituisce e mantiene una banca dati dell'UE contenente le informazioni di cui al paragrafo 2 relative ai sistemi di IA ad alto rischio di cui all'articolo 6, paragrafo 2, registrati conformemente all'articolo 51.

1.   La Commissione, in collaborazione con gli Stati membri, istituisce e mantiene una banca dati pubblica dell'UE contenente le informazioni di cui ai paragrafi 2 e 2 bis relative ai sistemi di IA ad alto rischio di cui all'articolo 6, paragrafo 2, registrati conformemente all'articolo 51.

Emendamento 569

Proposta di regolamento

Articolo 60 — paragrafo 2

Testo della Commissione

Emendamento

2.   I fornitori inseriscono nella banca dati dell'UE i dati elencati nell'allegato VIII . La Commissione fornisce loro sostegno tecnico e amministrativo.

2.   I fornitori inseriscono nella banca dati dell'UE i dati elencati nell'allegato VIII , sezione A .

Emendamento 570

Proposta di regolamento

Articolo 60 — paragrafo 2 bis (nuovo)

Testo della Commissione

Emendamento

 

2 bis.     I dati di cui all'allegato VIII, sezione B, sono inseriti nella banca dati dell'UE da operatori che sono autorità pubbliche o istituzioni, organi o organismi dell'Unione o che agiscono per loro conto e da operatori che sono imprese di cui all'articolo 51, lettere 1 bis) e 1 ter).

Emendamento 571

Proposta di regolamento

Articolo 60 — paragrafo 3

Testo della Commissione

Emendamento

3.   Le informazioni contenute nella banca dati dell'UE sono accessibili al pubblico.

3.   Le informazioni contenute nella banca dati dell'UE sono a disposizione del pubblico a titolo gratuito, sono di facile utilizzo e consultazione, sono leggibili meccanicamente e contengono dati digitali strutturati basati su un protocollo standardizzato .

Emendamento 572

Proposta di regolamento

Articolo 60 — paragrafo 4

Testo della Commissione

Emendamento

4.   La banca dati dell'UE contiene dati personali solo nella misura necessaria per la raccolta e il trattamento delle informazioni in conformità al presente regolamento. Tali informazioni comprendono i nomi e i dati di contatto delle persone fisiche responsabili della registrazione del sistema e aventi l'autorità legale di rappresentare il fornitore.

4.   La banca dati dell'UE contiene dati personali solo nella misura necessaria per la raccolta e il trattamento delle informazioni in conformità al presente regolamento. Tali informazioni comprendono i nomi e i dati di contatto delle persone fisiche responsabili della registrazione del sistema e aventi l'autorità legale di rappresentare il fornitore o l'operatore che è un'autorità pubblica o un'istituzione, un organo o un organismo dell'Unione o un operatore che agisce per loro conto, oppure un operatore che è un'impresa di cui all'articolo 51, paragrafo 1 bis, lettera b), e paragrafo 1 ter .

Emendamento 573

Proposta di regolamento

Articolo 60 — paragrafo 5

Testo della Commissione

Emendamento

5.   La Commissione è il titolare del trattamento della banca dati dell'UE. Essa garantisce inoltre ai fornitori un adeguato sostegno tecnico e amministrativo.

5.   La Commissione è il titolare del trattamento della banca dati dell'UE. Essa garantisce inoltre ai fornitori e agli operatori, un adeguato sostegno tecnico e amministrativo.

 

La banca dati è conforme ai requisiti di accessibilità di cui all'allegato I della direttiva (UE) 2019/882.

Emendamento 574

Proposta di regolamento

Articolo 61 — paragrafo 2

Testo della Commissione

Emendamento

2.   Il sistema di monitoraggio successivo all'immissione sul mercato raccoglie, documenta e analizza attivamente e sistematicamente i dati pertinenti forniti dagli utenti o raccolti tramite altre fonti sulle prestazioni dei sistemi di IA ad alto rischio per tutta la durata del loro ciclo di vita e consente al fornitore di valutare la costante conformità dei sistemi di IA ai requisiti di cui al titolo III, capo 2.

2.   Il sistema di monitoraggio successivo all'immissione sul mercato raccoglie, documenta e analizza attivamente e sistematicamente i dati pertinenti forniti dagli operatori o raccolti tramite altre fonti sulle prestazioni dei sistemi di IA ad alto rischio per tutta la durata del loro ciclo di vita e consente al fornitore di valutare la costante conformità dei sistemi di IA ai requisiti di cui al titolo III, capo 2. Se del caso, il monitoraggio successivo all'immissione sul mercato comprende un'analisi dell'interazione con altri sistemi di IA, compresi altri dispositivi e software, tenendo conto delle norme applicabili in settori quali la protezione dei dati, i diritti di proprietà intellettuale e il diritto della concorrenza.

Emendamento 575

Proposta di regolamento

Articolo 61 — paragrafo 3

Testo della Commissione

Emendamento

3.   Il sistema di monitoraggio successivo all'immissione sul mercato si basa su un piano di monitoraggio successivo all'immissione sul mercato. Il piano di monitoraggio successivo all'immissione sul mercato fa parte della documentazione tecnica di cui all'allegato IV. La Commissione adotta un atto di esecuzione che stabilisce disposizioni dettagliate in cui si definisce un modello per il piano di monitoraggio successivo all'immissione sul mercato e un elenco di elementi da includere nel piano.

3.   Il sistema di monitoraggio successivo all'immissione sul mercato si basa su un piano di monitoraggio successivo all'immissione sul mercato. Il piano di monitoraggio successivo all'immissione sul mercato fa parte della documentazione tecnica di cui all'allegato IV. La Commissione adotta un atto di esecuzione che stabilisce disposizioni dettagliate in cui si definisce un modello per il piano di monitoraggio successivo all'immissione sul mercato e un elenco di elementi da includere nel piano entro [12 mesi dalla data di entrata in vigore del presente regolamento] .

Emendamento 576

Proposta di regolamento

Articolo 62 — titolo

Testo della Commissione

Emendamento

Segnalazione di incidenti gravi o malfunzionamenti

Segnalazione di incidenti gravi

Emendamento 577

Proposta di regolamento

Articolo 62 — paragrafo 1 — comma 1

Testo della Commissione

Emendamento

1.   I fornitori di sistemi di IA ad alto rischio immessi sul mercato dell'Unione segnalano qualsiasi incidente grave o malfunzionamento di tali sistemi che costituisca una violazione degli obblighi previsti dal diritto dell'Unione intesi a tutelare i diritti fondamentali alle autorità di vigilanza del mercato degli Stati membri in cui tali incidenti o violazioni si sono verificati.

1.   I fornitori e, qualora siano operatori ad aver individuato un incidente grave, gli operatori di sistemi di IA ad alto rischio immessi sul mercato dell'Unione segnalano qualsiasi incidente grave di tali sistemi che costituisca una violazione degli obblighi previsti dal diritto dell'Unione intesi a tutelare i diritti fondamentali alle autorità nazionali di controllo degli Stati membri in cui tali incidenti o violazioni si sono verificati.

Emendamento 578

Proposta di regolamento

Articolo 62 — paragrafo 1 — comma 2

Testo della Commissione

Emendamento

Tale notifica è effettuata immediatamente dopo che il fornitore ha stabilito un nesso causale tra il sistema di IA e l'incidente o il malfunzionamento o quando stabilisce la ragionevole probabilità di tale nesso e, in ogni caso, non oltre 15 giorni dopo che è venuto a conoscenza dell'incidente grave o del malfunzionamento .

Tale notifica è effettuata senza indebito ritardo dopo che il fornitore o, se del caso, l'operatore ha stabilito un nesso causale tra il sistema di IA e l'incidente o quando stabilisce la ragionevole probabilità di tale nesso e, in ogni caso, non oltre 72 ore dopo che il fornitore o, se del caso, l'operatore è venuto a conoscenza dell'incidente grave.

Emendamento 579

Proposta di regolamento

Articolo 62 — paragrafo 1 bis (nuovo)

Testo della Commissione

Emendamento

 

1 bis.     Al momento di stabilire un nesso causale tra il sistema di IA e l'incidente grave o la ragionevole probabilità di tale nesso, i fornitori adottano le opportune misure correttive a norma dell'articolo 21.

Emendamento 580

Proposta di regolamento

Articolo 62 — paragrafo 2

Testo della Commissione

Emendamento

2.   Al ricevimento di una notifica relativa a una violazione degli obblighi previsti dal diritto dell'Unione a tutela dei diritti fondamentali, l'autorità di vigilanza del mercato informa le autorità o gli organismi pubblici nazionali di cui all'articolo 64, paragrafo 3. La Commissione elabora orientamenti specifici per facilitare il rispetto degli obblighi di cui al paragrafo 1. Tali orientamenti sono emanati al più tardi 12 mesi dopo l' entrata in vigore del presente regolamento.

2.   Al ricevimento di una notifica relativa a una violazione degli obblighi previsti dal diritto dell'Unione a tutela dei diritti fondamentali, l'autorità di nazionale di controllo informa le autorità o gli organismi pubblici nazionali di cui all'articolo 64, paragrafo 3. La Commissione elabora orientamenti specifici per facilitare il rispetto degli obblighi di cui al paragrafo 1. Tali orientamenti sono emanati entro … [la data di entrata in vigore del presente regolamento ] e sono valutati periodicamente .

Emendamento 581

Proposta di regolamento

Articolo 62 — paragrafo 2 bis (nuovo)

Testo della Commissione

Emendamento

 

2 bis.     Le autorità nazionali di controllo adottano misure adeguate entro 7 giorni dalla data di ricezione della notifica di cui al paragrafo 1. Qualora la violazione abbia luogo o sia probabile che abbia luogo in altri Stati membri, l'autorità nazionale di controllo ne informa la Commissione, l'ufficio per l'IA e le pertinenti autorità nazionali di controllo di tali Stati membri.

Emendamento 582

Proposta di regolamento

Articolo 62 — paragrafo 3

Testo della Commissione

Emendamento

3.   Per i sistemi di IA ad alto rischio di cui all'allegato III , punto 5, lettera b), immessi sul mercato o messi in servizio da fornitori che sono enti creditizi disciplinati dalla direttiva 2013/36/UE e per i sistemi di IA ad alto rischio che sono componenti di sicurezza di dispositivi, o sono essi stessi dispositivi, disciplinati dal regolamento (UE) 2017/745 e dal regolamento (UE) 2017/746 , la notifica è limitata a incidenti gravi o malfunzionamenti che costituiscono una violazione degli obblighi previsti dal diritto dell'Unione a tutela dei diritti fondamentali .

3.   Per i sistemi di IA ad alto rischio di cui all'allegato III immessi sul mercato o messi in servizio da fornitori soggetti a strumenti legislativi dell'Unione che stabiliscono obblighi di segnalazione equivalenti a quelli previsti dal presente regolamento, la notifica di incidenti gravi che costituiscono una violazione dei diritti fondamentali ai sensi del diritto dell'Unione è trasferita all'autorità nazionale di controllo .

Emendamento 583

Proposta di regolamento

Articolo 62 — paragrafo 3 bis (nuovo)

Testo della Commissione

Emendamento

 

3 bis.     Le autorità nazionali di controllo notificano annualmente all'ufficio per l'IA gli incidenti gravi loro segnalati a norma del presente articolo.

Emendamento 584

Proposta di regolamento

Articolo 63 — paragrafo 1 — parte introduttiva

Testo della Commissione

Emendamento

1.   Il regolamento (UE) 2019/1020 si applica ai sistemi di IA disciplinati dal presente regolamento. Tuttavia, ai fini dell'efficace applicazione del presente regolamento:

1.   Il regolamento (UE) 2019/1020 si applica ai sistemi di IA e ai sistemi di base disciplinati dal presente regolamento. Tuttavia, ai fini dell'efficace applicazione del presente regolamento:

Emendamento 585

Proposta di regolamento

Articolo 63 — paragrafo 1 — lettera b bis (nuova)

Testo della Commissione

Emendamento

 

b bis)

le autorità nazionali di controllo agiscono in qualità di autorità di vigilanza del mercato ai sensi del presente regolamento e hanno gli stessi poteri e obblighi delle autorità di vigilanza del mercato ai sensi del regolamento (UE) 2019/1020.

Emendamento 586

Proposta di regolamento

Articolo 63 — paragrafo 2

Testo della Commissione

Emendamento

2.   L'autorità nazionale di controllo riferisce periodicamente alla Commissione in merito ai risultati delle pertinenti attività di vigilanza del mercato. L'autorità nazionale di controllo comunica senza indugio alla Commissione e alle pertinenti autorità nazionali garanti della concorrenza qualsiasi informazione individuata nel corso delle attività di vigilanza del mercato che possa essere di potenziale interesse per l'applicazione del diritto dell'Unione in materia di concorrenza.

2.   L'autorità nazionale di controllo riferisce annualmente alla Commissione e all'ufficio per l'IA in merito ai risultati delle pertinenti attività di vigilanza del mercato. L'autorità nazionale di controllo comunica senza indugio alla Commissione e alle pertinenti autorità nazionali garanti della concorrenza qualsiasi informazione individuata nel corso delle attività di vigilanza del mercato che possa essere di potenziale interesse per l'applicazione del diritto dell'Unione in materia di concorrenza.

Emendamento 587

Proposta di regolamento

Articolo 63 — paragrafo 3 bis (nuovo)

Testo della Commissione

Emendamento

 

3 bis.     Al fine di garantire l'effettiva applicazione del presente regolamento, le autorità nazionali di controllo possono:

 

a)

effettuare ispezioni di sistemi di IA ad alto rischio in loco e a distanza senza preavviso;

 

b)

acquisire campioni relativi a sistemi di IA ad alto rischio, anche attraverso ispezioni a distanza, per sottoporre a ingegneria inversa i sistemi di IA e ottenere prove al fine di individuare i casi di non conformità.

Emendamento 588

Proposta di regolamento

Articolo 63 — paragrafo 5

Testo della Commissione

Emendamento

5.   Per i sistemi di IA elencati al punto 1, lettera a), nella misura in cui tali sistemi sono utilizzati a fini di attività di contrasto, e ai punti 6 e 7 dell'allegato III, gli Stati membri designano come autorità di vigilanza del mercato ai fini del presente regolamento le autorità di controllo competenti per la protezione dei dati a norma della direttiva (UE) 2016/680 o del regolamento (CE) n. 2016/679 o le autorità nazionali competenti che controllano le attività delle autorità di contrasto o delle autorità competenti in materia di immigrazione o di asilo che mettono in servizio o usano tali sistemi .

5.   Per i sistemi di IA utilizzati a fini di attività di contrasto, gli Stati membri designano come autorità di vigilanza del mercato ai fini del presente regolamento le autorità di controllo competenti per la protezione dei dati a norma della direttiva (UE) 2016/680.

Emendamento 589

Proposta di regolamento

Articolo 63 — paragrafo 7

Testo della Commissione

Emendamento

7.    Gli Stati membri agevolano il coordinamento tra le autorità di vigilanza del mercato designate a norma del presente regolamento e altre autorità o organismi nazionali pertinenti che controllano l'applicazione della normativa di armonizzazione dell'Unione elencata nell'allegato II o di altre normative dell'Unione che potrebbero essere pertinenti per i sistemi di IA ad alto rischio di cui all'allegato III.

7.   Le autorità nazionali di controllo designate a norma del presente regolamento si coordinano con altre autorità o organismi nazionali pertinenti che controllano l'applicazione della legislazione di armonizzazione dell'Unione elencata nell'allegato II o di altra legislazione dell'Unione che potrebbe essere pertinente per i sistemi di IA ad alto rischio di cui all'allegato III.

Emendamento 590

Proposta di regolamento

Articolo 64 — paragrafo 1

Testo della Commissione

Emendamento

1.    Per quanto riguarda l'accesso ai dati alla documentazione nell'ambito delle loro attività, alle autorità di vigilanza del mercato è concesso pieno accesso ai set di dati di addestramento, convalida e prova utilizzati dal fornitore, anche attraverso interfacce di programmazione delle applicazioni («API») o altri mezzi tecnici e strumenti adeguati che consentano l'accesso remoto .

1.   Nell'ambito delle loro attività , e sulla base di una loro richiesta motivata , alle autorità nazionali di controllo è concesso pieno accesso ai set di dati di addestramento, convalida e prova utilizzati dal fornitore, o, se del caso, dall'operatore, che sono pertinenti e strettamente necessari ai fini della loro richiesta attraverso altri mezzi tecnici e strumenti adeguati.

Emendamento 591

Proposta di regolamento

Articolo 64 — paragrafo 2

Testo della Commissione

Emendamento

2.   Ove necessario per valutare la conformità del sistema di IA ad alto rischio ai requisiti di cui al titolo III, capo 2, e su richiesta motivata, alle autorità di vigilanza del mercato è concesso l'accesso al codice sorgente del sistema di IA.

2.   Ove necessario per valutare la conformità del sistema di IA ad alto rischio ai requisiti di cui al titolo III, capo 2, dopo che tutte le altre modalità ragionevoli per verificare la conformità, compreso il paragrafo 1, sono state esaurite e si sono rivelate insufficienti, e su richiesta motivata, all'autorità nazionale di controllo è concesso l'accesso ai modelli di addestramento e addestrati del sistema di IA , compresi i relativi parametri del modello . Tutte le informazioni ottenute a norma dell'articolo 70 sono trattate come informazioni riservate, sono soggette alla normativa vigente dell'Unione in materia di tutela della proprietà intellettuale e dei segreti commerciali e sono cancellate al termine dell'indagine per la quale sono state richieste.

Emendamento 592

Proposta di regolamento

Articolo 64 — paragrafo 2 bis (nuovo)

Testo della Commissione

Emendamento

 

2 bis.     I paragrafi 1 e 2 non pregiudicano i diritti procedurali dell'operatore interessato in conformità all'articolo 18 del regolamento (UE) 2019/1020.

Emendamento 593

Proposta di regolamento

Articolo 64 — paragrafo 3

Testo della Commissione

Emendamento

3.   Le autorità o gli organismi pubblici nazionali che controllano o fanno rispettare gli obblighi previsti dal diritto dell'Unione a tutela dei diritti fondamentali in relazione all'uso dei sistemi di IA ad alto rischio di cui all'allegato III hanno il potere di richiedere qualsiasi documentazione creata o mantenuta a norma del presente regolamento o di accedervi quando l'accesso a tale documentazione è necessario per l'adempimento delle competenze a norma del loro mandato entro i limiti della loro giurisdizione. L'autorità pubblica o l'organismo pubblico pertinente informa l'autorità di vigilanza del mercato dello Stato membro interessato di qualsiasi richiesta in tal senso.

3.   Le autorità o gli organismi pubblici nazionali che controllano o fanno rispettare gli obblighi previsti dal diritto dell'Unione a tutela dei diritti fondamentali in relazione all'uso dei sistemi di IA ad alto rischio di cui all'allegato III hanno il potere di richiedere qualsiasi documentazione creata o mantenuta a norma del presente regolamento o di accedervi quando l'accesso a tale documentazione è necessario per l'adempimento delle competenze a norma del loro mandato entro i limiti della loro giurisdizione. L'autorità pubblica o l'organismo pubblico pertinente informa l'autorità nazionale di controllo dello Stato membro interessato di qualsiasi richiesta in tal senso.

Emendamento 594

Proposta di regolamento

Articolo 64 — paragrafo 4

Testo della Commissione

Emendamento

4.   Entro 3 mesi dall'entrata in vigore del presente regolamento, ciascuno Stato membro individua le autorità o gli organismi pubblici di cui al paragrafo 3 e pubblica un elenco sul sito web dell'autorità nazionale di controllo. Gli Stati membri notificano l'elenco alla Commissione e a tutti gli altri Stati membri e lo tengono aggiornato.

4.   Entro 3 mesi dall'entrata in vigore del presente regolamento, ciascuno Stato membro individua le autorità o gli organismi pubblici di cui al paragrafo 3 e pubblica un elenco sul sito web dell'autorità nazionale di controllo. Le autorità nazionali di controllo notificano l'elenco alla Commissione , all'ufficio per l'IA e a tutte le altre autorità nazionali di controllo e lo tengono aggiornato. La Commissione pubblica su un sito web dedicato l'elenco di tutte le autorità competenti designate dagli Stati Membri ai sensi del presente articolo.

Emendamento 595

Proposta di regolamento

Articolo 64 — paragrafo 5

Testo della Commissione

Emendamento

5.   Qualora la documentazione di cui al paragrafo 3 non sia sufficiente per accertare un'eventuale violazione degli obblighi previsti dal diritto dell'Unione a tutela dei diritti fondamentali, l'autorità pubblica o l'organismo pubblico di cui al paragrafo 3 può presentare all'autorità di vigilanza del mercato una richiesta motivata al fine di organizzare una prova del sistema di IA ad alto rischio mediante mezzi tecnici. L'autorità di vigilanza del mercato organizza le prove coinvolgendo da vicino l'autorità pubblica o l'organismo pubblico richiedente entro un termine ragionevole dalla richiesta.

5.   Qualora la documentazione di cui al paragrafo 3 non sia sufficiente per accertare un'eventuale violazione degli obblighi previsti dal diritto dell'Unione a tutela dei diritti fondamentali, l'autorità pubblica o l'organismo pubblico di cui al paragrafo 3 può presentare all'autorità nazionale di controllo una richiesta motivata al fine di organizzare una prova del sistema di IA ad alto rischio mediante mezzi tecnici. L'autorità nazionale di controllo organizza le prove coinvolgendo da vicino l'autorità pubblica o l'organismo pubblico richiedente entro un termine ragionevole dalla richiesta.

Emendamento 596

Proposta di regolamento

Articolo 65 — paragrafo 1

Testo della Commissione

Emendamento

1.   Un sistema di IA che presenta un rischio è inteso come un prodotto che presenta un rischio definito all'articolo 3 , punto 19 , del regolamento (UE) 2019/1020 per quanto riguarda i rischi per la salute o la sicurezza o per la tutela dei diritti fondamentali delle persone.

1.   Un sistema di IA che presenta un rischio è inteso come un sistema di IA che potenzialmente potrebbe pregiudicare la salute, la sicurezza e i diritti fondamentali delle persone in generale, anche sul posto di lavoro, la protezione dei consumatori, l'ambiente e la sicurezza pubblica, la democrazia, lo Stato di diritto e altri interessi pubblici tutelati dalla normativa di armonizzazione dell'Unione applicabile, in una misura che oltrepassa quanto ritenuto ragionevole e accettabile in relazione al suo uso previsto o nelle condizioni d'uso normali o ragionevolmente prevedibili del sistema interessato, incluse la durata di utilizzo e, se del caso, le prescrizioni relative alla messa in servizio, all'installazione e alla manutenzione .

Emendamento 597

Proposta di regolamento

Articolo 65 — paragrafo 2 — comma 1

Testo della Commissione

Emendamento

2.   Qualora l'autorità di vigilanza del mercato di uno Stato membro abbia motivi sufficienti per ritenere che un sistema di IA presenti un rischio di cui al paragrafo 1, essa effettua una valutazione del sistema di IA interessato per quanto riguarda la sua conformità a tutti i requisiti e gli obblighi di cui al presente regolamento. In presenza di rischi per la tutela dei diritti fondamentali, l'autorità di vigilanza del mercato informa anche le autorità o gli organismi pubblici nazionali competenti di cui all'articolo 64, paragrafo 3. I pertinenti operatori cooperano, per quanto necessario, con le autorità di vigilanza del mercato e con le altre autorità o gli altri organismi pubblici nazionali di cui all'articolo 64, paragrafo 3.

2.   Qualora l'autorità nazionale di controllo di uno Stato membro abbia motivi sufficienti per ritenere che un sistema di IA presenti un rischio di cui al paragrafo 1, essa effettua una valutazione del sistema di IA interessato per quanto riguarda la sua conformità a tutti i requisiti e gli obblighi di cui al presente regolamento. In presenza di rischi per i diritti fondamentali, l'autorità nazionale di controllo informa immediatamente anche le autorità o gli organismi pubblici nazionali competenti di cui all'articolo 64, paragrafo 3 e coopera pienamente con essi. Laddove vi siano motivi sufficienti per ritenere che un sistema di IA sfrutti le vulnerabilità di gruppi vulnerabili o violi intenzionalmente o meno i loro diritti, l'autorità nazionale di controllo ha il dovere di indagare sugli obiettivi di progettazione, sugli input di dati, sulla selezione del modello e sull'attuazione e i risultati dei sistemi di IA. I pertinenti operatori cooperano, per quanto necessario, con le autorità nazionali di controllo e con le altre autorità o gli altri organismi pubblici nazionali di cui all'articolo 64, paragrafo 3.

Emendamento 598

Proposta di regolamento

Articolo 65 — paragrafo 2 — comma 2

Testo della Commissione

Emendamento

Se, nel corso di tale valutazione, le autorità di vigilanza del mercato rilevano che il sistema di IA non è conforme ai requisiti e agli obblighi di cui al presente regolamento, esse chiedono senza ritardo al pertinente operatore di adottare tutte le misure correttive adeguate al fine di, a seconda dei casi, ripristinare la conformità del sistema di IA, ritirarlo dal mercato o richiamarlo entro un termine ragionevole e proporzionale alla natura del rischio.

Se, nel corso di tale valutazione, le autorità nazionali di controllo o, se del caso, l'autorità pubblica nazionale di cui all'articolo 64, paragrafo 3, rilevano che il sistema di IA non è conforme ai requisiti e agli obblighi di cui al presente regolamento, esse chiedono senza ritardo al pertinente operatore di adottare tutte le misure correttive adeguate al fine di, a seconda dei casi, ripristinare la conformità del sistema di IA, ritirarlo dal mercato o richiamarlo entro un termine ragionevole e proporzionale alla natura del rischio e in ogni caso non oltre 15 giorni lavorativi o secondo quanto previsto nella normativa di armonizzazione applicabile dell'Unione .

Emendamento 599

Proposta di regolamento

Articolo 65 — paragrafo 2 — comma 3

Testo della Commissione

Emendamento

L'autorità di vigilanza del mercato informa di conseguenza l'organismo notificato pertinente. L'articolo 18 del regolamento (UE) 2019/1020 si applica alle misure di cui al secondo comma.

L'autorità nazionale di controllo informa di conseguenza l'organismo notificato pertinente. L'articolo 18 del regolamento (UE) 2019/1020 si applica alle misure di cui al secondo comma.

Emendamento 600

Proposta di regolamento

Articolo 65 — paragrafo 3

Testo della Commissione

Emendamento

3.   Qualora ritenga che la non conformità non sia limitata al territorio nazionale, l'autorità di vigilanza del mercato informa la Commissione e  gli altri Stati membri dei risultati della valutazione e delle azioni che hanno chiesto all'operatore economico di intraprendere.

3.   Qualora ritenga che la non conformità non sia limitata al territorio nazionale, l'autorità nazionale di controllo informa senza indebito ritardo la Commissione , l'ufficio per l'IA le autorità nazionali di controllo degli altri Stati membri dei risultati della valutazione e delle azioni che hanno chiesto all'operatore economico di intraprendere.

Emendamento 601

Proposta di regolamento

Articolo 65 — paragrafo 5

Testo della Commissione

Emendamento

5.   Qualora l'operatore di un sistema di IA non adotti misure correttive adeguate nel periodo di cui al paragrafo 2, l'autorità di vigilanza del mercato adotta tutte le misure provvisorie del caso per vietare o limitare la messa a disposizione del sistema di IA sul mercato nazionale, per ritirare il prodotto dal mercato o per richiamarlo. Tale autorità informa senza ritardo la Commissione e gli altri Stati membri di tale misure .

5.   Qualora l'operatore di un sistema di IA non adotti misure correttive adeguate nel periodo di cui al paragrafo 2, l'autorità nazionale di controllo adotta tutte le misure provvisorie del caso per vietare o limitare la messa a disposizione del sistema di IA sul mercato nazionale o la sua messa in funzione , per ritirare il sistema di IA dal mercato o per richiamarlo. Tale autorità informa immediatamente di tali misure la Commissione , l'ufficio per l'IA l'autorità nazionale di controllo degli gli altri Stati membri.

Emendamento 602

Proposta di regolamento

Articolo 65 — paragrafo 6 — parte introduttiva

Testo della Commissione

Emendamento

6.   Le informazioni di cui al paragrafo 5 includono tutti i particolari disponibili, soprattutto i dati necessari all'identificazione del sistema di IA non conforme, la sua origine, la natura della presunta non conformità e dei rischi connessi, la natura e la durata delle misure nazionali adottate, nonché gli argomenti espressi dal pertinente operatore. Le autorità di vigilanza del mercato indicano in particolare se la non conformità sia dovuta a una o più delle cause seguenti:

6.   Le informazioni di cui al paragrafo 5 includono tutti i particolari disponibili, soprattutto i dati necessari all'identificazione del sistema di IA non conforme, la sua origine e la sua catena di approvvigionamento , la natura della presunta non conformità e dei rischi connessi, la natura e la durata delle misure nazionali adottate, nonché gli argomenti espressi dal pertinente operatore. L'autorità nazionale di controllo indica in particolare se la non conformità sia dovuta a una o più delle cause seguenti:

Emendamento 603

Proposta di regolamento

Articolo 65 — paragrafo 6 — lettera a

Testo della Commissione

Emendamento

a)

mancato rispetto da parte del sistema di IA dei requisiti di cui al titolo III, capo 2 ;

a)

mancato rispetto da parte del sistema di IA ad alto rischio dei requisiti di cui al presente regolamento ;

Emendamento 604

Proposta di regolamento

Articolo 65 — paragrafo 6 — lettera b bis (nuova)

Testo della Commissione

Emendamento

 

b bis)

inosservanza del divieto delle pratiche di intelligenza artificiale di cui all'articolo 5;

Emendamento 605

Proposta di regolamento

Articolo 65 — paragrafo 6 — lettera b ter (nuova)

Testo della Commissione

Emendamento

 

b ter)

inosservanza delle disposizioni di cui all'articolo 52.

Emendamento 606

Proposta di regolamento

Articolo 65 — paragrafo 7

Testo della Commissione

Emendamento

7.   Le autorità di vigilanza del mercato degli Stati membri diverse dall'autorità di vigilanza del mercato dello Stato membro che ha avviato la procedura comunicano senza ritardo alla Commissione e agli altri Stati membri tutte le misure adottate, tutte le altre informazioni a loro disposizione sulla non conformità del sistema di IA interessato e, in caso di disaccordo con la misura nazionale notificata, le loro obiezioni.

7.   Le autorità nazionali di controllo degli Stati membri diverse dall'autorità nazionale di controllo dello Stato membro che ha avviato la procedura comunicano senza ritardo alla Commissione , all'ufficio per l'IA e agli altri Stati membri tutte le misure adottate, tutte le altre informazioni a loro disposizione sulla non conformità del sistema di IA interessato e, in caso di disaccordo con la misura nazionale notificata, le loro obiezioni.

Emendamento 607

Proposta di regolamento

Articolo 65 — paragrafo 8

Testo della Commissione

Emendamento

8.   Se, entro tre mesi dal ricevimento delle informazioni di cui al paragrafo 5, uno Stato membro o la Commissione non sollevano obiezioni contro la misura provvisoria adottata da uno Stato membro, tale misura è ritenuta giustificata. Ciò non pregiudica i diritti procedurali dell'operatore interessato in conformità all'articolo 18 del regolamento (UE) 2019/1020.

8.   Se, entro tre mesi dal ricevimento delle informazioni di cui al paragrafo 5, un'autorità nazionale di controllo di uno Stato membro o la Commissione non sollevano obiezioni contro la misura provvisoria adottata da un'autorità nazionale di controllo un altro Stato membro, tale misura è ritenuta giustificata. Ciò non pregiudica i diritti procedurali dell'operatore interessato in conformità all'articolo 18 del regolamento (UE) 2019/1020. Il periodo di cui al primo comma del presente paragrafo è ridotto a trenta giorni in caso di inosservanza del divieto delle pratiche di intelligenza artificiale di cui all'articolo 5.

Emendamento 608

Proposta di regolamento

Articolo 65 — paragrafo 9

Testo della Commissione

Emendamento

9.   Le autorità di vigilanza del mercato garantiscono che siano adottate senza ritardo adeguate misure restrittive in relazione al prodotto interessato, come il ritiro del prodotto dal loro mercato.

9.   Le autorità nazionali di controllo di tutti gli Stati membri garantiscono che siano adottate senza ritardo adeguate misure restrittive in relazione al sistema di IA interessato, come il ritiro del sistema di IA dal loro mercato.

Emendamento 609

Proposta di regolamento

Articolo 65 — paragrafo 9 bis (nuovo)

Testo della Commissione

Emendamento

 

9 bis.     Le autorità nazionali di controllo riferiscono annualmente all'ufficio per l'IA in merito all'eventuale ricorso a pratiche vietate verificatosi nel corso di tale anno e alle misure adottate per eliminare o attenuare i rischi in conformità del presente articolo.

Emendamento 610

Proposta di regolamento

Articolo 66 — paragrafo 1

Testo della Commissione

Emendamento

1.   Se entro tre mesi dal ricevimento della notifica di cui all'articolo 65, paragrafo 5, uno Stato membro solleva obiezioni contro la misura adottata da un altro Stato membro , o se la Commissione ritiene che la misura sia contraria al diritto dell'Unione, la Commissione consulta senza ritardo lo Stato membro e l'operatore o gli operatori pertinenti e valuta la misura nazionale. Sulla base dei risultati di tale valutazione, la Commissione decide se la misura nazionale sia giustificata o meno entro 9 mesi dalla notifica di cui all'articolo 65, paragrafo 5, e notifica tale decisione allo Stato membro interessato.

1.   Se entro tre mesi dal ricevimento della notifica di cui all'articolo 65, paragrafo 5, oppure 30 giorni in caso di inosservanza del divieto delle pratiche di intelligenza artificiale di cui all'articolo 5 , l'autorità nazionale di controllo di uno Stato membro solleva obiezioni contro la misura adottata da un'altra autorità nazionale di controllo , o se la Commissione ritiene che la misura sia contraria al diritto dell'Unione, la Commissione consulta senza ritardo l'autorità nazionale di controllo dello Stato membro e l'operatore o gli operatori pertinenti e valuta la misura nazionale. Sulla base dei risultati di tale valutazione, la Commissione decide se la misura nazionale sia giustificata o meno entro tre mesi, o 60 giorni in caso di inosservanza del divieto delle pratiche di intelligenza artificiale di cui all'articolo 5, a decorrere dalla notifica di cui all'articolo 65, paragrafo 5, e notifica tale decisione all'autorità nazionale di controllo dello Stato membro interessato. La Commissione informa inoltre di tale decisione tutte le altre autorità nazionali di controllo.

Emendamento 611

Proposta di regolamento

Articolo 66 — paragrafo 2

Testo della Commissione

Emendamento

2.   Se la misura nazionale è ritenuta giustificata, tutti gli Stati membri adottano le misure necessarie a garantire che il sistema di IA non conforme sia ritirato dal loro mercato e ne informano la Commissione. Se la misura nazionale è ritenuta ingiustificata, lo Stato membro interessato provvede a ritirarla.

2.   Se la misura nazionale è ritenuta giustificata, tutte le autorità nazionali di controllo designate a norma del presente regolamento adottano le misure necessarie a garantire che il sistema di IA non conforme sia ritirato senza indugio dal loro mercato e ne informano la Commissione e l'ufficio per l'IA . Se la misura nazionale è ritenuta ingiustificata, l'autorità nazionale di controllo dello Stato membro interessato provvede a ritirarla.

Emendamento 612

Proposta di regolamento

Articolo 66 bis (nuovo)

Testo della Commissione

Emendamento

 

Articolo 66 bis

Indagini congiunte

Qualora un'autorità nazionale di controllo abbia motivo di sospettare che la violazione del presente regolamento da parte di un fornitore o di un operatore di un sistema di IA o di un modello di base ad alto rischio costituisca una violazione diffusa avente una dimensione a livello di Unione o riguardi o possa riguardare almeno 45 milioni di persone in più di uno Stato membro, tale autorità nazionale di controllo informa l'ufficio per l'IA e può chiedere alle autorità nazionali di controllo degli Stati membri in cui si è verificata tale violazione di avviare un'indagine congiunta. L'ufficio per l'IA assicura il coordinamento centrale dell'indagine congiunta. I poteri di indagine restano di competenza delle autorità nazionali di controllo.

Emendamento 613

Proposta di regolamento

Articolo 67 — paragrafo 1

Testo della Commissione

Emendamento

1.   Se, dopo aver effettuato una valutazione a norma dell'articolo 65, l'autorità di vigilanza del mercato di uno Stato membro ritiene che, sebbene conforme al presente regolamento, il sistema di IA presenti un rischio per la salute o la sicurezza delle persone, per la conformità agli obblighi previsti dal diritto dell'Unione o nazionale a tutela dei diritti fondamentali o per altri aspetti della tutela dell'interesse pubblico, essa chiede all'operatore pertinente di adottare tutte le misure adeguate a far sì che il sistema di IA, all'atto della sua immissione sul mercato o messa in servizio, non presenti più tale rischio o che sia, a seconda dei casi, ritirato dal mercato o richiamato entro un termine ragionevole, proporzionato alla natura del rischio .

1.   Se, dopo aver effettuato una valutazione a norma dell'articolo 65, in piena collaborazione con l'autorità nazionale di controllo di cui all'articolo 64, paragrafo 3, l'autorità nazionale di controllo di uno Stato membro ritiene che, sebbene conforme al presente regolamento, il sistema di IA presenti un rischio grave per la salute o la sicurezza delle persone, per la conformità agli obblighi previsti dal diritto dell'Unione o nazionale a tutela dei diritti fondamentali , dell'ambiente, della democrazia, dello Stato di diritto o per altri aspetti della tutela dell'interesse pubblico, essa chiede all'operatore pertinente di adottare tutte le misure adeguate a far sì che il sistema di IA, all'atto della sua immissione sul mercato o messa in servizio, non presenti più tale rischio.

Emendamento 614

Proposta di regolamento

Articolo 67 — paragrafo 2

Testo della Commissione

Emendamento

2.   Il fornitore o altri operatori pertinenti garantiscono l'adozione di misure correttive nei confronti di tutti i sistemi di IA interessati che hanno messo a disposizione sul mercato in tutta l'Unione entro il termine prescritto dall'autorità di vigilanza del mercato dello Stato membro di cui al paragrafo 1.

2.   Il fornitore o altri operatori pertinenti garantiscono l'adozione di misure correttive nei confronti di tutti i sistemi di IA interessati che hanno messo a disposizione sul mercato in tutta l'Unione entro il termine prescritto dall'autorità nazionale di controllo dello Stato membro di cui al paragrafo 1.

Emendamento 615

Proposta di regolamento

Articolo 67 — paragrafo 2 bis (nuovo)

Testo della Commissione

Emendamento

 

2 bis.     Qualora il fornitore o altri operatori pertinenti non intraprendano l'azione correttiva di cui al paragrafo 2 e il sistema di IA continui a presentare un rischio di cui al paragrafo 1, l'autorità nazionale di controllo può imporre all'operatore pertinente di ritirare il sistema di IA dal mercato o di richiamarlo entro un termine ragionevole, proporzionato alla natura del rischio.

Emendamento 616

Proposta di regolamento

Articolo 67 — paragrafo 3

Testo della Commissione

Emendamento

3.    Lo Stato membro informa immediatamente la Commissione e  gli altri Stati membri . Tali informazioni comprendono tutti i dettagli disponibili, in particolare i dati necessari all'identificazione del sistema di IA interessato, l'origine e la catena di approvvigionamento del sistema di IA, la natura del rischio connesso, nonché la natura e la durata delle misure nazionali adottate.

3.    L'autorità nazionale di controllo informa immediatamente la Commissione , l'ufficio per l'IA le altre autorità nazionali di controllo . Tali informazioni comprendono tutti i dettagli disponibili, in particolare i dati necessari all'identificazione del sistema di IA interessato, l'origine e la catena di approvvigionamento del sistema di IA, la natura del rischio connesso, nonché la natura e la durata delle misure nazionali adottate.

Emendamento 617

Proposta di regolamento

Articolo 67 — paragrafo 4

Testo della Commissione

Emendamento

4.   La Commissione avvia senza ritardo consultazioni con gli Stati membri e l'operatore o gli operatori pertinenti e valuta le misure nazionali adottate. In base ai risultati di tale valutazione, la Commissione decide se la misura sia giustificata o meno e propone, ove necessario, misure appropriate.

4.   La Commissione , in consultazione con l'ufficio per l'IA, avvia senza ritardo consultazioni con le autorità nazionali di controllo interessate e l'operatore o gli operatori pertinenti e valuta le misure nazionali adottate. In base ai risultati di tale valutazione, l'ufficio per l'IA decide se la misura sia giustificata o meno e propone, ove necessario, misure appropriate.

Emendamento 618

Proposta di regolamento

Articolo 67 — paragrafo 5

Testo della Commissione

Emendamento

5.   La Commissione trasmette la decisione agli Stati membri.

5.   La Commissione , in consultazione con l'ufficio per l'IA, comunica immediatamente la decisione alle autorità nazionali di controllo degli Stati membri interessati e agli operatori pertinenti . Essa comunica inoltre la decisione a tutte le altre autorità nazionali di controllo.

Emendamento 619

Proposta di regolamento

Articolo 67 — paragrafo 5 bis (nuovo)

Testo della Commissione

Emendamento

 

5 bis.     La Commissione adotta orientamenti per aiutare le autorità nazionali competenti a individuare e risolvere, ove necessario, problemi analoghi sorti con altri sistemi di IA.

Emendamento 620

Proposta di regolamento

Articolo 68 — paragrafo 1 — parte introduttiva

Testo della Commissione

Emendamento

1.   Un'autorità di vigilanza del mercato di uno Stato membro che giunga a una delle conclusioni riportate di seguito chiede all'operatore pertinente di porre fine alla non conformità contestata:

1.   Un'autorità nazionale di controllo di uno Stato membro che giunga a una delle conclusioni riportate di seguito chiede all'operatore pertinente di porre fine alla non conformità contestata:

Emendamento 621

Proposta di regolamento

Articolo 68 — paragrafo 1 — lettera a

Testo della Commissione

Emendamento

a)

la marcatura di conformità è stata apposta in violazione dell'articolo 49;

a)

la marcatura CE è stata apposta in violazione dell'articolo 49;

Emendamento 622

Proposta di regolamento

Articolo 68 — paragrafo 1 — lettera b

Testo della Commissione

Emendamento

b)

la marcatura di conformità non è stata apposta;

b)

la marcatura CE non è stata apposta;

Emendamento 623

Proposta di regolamento

Articolo 68 — paragrafo 1 — lettera e bis (nuova)

Testo della Commissione

Emendamento

 

e bis)

la documentazione tecnica non è disponibile;

Emendamento 624

Proposta di regolamento

Articolo 68 — paragrafo 1 — lettera e ter (nuova)

Testo della Commissione

Emendamento

 

e ter)

la registrazione nella banca dati dell'UE non è stata effettuata;

Emendamento 625

Proposta di regolamento

Articolo 68 — paragrafo 1 — lettera e quater (nuova)

Testo della Commissione

Emendamento

 

e quater)

se del caso, il rappresentante autorizzato non è stato nominato.

Emendamento 626

Proposta di regolamento

Articolo 68 — paragrafo 2

Testo della Commissione

Emendamento

2.   Se la non conformità di cui al paragrafo 1 permane, lo Stato membro interessato adotta tutte le misure appropriate per limitare o proibire la messa a disposizione sul mercato del sistema di IA ad alto rischio o garantisce che sia richiamato o ritirato dal mercato.

2.   Se la non conformità di cui al paragrafo 1 permane, l'autorità nazionale di controllo dello Stato membro interessato adotta misure appropriate e proporzionate per limitare o proibire la messa a disposizione sul mercato del sistema di IA ad alto rischio o garantisce che sia richiamato o ritirato dal mercato senza ritardo. L'autorità nazionale di controllo dello Stato membro interessato informa immediatamente l'ufficio per l'IA in merito alla non conformità e alle misure adottate.

Emendamento 627

Proposta di regolamento

Articolo 68 — Capo 3 bis (new)

Testo della Commissione

Emendamento

 

3 bis.

Mezzi di ricorso

Emendamento 628

Proposta di regolamento

Articolo 68 bis (nuovo)

Testo della Commissione

Emendamento

 

Articolo 68 bis

 

Diritto di presentare un reclamo all'autorità nazionale di controllo

 

1.     Fatto salvo qualsiasi altro ricorso amministrativo o giurisdizionale, ogni persona fisica o gruppo di persone fisiche ha il diritto di presentare un reclamo a un'autorità nazionale di controllo, in particolare nello Stato membro in cui risiede abitualmente, in cui lavora o in cui si verifica la presunta violazione, se ritiene che il sistema di IA che lo riguarda violi il presente regolamento.

 

2.     L'autorità nazionale di controllo a cui è stato presentato il reclamo informa il ricorrente dello stato o dell'esito del reclamo, compresa la possibilità di un ricorso giurisdizionale ai sensi dell'articolo 78.

Emendamento 629

Proposta di regolamento

Articolo 68 ter (nuovo)

Testo della Commissione

Emendamento

 

Articolo 68 ter

 

Diritto a un ricorso giurisdizionale effettivo nei confronti dell'autorità nazionale di controllo

 

1.     Fatto salvo ogni altro ricorso amministrativo o extragiudiziale, ogni persona fisica o giuridica ha diritto a un ricorso giurisdizionale effettivo avverso una decisione giuridicamente vincolante dell'autorità nazionale di controllo che la riguarda.

 

2.     Fatto salvo ogni altro ricorso amministrativo o extragiudiziale, ogni persona fisica o giuridica ha diritto a un ricorso giurisdizionale effettivo qualora l'autorità nazionale di controllo competente a norma dell'articolo 59 non tratti un reclamo o non informi l'interessato entro tre mesi in merito allo stato o all'esito del reclamo presentato a norma dell'articolo 68 bis.

 

3.     Le azioni nei confronti dell'autorità nazionale di controllo sono promosse dinanzi alle autorità giurisdizionali dello Stato membro in cui l'autorità nazionale di controllo è stabilita.

 

4.     Qualora sia promossa un'azione avverso una decisione di un'autorità nazionale di controllo che è stata preceduta da un parere o da una decisione della Commissione nell'ambito della procedura di salvaguardia dell'Unione, l'autorità di controllo trasmette tale parere o decisione all'autorità giurisdizionale.

Emendamento 630

Proposta di regolamento

Articolo 68 quater (nuovo)

Testo della Commissione

Emendamento

 

Articolo 68 quater

 

Diritto alla spiegazione dei singoli processi decisionali

 

1.     Le persone interessate soggette a una decisione presa dall'operatore sulla base dell'output di un sistema di IA ad alto rischio che produca effetti giuridici o che incida in modo analogo e significativo sulle persone stesse in un modo che esse ritengono abbia un impatto negativo sulla salute, la sicurezza, i diritti fondamentali, il benessere socioeconomico o qualsiasi altro dei loro diritti derivanti dagli obblighi stabiliti nel presente regolamento, hanno il diritto di chiedere all'operatore spiegazioni chiare e significative, ai sensi dell'articolo 13, paragrafo 1, sul ruolo del sistema di IA nella procedura decisionale, sui principali parametri della decisione presa e sui relativi dati di input.

 

2.     Il paragrafo 1 non si applica all'uso di sistemi di IA per i quali il diritto dell'Unione o nazionale preveda eccezioni o limitazioni all'obbligo di cui al paragrafo 1 nella misura in cui tali eccezioni o limitazioni rispettino l'essenza dei diritti e delle libertà fondamentali e siano una misura necessaria e proporzionata in una società democratica.

 

3.     Il presente articolo si applica fatti salvi gli articoli 13, 14, 15, e 22 del regolamento 2016/679.

Emendamento 631

Proposta di regolamento

Articolo 68 quinquies (nuovo)

Testo della Commissione

Emendamento

 

Articolo 68 quinquies

 

Modifica della direttiva (UE) 2020/1828

 

All'allegato I della direttiva (UE) 2020/1828 del Parlamento europeo e del Consiglio  (1 bis) è aggiunto il punto seguente:

 

«67 bis)

Regolamento xxxx/xxxx del Parlamento europeo e del Consiglio [che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione (GU L …)]».

Emendamento 632

Proposta di regolamento

Articolo 68 sexies (nuovo)

Testo della Commissione

Emendamento

 

Articolo 68 sexies

Segnalazione delle violazioni e protezione delle persone segnalanti

La direttiva (UE) 2019/1937 del Parlamento europeo e del Consiglio si applica alla segnalazione di violazioni del presente regolamento e alla protezione delle persone che segnalano tali violazioni.

Emendamento 633

Proposta di regolamento

Articolo 69 — paragrafo 1

Testo della Commissione

Emendamento

1.   La Commissione e gli Stati membri incoraggiano e agevolano l'elaborazione di codici di condotta intesi a promuovere l'applicazione volontaria ai sistemi di IA diversi dai sistemi di IA ad alto rischio dei requisiti di cui al titolo III, capo 2, sulla base di specifiche tecniche e soluzioni che costituiscono mezzi adeguati per garantire la conformità a tali requisiti alla luce della finalità prevista dei sistemi.

1.   La Commissione , l'ufficio per l'IA e gli Stati membri incoraggiano e agevolano l'elaborazione di codici di condotta , anche qualora siano elaborati per dimostrare in che modo i sistemi di IA rispettano i principi di cui all'articolo 4 bis e possano quindi essere considerati affidabili, intesi a promuovere l'applicazione volontaria ai sistemi di IA diversi dai sistemi di IA ad alto rischio dei requisiti di cui al titolo III, capo 2, sulla base di specifiche tecniche e soluzioni che costituiscono mezzi adeguati per garantire la conformità a tali requisiti alla luce della finalità prevista dei sistemi.

Emendamento 634

Proposta di regolamento

Articolo 69 — paragrafo 2

Testo della Commissione

Emendamento

2.    La Commissione e il comitato incoraggiano e agevolano l'elaborazione di codici di condotta intesi a promuovere l'applicazione volontaria ai sistemi di IA dei requisiti relativi, ad esempio, alla sostenibilità ambientale, all'accessibilità per le persone con disabilità, alla partecipazione dei portatori di interessi alla progettazione e allo sviluppo dei sistemi di IA e alla diversità dei gruppi che si occupano dello sviluppo sulla base di obiettivi chiari e indicatori chiave di prestazione volti misurare il conseguimento di tali obiettivi.

2.    I codici di condotta intesi a promuovere il rispetto volontario dei principi alla base dei sistemi di IA affidabili provvedono in particolare quanto segue:

 

a)

mirano a un livello sufficiente di alfabetizzazione in materia di IA tra il loro personale e altre persone che si occupano del funzionamento e dell'uso dei sistemi di IA al fine di osservare tali principi;

 

b)

valutano in che misura i loro sistemi di IA possano interessare le persone o i gruppi di persone vulnerabili, inclusi i bambini, gli anziani, i migranti e le persone con disabilità o se potrebbero essere messe in atto misure volte a incrementare l'accessibilità o a sostenere in altro modo tali persone o gruppi di persone;

 

c)

prestano attenzione al modo in cui l'uso dei loro sistemi di IA può avere un impatto sulla diversità, sull'equilibrio e sull'uguaglianza di genere o può aumentare tali aspetti;

 

d)

prestano attenzione al fatto che i loro sistemi di IA possano essere utilizzati in un modo che, direttamente o indirettamente, possa rafforzare in modo residuo o significativo i pregiudizi o le disuguaglianze esistenti;

 

e)

riflettono sulla necessità e sull'importanza di disporre di diversi gruppi di sviluppatori al fine di garantire una progettazione inclusiva dei loro sistemi;

 

f)

valutano attentamente se i loro sistemi possono avere un impatto negativo sulla società, in particolare per quanto concerne le istituzioni politiche e i processi democratici;

 

g)

valutano in che modo i sistemi di IA possono contribuire alla sostenibilità ambientale e in particolare agli impegni dell'Unione nell'ambito del Green Deal europeo e della dichiarazione europea sui diritti e i principi digitali;

Emendamento 635

Proposta di regolamento

Articolo 69 — paragrafo 3

Testo della Commissione

Emendamento

3.   I codici di condotta possono essere elaborati da singoli fornitori di sistemi di IA o da organizzazioni che li rappresentano o da entrambi, anche con la partecipazione degli utenti e di tutti gli altri portatori di interessi e delle loro organizzazioni rappresentative. I codici di condotta possono riguardare uno o più sistemi di IA tenendo conto della similarità della finalità prevista dei sistemi pertinenti.

3.   I codici di condotta possono essere elaborati da singoli fornitori di sistemi di IA o da organizzazioni che li rappresentano o da entrambi, anche con la partecipazione degli utenti e di tutti gli altri portatori di interessi , compresi i ricercatori scientifici, e delle loro organizzazioni rappresentative , in particolare i sindacati, e delle organizzazioni dei consumatori . I codici di condotta possono riguardare uno o più sistemi di IA tenendo conto della similarità della finalità prevista dei sistemi pertinenti. I fornitori che adottano codici di condotta designano almeno una persona fisica responsabile del monitoraggio interno.

Emendamento 636

Proposta di regolamento

Articolo 69 — paragrafo 4

Testo della Commissione

Emendamento

4.   Nell'incoraggiare e agevolare l'elaborazione di codici di condotta, la Commissione e  il comitato tengono conto degli interessi e delle esigenze specifici dei fornitori di piccole dimensioni e delle start-up.

4.   Nell'incoraggiare e agevolare l'elaborazione di codici di condotta, la Commissione e  l'ufficio per l'IA tengono conto degli interessi e delle esigenze specifici delle PMI e delle start-up.

Emendamento 637

Proposta di regolamento

Articolo 70 — paragrafo 1 — parte introduttiva

Testo della Commissione

Emendamento

1.   Le autorità nazionali competenti e gli organismi notificati che partecipano all'applicazione del presente regolamento rispettano la riservatezza delle informazioni e dei dati ottenuti nello svolgimento dei loro compiti e delle loro attività in modo da tutelare, in particolare:

1.    La Commissione, le autorità nazionali competenti e gli organismi notificati , l'ufficio per l'IA e qualsiasi altra persona fisica o giuridica che partecipano all'applicazione del presente regolamento rispettano la riservatezza delle informazioni e dei dati ottenuti nello svolgimento dei loro compiti e delle loro attività in modo da tutelare, in particolare:

Emendamento 638

Proposta di regolamento

Articolo 70 — paragrafo 1 — lettera a

Testo della Commissione

Emendamento

a)

i diritti di proprietà intellettuale e le informazioni commerciali riservate o i segreti commerciali di una persona fisica o giuridica, compreso il codice sorgente, tranne i casi cui si applica l'articolo 5 della direttiva 2016/943 sulla protezione del know-how riservato e delle informazioni commerciali riservate (segreti commerciali) contro l'acquisizione, l'utilizzo e la divulgazione illeciti;

a)

i diritti di proprietà intellettuale e le informazioni commerciali riservate o i segreti commerciali di una persona fisica o giuridica, conformemente alla disposizioni delle direttive 2004/48/CE e 2016/943/CE, compreso il codice sorgente, tranne i casi cui si applica l'articolo 5 della direttiva 2016/943 sulla protezione del know-how riservato e delle informazioni commerciali riservate (segreti commerciali) contro l'acquisizione, l'utilizzo e la divulgazione illeciti;

Emendamento 639

Proposta di regolamento

Articolo 70 — paragrafo 1 — lettera b bis (nuova)

Testo della Commissione

Emendamento

 

b bis)

gli interessi di sicurezza pubblica e nazionale;

Emendamento 640

Proposta di regolamento

Articolo 70 — paragrafo 1 bis (nuovo)

Testo della Commissione

Emendamento

 

1 bis.     Le autorità coinvolte nell'applicazione del presente regolamento a norma del paragrafo 1 limitano la quantità di dati di cui è richiesta la comunicazione ai dati strettamente necessari per il rischio percepito e la valutazione di tale rischio. Esse cancellano i dati non appena non sono più necessari per lo scopo per il quale sono stati richiesti. Esse dovrebbero porre in essere misure organizzative, tecniche e di cibersicurezza adeguate ed efficaci per proteggere la sicurezza e la riservatezza delle informazioni e dei dati ottenuti nello svolgimento dei loro compiti e delle loro attività.

Emendamento 641

Proposta di regolamento

Articolo 70 — paragrafo 2 — comma 1

Testo della Commissione

Emendamento

2.   Fatto salvo il paragrafo 1, nel momento in cui i sistemi di IA ad alto rischio di cui all'allegato III, punti 1, 6 e 7, sono utilizzati dalle autorità di contrasto o dalle autorità competenti in materia di immigrazione o di asilo, le informazioni scambiate in via riservata tra le autorità nazionali competenti e tra le autorità nazionali competenti e la Commissione non sono divulgate senza previa consultazione dell'autorità nazionale competente e  dell'utente che hanno prodotto tali informazioni, qualora tale divulgazione rischi di compromettere gli interessi pubblici e di sicurezza nazionale.

2.   Fatto salvo i paragrafi 1 e 1 bis , nel momento in cui i sistemi di IA ad alto rischio di cui all'allegato III, punti 1, 6 e 7, sono utilizzati dalle autorità di contrasto o dalle autorità competenti in materia di immigrazione o di asilo, le informazioni scambiate in via riservata tra le autorità nazionali competenti e tra le autorità nazionali competenti e la Commissione non sono divulgate senza previa consultazione dell'autorità nazionale competente e  dell'operatore che hanno prodotto tali informazioni, qualora tale divulgazione rischi di compromettere la sicurezza pubblica o nazionale.

Emendamento 642

Proposta di regolamento

Articolo 70 — paragrafo 3

Testo della Commissione

Emendamento

3.   I paragrafi 1 e 2 non pregiudicano i diritti e gli obblighi della Commissione, degli Stati membri e degli organismi notificati in materia di scambio delle informazioni e di diffusione degli avvisi di sicurezza, né gli obblighi delle parti interessate di fornire informazioni a norma del diritto penale degli Stati membri.

3.   I paragrafi 1 , 1 bis e 2 non pregiudicano i diritti e gli obblighi della Commissione, degli Stati membri e degli organismi notificati in materia di scambio delle informazioni e di diffusione degli avvisi di sicurezza, né gli obblighi delle parti interessate di fornire informazioni a norma del diritto penale degli Stati membri;

Emendamento 643

Proposta di regolamento

Articolo 70 — paragrafo 4

Testo della Commissione

Emendamento

4.   La Commissione e gli Stati membri possono scambiare, ove necessario, informazioni riservate con le autorità di regolamentazione dei paesi terzi con i quali abbiano concluso accordi di riservatezza, bilaterali o multilaterali, che garantiscano un livello di riservatezza adeguato.

4.   La Commissione e gli Stati membri possono scambiare, ove strettamente necessario e conformemente alle pertinenti disposizioni degli accordi internazionali e commerciali , informazioni riservate con le autorità di regolamentazione dei paesi terzi con i quali abbiano concluso accordi di riservatezza, bilaterali o multilaterali, che garantiscano un livello di riservatezza adeguato.

Emendamento 644

Proposta di regolamento

Articolo 71 — titolo

Testo della Commissione

Emendamento

Sanzioni

(Non concerne la versione italiana)

Emendamento 645

Proposta di regolamento

Articolo 71 — paragrafo 1

Testo della Commissione

Emendamento

1.   Nel rispetto dei termini e delle condizioni di cui al presente regolamento, gli Stati membri stabiliscono le regole relative alle sanzioni , comprese le sanzioni amministrative pecuniarie, applicabili in caso di violazione del presente regolamento e adottano tutte le misure necessarie per garantirne un'attuazione corretta ed efficace. Le sanzioni previste sono effettive, proporzionate e dissuasive. Esse tengono conto in particolare degli interessi dei fornitori di piccole dimensioni e delle start-up e della loro sostenibilità economica.

1.   Nel rispetto dei termini e delle condizioni di cui al presente regolamento, gli Stati membri stabiliscono le regole relative alle sanzioni applicabili in caso di violazione del presente regolamento da qualsiasi operatore e adottano tutte le misure necessarie per garantirne un'attuazione corretta ed efficace e l'allineamento con gli orientamenti emanati dalla Commissione e dall'ufficio per l'IA a norma dell'articolo 82 ter . Le sanzioni previste sono effettive, proporzionate e dissuasive. Esse tengono conto degli interessi delle PMI e delle start-up e della loro sostenibilità economica.

Emendamento 646

Proposta di regolamento

Articolo 71 — paragrafo 2

Testo della Commissione

Emendamento

2.   Gli Stati membri notificano tali regole e misure alla Commissione e provvedono poi a dare immediata notifica delle eventuali modifiche successive.

2.    Entro … [sei mesi dalla data di entrata in vigore del presente regolamento], gli Stati membri notificano tali regole e misure alla Commissione e all'ufficio e provvedono poi a dare immediata notifica delle eventuali modifiche successive.

Emendamento 647

Proposta di regolamento

Articolo 71 — paragrafo 3 — parte introduttiva

Testo della Commissione

Emendamento

3.    Le seguenti violazioni sono soggette a sanzioni amministrative pecuniarie fino a 30 000 000 di EUR o, se l'autore del reato è una società, fino al 6  % del fatturato mondiale totale annuo dell'esercizio precedente, se superiore:

3.    L'inosservanza del divieto delle pratiche di intelligenza artificiale di cui all'articolo 5 è soggetta a sanzioni amministrative pecuniarie fino a 40 000 000 di EUR o, se l'autore del reato è una società, fino al 7  % del fatturato mondiale totale annuo dell'esercizio precedente, se superiore:

Emendamento 648

Proposta di regolamento

Articolo 71 — paragrafo 3 — lettera a

Testo della Commissione

Emendamento

a)

inosservanza del divieto delle pratiche di intelligenza artificiale di cui all'articolo 5;

soppresso

Emendamento 649

Proposta di regolamento

Articolo 71 — paragrafo 3 — lettera b

Testo della Commissione

Emendamento

b)

non conformità del sistema di IA ai requisiti di cui all'articolo 10.

soppresso

Emendamento 650

Proposta di regolamento

Articolo 71 — paragrafo 3 bis (nuovo)

Testo della Commissione

Emendamento

 

3 bis.     La non conformità del sistema di IA ai requisiti di cui all'articolo 10 e all'articolo 13, è soggetta a sanzioni amministrative pecuniarie fino a 20 000 000 di EUR o, se l'autore del reato è una società, fino al 4 % del fatturato mondiale totale annuo dell'esercizio precedente, se superiore.

Emendamento 651

Proposta di regolamento

Articolo 71 — paragrafo 4

Testo della Commissione

Emendamento

4.   La non conformità del sistema di IA ai requisiti o agli obblighi previsti dal presente regolamento, diversi da quelli di cui agli articoli 5 e  10 , è soggetta a sanzioni amministrative pecuniarie fino a 20 000 000 di EUR o, se l'autore del reato è una società, fino al 4  % del fatturato mondiale totale annuo dell'esercizio precedente, se superiore.

4.   La non conformità del sistema di IA o del modello di base ai requisiti o agli obblighi previsti dal presente regolamento, diversi da quelli di cui agli articoli 5 , 10 13 , è soggetta a sanzioni amministrative pecuniarie fino a 10 000 000 di EUR o, se l'autore del reato è una società, fino al 2  % del fatturato mondiale totale annuo dell'esercizio precedente, se superiore;

Emendamento 652

Proposta di regolamento

Articolo 71 — paragrafo 5

Testo della Commissione

Emendamento

5.   La fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti è soggetta a sanzioni amministrative pecuniarie fino a 10 000 000 di EUR o, se l'autore del reato è una società, fino al 2  % del fatturato mondiale totale annuo dell'esercizio precedente, se superiore.

5.   La fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti è soggetta a sanzioni amministrative pecuniarie fino a 5 000 000 di EUR o, se l'autore del reato è una società, fino all'1  % del fatturato mondiale totale annuo dell'esercizio precedente, se superiore.

Emendamento 653

Proposta di regolamento

Articolo 71 — paragrafo 6 — parte introduttiva

Testo della Commissione

Emendamento

6.   Nel decidere l'importo della sanzione amministrativa pecuniaria in ogni singolo caso, si tiene conto di tutte le circostanze pertinenti della situazione specifica e si tiene quanto segue in debita considerazione:

6.    Le sanzioni possono essere inflitte in aggiunta o in sostituzione di misure non pecuniarie quali ordini o avvertimenti. Nel decidere l'importo della sanzione amministrativa pecuniaria in ogni singolo caso, si tiene conto di tutte le circostanze pertinenti della situazione specifica e si tiene quanto segue in debita considerazione;

Emendamento 654

Proposta di regolamento

Articolo 71 — paragrafo 6 — lettera a

Testo della Commissione

Emendamento

a)

la natura, la gravità e la durata della violazione e delle sue conseguenze;

a)

la natura, la gravità e la durata della violazione e delle sue conseguenze , tenendo in considerazione la finalità del sistema di IA, nonché, ove opportuno, il numero di persone interessate e il livello del danno da esse subito ;

Emendamento 655

Proposta di regolamento

Articolo 71 — paragrafo 6 — lettera b

Testo della Commissione

Emendamento

b)

se altre autorità di vigilanza del mercato hanno già applicato sanzioni amministrative pecuniarie allo stesso operatore per la stessa violazione;

b)

se altre autorità di controllo nazionali di uno o più Stati membri hanno già applicato sanzioni amministrative pecuniarie allo stesso operatore per la stessa violazione;

Emendamento 656

Proposta di regolamento

Articolo 71 — paragrafo 6 — lettera c

Testo della Commissione

Emendamento

c)

le dimensioni e  la quota di mercato dell'operatore che ha commesso la violazione.

c)

le dimensioni e  il fatturato mondiale dell'operatore che ha commesso la violazione.

Emendamento 657

Proposta di regolamento

Articolo 71 — paragrafo 6 — lettera c bis (nuova)

Testo della Commissione

Emendamento

 

c bis)

l'eventuale azione intrapresa dall'operatore per attenuare il pregiudizio o danno subito dalle persone interessate;

Emendamento 658

Proposta di regolamento

Articolo 71 — paragrafo 6 — lettera c ter (nuova)

Testo della Commissione

Emendamento

 

c ter)

il carattere doloso o colposo della violazione;

Emendamento 659

Proposta di regolamento

Articolo 71 — paragrafo 6 — lettera c quater (nuova)

Testo della Commissione

Emendamento

 

c quater)

il grado di cooperazione con le autorità nazionali competenti al fine di porre rimedio alla violazione e attenuarne i possibili effetti negativi;

Emendamento 660

Proposta di regolamento

Articolo 71 — paragrafo 6 — lettera c quinquies (nuova)

Testo della Commissione

Emendamento

 

c quinquies)

il grado di responsabilità dell'operatore tenendo conto delle misure tecniche e organizzative attuate;

Emendamento 661

Proposta di regolamento

Articolo 71 — paragrafo 6 — lettera c sexies (nuova)

Testo della Commissione

Emendamento

 

c sexies)

il modo in cui le autorità nazionali competenti sono venute a conoscenza della violazione, in particolare se e in che misura è stata notificata dall'operatore;

Emendamento 662

Proposta di regolamento

Articolo 71 — paragrafo 6 — lettera c septies (nuova)

Testo della Commissione

Emendamento

 

c septies)

il rispetto dei codici di condotta o dei meccanismi di certificazione approvati;

Emendamento 663

Proposta di regolamento

Articolo 71 — paragrafo 6 — lettera c octies (nuova)

Testo della Commissione

Emendamento

 

c octies)

eventuali violazioni pertinenti commesse in precedenza dall'operatore;

Emendamento 664

Proposta di regolamento

Articolo 71 — paragrafo 6 — lettera c nonies (nuova)

Testo della Commissione

Emendamento

 

c nonies)

eventuali altri fattori aggravanti o attenuanti applicabili alle circostanze del caso.

Emendamento 665

Proposta di regolamento

Articolo 71 — paragrafo 7

Testo della Commissione

Emendamento

7.   Ciascuno Stato membro può prevedere regole che dispongano se e in quale misura possono essere inflitte sanzioni amministrative pecuniarie ad autorità pubbliche e organismi pubblici istituiti in tale Stato membro.

7.   Ciascuno Stato membro prevede regole che dispongano l'applicazione di sanzioni amministrative pecuniarie ad autorità pubbliche e organismi pubblici istituiti in tale Stato membro.

Emendamento 666

Proposta di regolamento

Articolo 71 — paragrafo 8 bis (nuovo)

Testo della Commissione

Emendamento

 

8 bis.     Le sanzioni di cui al presente articolo, nonché le relative spese processuali e le richieste di indennizzo, non possono essere oggetto di clausole contrattuali o di altre forme di accordi di ripartizione degli oneri tra fornitori e distributori, importatori, operatori o altri terzi;

Emendamento 667

Proposta di regolamento

Articolo 71 — paragrafo 8 ter (nuovo)

Testo della Commissione

Emendamento

 

8 ter.     Le autorità nazionali di controllo riferiscono annualmente all'ufficio per l'IA in merito alle ammende da essi inflitte durante l'anno a norma del presente articolo;

Emendamento 668

Proposta di regolamento

Articolo 71 — paragrafo 8 quater (nuovo)

Testo della Commissione

Emendamento

 

8 quater.     L'esercizio da parte delle autorità competenti dei poteri attribuiti loro dal presente articolo dovrebbe essere soggetto a garanzie procedurali adeguate in conformità del diritto dell'Unione e del diritto nazionale, inclusi il ricorso giurisdizionale e il giusto processo;

Emendamento 669

Proposta di regolamento

Articolo 72 — paragrafo 1 — lettera a

Testo della Commissione

Emendamento

a)

la natura, la gravità e la durata della violazione e delle sue conseguenze;

a)

la natura, la gravità e la durata della violazione e delle sue conseguenze, tenendo in considerazione la finalità del sistema di IA interessato, il numero di persone interessate e il livello del danno da esse subito, nonché eventuali precedenti violazioni pertinenti;

Emendamento 670

Proposta di regolamento

Articolo 72 — paragrafo 1 — lettera a bis (nuova)

Testo della Commissione

Emendamento

 

a bis)

qualsiasi azione intrapresa dall'istituzione, dall'agenzia o dall'organismo dell'Unione per attenuare il danno subito dalle persone interessate;

Emendamento 671

Proposta di regolamento

Articolo 72 — paragrafo 1 — lettera a ter (nuova)

Testo della Commissione

Emendamento

 

a ter)

il grado di responsabilità dell'istituzione, dell'agenzia o dell'organismo dell'Unione, tenendo conto delle misure tecniche e organizzative da essi attuate;

Emendamento 672

Proposta di regolamento

Articolo 72 — paragrafo 1 — lettera b

Testo della Commissione

Emendamento

b)

la cooperazione con il Garante europeo della protezione dei dati al fine di porre rimedio alla violazione e attenuarne i possibili effetti negativi, compreso il rispetto delle misure precedentemente disposte dal Garante europeo della protezione dei dati nei confronti dell'istituzione, dell'agenzia o dell'organismo dell'Unione in relazione allo stesso tema;

b)

il grado di cooperazione con il Garante europeo della protezione dei dati al fine di porre rimedio alla violazione e attenuarne i possibili effetti negativi, compreso il rispetto delle misure precedentemente disposte dal Garante europeo della protezione dei dati nei confronti dell'istituzione, dell'agenzia o dell'organismo dell'Unione in relazione allo stesso tema;

Emendamento 673

Proposta di regolamento

Articolo 72 — paragrafo 1 — lettera c bis (nuova)

Testo della Commissione

Emendamento

 

c bis)

la maniera in cui il Garante europeo della protezione dei dati ha preso conoscenza della violazione, in particolare se e in che misura l'istituzione o l'organismo dell'Unione ha notificato la violazione;

Emendamento 674

Proposta di regolamento

Articolo 72 — paragrafo 1 — lettera c ter (nuova)

Testo della Commissione

Emendamento

 

c ter)

il bilancio annuale dell'organismo;

Emendamento 675

Proposta di regolamento

Articolo 72 — paragrafo 2 — parte introduttiva

Testo della Commissione

Emendamento

2.    Le seguenti violazioni sono soggette a sanzioni amministrative pecuniarie fino a 500 000  EUR:

2.    L'inosservanza del divieto delle pratiche di intelligenza artificiale di cui all'articolo 5 è soggetta a sanzioni amministrative pecuniarie fino a 1 500 000  EUR.

Emendamento 676

Proposta di regolamento

Articolo 72 — paragrafo 2 — lettera a

Testo della Commissione

Emendamento

a)

inosservanza del divieto delle pratiche di intelligenza artificiale di cui all'articolo 5;

soppresso

Emendamento 677

Proposta di regolamento

Articolo 72 — paragrafo 2 bis (nuovo)

Testo della Commissione

Emendamento

 

2 bis.     La non conformità del sistema di IA ai requisiti di cui all'articolo 10 è soggetta a sanzioni amministrative pecuniarie fino a 1 000 000  EUR.

Emendamento 678

Proposta di regolamento

Articolo 72 — paragrafo 3

Testo della Commissione

Emendamento

3.   La non conformità del sistema di IA ai requisiti o agli obblighi previsti dal presente regolamento, diversi da quelli di cui agli articoli 5 e 10, è soggetta a sanzioni amministrative pecuniarie fino a 250 000  EUR.

3.   La non conformità del sistema di IA ai requisiti o agli obblighi previsti dal presente regolamento, diversi da quelli di cui agli articoli 5 e 10, è soggetta a sanzioni amministrative pecuniarie fino a 750 000  EUR.

Emendamento 679

Proposta di regolamento

Articolo 72 — paragrafo 6

Testo della Commissione

Emendamento

6.   I fondi raccolti mediante l'imposizione di sanzioni pecuniarie in forza del presente articolo entrano nel bilancio generale dell'Unione.

6.   I fondi raccolti mediante l'imposizione di sanzioni pecuniarie in forza del presente articolo contribuiscono al bilancio generale dell'Unione. Le sanzioni pecuniarie non pregiudicano l'effettivo funzionamento dell'istituzione, dell'organismo o dell'agenzia dell'Unione sanzionata.

Emendamento 680

Proposta di regolamento

Articolo 72 — paragrafo 6 bis (nuovo)

Testo della Commissione

Emendamento

 

6 bis.     Il garante europeo della protezione dei dati notifica annualmente all'ufficio per l'IA le sanzioni pecuniarie da esso imposte a norma del presente articolo.

Emendamento 681

Proposta di regolamento

Articolo 73 — paragrafo 2

Testo della Commissione

Emendamento

2.    La delega di potere di cui all'articolo 4, all'articolo 7, paragrafo 1, all'articolo 11, paragrafo 3, all'articolo 43, paragrafi 5 e 6, e all'articolo 48, paragrafo 5, è conferita alla Commissione per un periodo indeterminato a decorrere dal [data di entrata in vigore del presente regolamento].

2.    Il potere di adottare gli atti delegati di cui all'articolo 4, all'articolo 7, paragrafo 1, all'articolo 11, paragrafo 3, all'articolo 43, paragrafi 5 e 6, e all'articolo 48, paragrafo 5, è conferito alla Commissione per un periodo di cinque anni a decorrere dal … [data di entrata in vigore del presente regolamento]. La Commissione elabora una relazione sulla delega di potere al più tardi nove mesi prima della scadenza del periodo di cinque anni. La delega di potere è tacitamente prorogata per periodi di identica durata, a meno che il Parlamento europeo o il Consiglio non si oppongano a tale proroga al più tardi tre mesi prima del termine di ciascun periodo.

Emendamento 682

Proposta di regolamento

Articolo 73 — paragrafo 3 bis (nuovo)

Testo della Commissione

Emendamento

 

3 bis.     Prima dell'adozione di un atto delegato, la Commissione consulta le istituzioni pertinenti, l'ufficio, il forum consultivo e altri portatori d'interessi pertinenti a norma dei principi stabiliti nell'accordo interistituzionale «Legiferare meglio» del 13 aprile 2016.

 

Una volta deciso di elaborare un atto delegato, la Commissione ne dà notifica al Parlamento europeo. La notifica non impone alla Commissione l'obbligo di adottare tale atto.

Emendamento 683

Proposta di regolamento

Articolo 81 bis (nuovo)

Testo della Commissione

Emendamento

 

Articolo 81 bis

 

Modifica del regolamento (UE) 2019/1020

 

Il regolamento (UE) 2019/1020 è così modificato:

 

all'articolo 14, paragrafo 4, è aggiunto il seguente comma:

 

«l)

il potere di attuare i poteri previsti dal presente articolo a distanza, ove applicabile;»

Emendamento 684

Proposta di regolamento

Articolo 82 bis (nuovo)

Testo della Commissione

Emendamento

 

Articolo 82 bis

Legiferare meglio

Nel tenere conto dei requisiti del presente regolamento ai sensi delle modifiche di cui agli articoli 75, 76, 77, 78, 79, 80, 81 e 82, la Commissione effettua un'analisi e consulta i pertinenti portatori di interessi per stabilire le potenziali lacune e sovrapposizioni tra la legislazione settoriale esistente e le disposizioni del presente regolamento.

Emendamento 685

Proposta di regolamento

Articolo 82 ter (nuovo)

Testo della Commissione

Emendamento

 

Articolo 82 ter

 

Orientamenti della Commissione riguardo all'attuazione del presente regolamento

 

1.     La Commissione elabora, in consultazione con l'ufficio per l'IA, orientamenti sull'attuazione pratica del presente regolamento, in particolare per quanto riguarda:

 

a)

l'applicazione dei requisiti di cui agli articoli da 8 a 15 e agli articoli da 28 a 28 ter;

 

b)

le pratiche vietate di cui all'articolo 5;

 

c)

l'attuazione pratica delle disposizioni relative alla modifica sostanziale;

 

d)

le circostanze pratiche in cui l'output di un sistema di IA di cui all'allegato III comporterebbe un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche di cui all'articolo 6, paragrafo 2, compresi esempi in relazione ai sistemi di IA ad alto rischio di cui all'allegato III;

 

e)

l'attuazione pratica degli obblighi di trasparenza di cui all'articolo 52;

 

f)

lo sviluppo di codici di condotta di cui all'articolo 69;

 

g)

la relazione del presente regolamento con altre norme pertinenti dell'Unione, anche per quanto riguarda la coerenza della loro applicazione;

 

h)

l'attuazione pratica dell'articolo 12, dell'articolo 28 ter sull'impatto ambientale dei modelli di base e dell'allegato IV, punto 3, lettera b), in particolare i metodi di misurazione e di registrazione per consentire il calcolo e la comunicazione dell'impatto ambientale dei sistemi per conformarsi agli obblighi previsti dal presente regolamento, compresa l'impronta di carbonio e l'efficienza energetica, tenendo conto dei metodi più avanzati e delle economie di scala.

 

Quando pubblica tali orientamenti, la Commissione presta particolare attenzione alle esigenze delle PMI, comprese le start-up, delle autorità pubbliche locali e dei settori maggiormente interessati dal presente regolamento.

 

2.     Su richiesta degli Stati membri o dell'ufficio per l'IA, o di propria iniziativa, la Commissione aggiorna gli orientamenti già adottati quando lo ritiene necessario.

Emendamento 686

Proposta di regolamento

Articolo 83 — paragrafo 1 — comma 1

Testo della Commissione

Emendamento

1.    Il presente regolamento non si applica ai sistemi di IA che sono componenti di sistemi IT su larga scala istituiti dagli atti giuridici elencati nell'allegato IX che sono stati immessi sul mercato o messi in servizio prima del [12 mesi dopo la data di applicazione del presente regolamento di cui all'articolo 85, paragrafo 2], a meno che la sostituzione o la modifica di tali atti giuridici non comporti una modifica significativa della progettazione o della finalità prevista del sistema di IA o dei sistemi di IA interessati .

1.    Gli operatori di sistemi di IA che sono componenti di sistemi IT su larga scala istituiti dagli atti giuridici elencati nell'allegato IX che sono stati immessi sul mercato o messi in servizio prima del [data di entrata in vigore del presente regolamento] adottano le misure necessarie per conformarsi ai requisiti stabiliti dal presente regolamento entro … [4 anni dopo la data di entrata in vigore del presente regolamento] .

Emendamento 687

Proposta di regolamento

Articolo 83 — paragrafo 1 — comma 1

Testo della Commissione

Emendamento

Si tiene conto dei requisiti di cui al presente regolamento , ove applicabile, nella valutazione di ciascun sistema IT su larga scala istituito dagli atti giuridici elencati nell'allegato IX da effettuare come previsto in tali atti.

Si tiene conto dei requisiti di cui al presente regolamento nella valutazione di ciascun sistema IT su larga scala istituito dagli atti giuridici elencati nell'allegato IX da effettuare come previsto in tali atti e ogniqualvolta tali atti giuridici sono sostituiti o modificati .

Emendamento 688

Proposta di regolamento

Articolo 83 — paragrafo 2

Testo della Commissione

Emendamento

2.   Il presente regolamento si applica ai sistemi di IA ad alto rischio, diversi da quelli di cui al paragrafo 1, che sono stati immessi sul mercato o messi in servizio prima del [data di applicazione del presente regolamento di cui all'articolo 85, paragrafo 2], solo se, a decorrere da tale data, tali sistemi sono soggetti a modifiche significative della loro progettazione o finalità prevista .

2.   Il presente regolamento si applica agli operatori di sistemi di IA ad alto rischio, diversi da quelli di cui al paragrafo 1, che sono stati immessi sul mercato o messi in servizio prima del [data di applicazione del presente regolamento di cui all'articolo 85, paragrafo 2], solo se, a decorrere da tale data, tali sistemi sono soggetti a modifiche sostanziali a norma di quanto stabilito all'articolo 3, punto 23. Nel caso di sistemi di IA ad alto rischio destinati a essere utilizzati dalle autorità pubbliche, i fornitori e gli operatori di tali sistemi adottano le misure necessarie per conformarsi ai requisiti del presente regolamento [due anni dopo la data di entrata in vigore del presente regolamento] .

Emendamento 689

Proposta di regolamento

Articolo 84 — paragrafo 1

Testo della Commissione

Emendamento

1.   La Commissione valuta la necessità di modificare l'elenco di cui all'allegato III una volta l'anno dopo l'entrata in vigore del presente regolamento.

1.    Dopo aver consultato l'ufficio per l'IA, la Commissione valuta la necessità di modificare l'elenco di cui all'allegato III , compreso l'ampliamento di rubriche settoriali esistenti o l'aggiunta di nuove rubriche settoriali in tale allegato, dell'elenco di pratiche di IA vietate di cui all'articolo 5 e dell'elenco di sistemi di IA che richiedono ulteriori misure di trasparenza di cui all'articolo 52, una volta l'anno dopo l'entrata in vigore del presente regolamento e dopo una raccomandazione dell'ufficio.

 

La Commissione trasmette gli esiti della valutazione al Parlamento europeo e al Consiglio.

Emendamento 690

Proposta di regolamento

Articolo 84 — paragrafo 2

Testo della Commissione

Emendamento

2.   Entro [tre anni dalla data di applicazione del presente regolamento di cui all'articolo 85, paragrafo 2] e successivamente ogni quattro anni, la Commissione trasmette al Parlamento europeo e al Consiglio una relazione di valutazione e sul riesame del presente regolamento. Le relazioni sono rese pubbliche.

2.   Entro … [due anni dalla data di applicazione del presente regolamento di cui all'articolo 85, paragrafo 2] e successivamente ogni due anni, la Commissione , unitamente all'ufficio per l'IA, trasmette al Parlamento europeo e al Consiglio una relazione di valutazione e sul riesame del presente regolamento. Le relazioni sono rese pubbliche.

Emendamento 691

Proposta di regolamento

Articolo 84 — paragrafo 3 — lettera a

Testo della Commissione

Emendamento

a)

lo stato delle risorse finanziarie e umane necessarie alle autorità nazionali competenti per lo svolgimento efficace dei compiti loro assegnati a norma del presente regolamento;

a)

lo stato delle risorse finanziarie , tecniche e umane necessarie alle autorità nazionali competenti per lo svolgimento efficace dei compiti loro assegnati a norma del presente regolamento;

Emendamento 692

Proposta di regolamento

Articolo 84 — paragrafo 3 — lettera b bis (nuova)

Testo della Commissione

Emendamento

 

b bis)

lo stato di elaborazione di norme armonizzate e specifiche comuni per l'intelligenza artificiale;

Emendamento 693

Proposta di regolamento

Articolo 84 — paragrafo 3 — lettera b ter (nuova)

Testo della Commissione

Emendamento

 

b ter)

il livello di investimenti nella ricerca, sviluppo e applicazione dei sistemi di IA in tutta l'Unione;

Emendamento 694

Proposta di regolamento

Articolo 84 — paragrafo 3 — lettera b quater (nuova)

Testo della Commissione

Emendamento

 

b quater)

la competitività del settore di IA aggregato europeo rispetto ai settori di IA di paesi terzi;

Emendamento 695

Proposta di regolamento

Articolo 84 — paragrafo 3 — lettera b quinquies (nuova)

Testo della Commissione

Emendamento

 

b quinquies)

l'impatto del regolamento per quanto riguarda l'uso delle risorse e dell'energia, nonché la produzione di rifiuti e altri impatti ambientali;

Emendamento 696

Proposta di regolamento

Articolo 84 — paragrafo 3 — lettera b sexies (nuova)

Testo della Commissione

Emendamento

 

b sexies)

l'attuazione del piano coordinato sull'IA, tenendo conto del diverso livello di progresso tra gli Stati membri e individuando gli ostacoli esistenti all'innovazione nell'IA;

Emendamento 697

Proposta di regolamento

Articolo 84 — paragrafo 3 — lettera b septies (nuova)

Testo della Commissione

Emendamento

 

b septies)

l'aggiornamento dei requisiti specifici relativi alla sostenibilità dei sistemi di IA e dei modelli di base, sulla base dei requisiti in materia di comunicazione e documentazione di cui all'allegato IV e all'articolo 28 ter;

Emendamento 698

Proposta di regolamento

Articolo 84 — paragrafo 3 — lettera b octies (nuova)

Testo della Commissione

Emendamento

 

b octies)

il regime giuridico che disciplina i modelli di base;

Emendamento 699

Proposta di regolamento

Articolo 84 — paragrafo 3 — lettera b nonies (nuova)

Testo della Commissione

Emendamento

 

b nonies)

l'elenco delle clausole contrattuali inique di cui all'articolo 28 bis, tenendo conto, se necessario, delle nuove pratiche commerciali;

Emendamento 700

Proposta di regolamento

Articolo 84 — paragrafo 3 bis (nuovo)

Testo della Commissione

Emendamento

 

3 bis.     Entro … [due anni dopo la data di entrata in applicazione del presente regolamento di cui all'articolo 85, paragrafo 2], la Commissione valuta il funzionamento dell'ufficio per l'IA, se all'ufficio siano stati conferiti poteri e competenze adeguati per svolgere i suoi compiti e se sia pertinente e necessario per la corretta attuazione e applicazione del presente regolamento potenziare l'Ufficio e le sue competenze di esecuzione e aumentare le sue risorse. La Commissione trasmette tale relazione di valutazione al Parlamento europeo e al Consiglio.

Emendamento 701

Proposta di regolamento

Articolo 84 — paragrafo 4

Testo della Commissione

Emendamento

4.   Entro [tre anni dalla data di applicazione del presente regolamento di cui all'articolo 85, paragrafo 2] e successivamente ogni quattro anni, la Commissione valuta l'impatto e l'efficacia dei codici di condotta per la promozione dell'applicazione dei requisiti di cui al titolo III, capo 2, ed eventualmente di altri requisiti supplementari per i sistemi di IA diversi dai sistemi di IA ad alto rischio.

4.   Entro … [1 anno dalla data di applicazione del presente regolamento di cui all'articolo 85, paragrafo 2] e successivamente ogni due anni, la Commissione valuta l'impatto e l'efficacia dei codici di condotta per la promozione dell'applicazione dei requisiti di cui al titolo III, capo 2, ed eventualmente di altri requisiti supplementari per i sistemi di IA diversi dai sistemi di IA ad alto rischio;

Emendamento 702

Proposta di regolamento

Articolo 84 — paragrafo 5

Testo della Commissione

Emendamento

5.   Ai fini dei paragrafi da 1 a 4, il comitato , gli Stati membri e le autorità nazionali competenti forniscono alla Commissione informazioni su sua richiesta.

5.   Ai fini dei paragrafi da 1 a 4, l'ufficio per l'IA , gli Stati membri e le autorità nazionali competenti forniscono senza indebito ritardo alla Commissione informazioni su sua richiesta.

Emendamento 703

Proposta di regolamento

Articolo 84 — paragrafo 6

Testo della Commissione

Emendamento

6.   Nello svolgere le valutazioni e i riesami di cui ai paragrafi da 1 a 4, la Commissione tiene conto delle posizioni e delle conclusioni del comitato , del Parlamento europeo, del Consiglio, nonché di altri organismi o fonti pertinenti.

6.   Nello svolgere le valutazioni e i riesami di cui ai paragrafi da 1 a 4, la Commissione tiene conto delle posizioni e delle conclusioni dell'ufficio per l'IA , del Parlamento europeo, del Consiglio, nonché di altri organismi o fonti pertinenti e consulta tutti i pertinenti portatori di interessi . Il risultato di tale consultazione è allegato alla relazione;

Emendamento 704

Proposta di regolamento

Articolo 84 — paragrafo 7

Testo della Commissione

Emendamento

7.   Se necessario, la Commissione presenta opportune proposte di modifica del presente regolamento tenendo conto, in particolare, degli sviluppi delle tecnologie e alla luce dei progressi della società dell'informazione.

7.   Se necessario, la Commissione presenta opportune proposte di modifica del presente regolamento tenendo conto, in particolare, degli sviluppi delle tecnologie , dell'effetto dei sistemi di IA sulla salute e la sicurezza, sui diritti fondamentali, sull'ambiente, sull'uguaglianza, sull'accessibilità delle persone con disabilità, sulla democrazia e sullo Stato di diritto e alla luce dei progressi della società dell'informazione.

Emendamento 705

Proposta di regolamento

Articolo 84 — paragrafo 7 bis (nuovo)

Testo della Commissione

Emendamento

 

7 bis.     Per orientare le valutazioni e i riesami di cui ai paragrafi da 1 a 4 del presente articolo, l'ufficio si impegna a sviluppare una metodologia obiettiva e partecipativa per la valutazione del livello di rischio basata sui criteri definiti negli articoli pertinenti e l'inclusione di nuovi sistemi nell'elenco di cui all'allegato III, compreso l'ampliamento di rubriche settoriali esistenti o l'aggiunta di nuove rubriche settoriali in tale allegato, nell'elenco delle pratiche vietate di cui all'articolo 5 e nell'elenco dei sistemi di IA che richiedono ulteriori misure di trasparenza a norma dell'articolo 52.

Emendamento 706

Proposta di regolamento

Articolo 84 — paragrafo 7 ter (nuovo)

Testo della Commissione

Emendamento

 

7 ter.     Eventuali modifiche al presente regolamento ai sensi del paragrafo 7 del presente articolo, o i pertinenti atti delegati o di esecuzione futuri, che riguardano la legislazione settoriale di cui all'allegato II, sezione B, tengono conto delle specificità normative di ciascun settore e dei vigenti meccanismi di governance, valutazione della conformità e applicazione e delle autorità da essi stabilite.

Emendamento 707

Proposta di regolamento

Articolo 84 — paragrafo 7 quater (nuovo)

Testo della Commissione

Emendamento

 

7 quater.     Entro … [cinque anni dalla data di applicazione del presente regolamento], la Commissione effettua una valutazione dell'applicazione del presente regolamento e presenta una relazione al Parlamento europeo, al Consiglio e al Comitato economico e sociale europeo, tenendo conto dei primi anni di applicazione del regolamento. Sulla base dei risultati, la relazione è accompagnata, se del caso, da una proposta di modifica del regolamento in relazione alla modalità di applicazione e alla necessità di un'agenzia dell'Unione che ponga rimedio alle carenze individuate.

Emendamento 708

Proposta di regolamento

Allegato I

Testo della Commissione

Emendamento

TECNICHE E APPROCCI DI INTELLIGENZA ARTIFICIALE di cui all'articolo 3, punto 1)

soppresso

a)

Approcci di apprendimento automatico, compresi l'apprendimento supervisionato, l'apprendimento non supervisionato e l'apprendimento per rinforzo, con utilizzo di un'ampia gamma di metodi, tra cui l'apprendimento profondo (deep learning);

 

b)

approcci basati sulla logica e approcci basati sulla conoscenza, compresi la rappresentazione della conoscenza, la programmazione induttiva (logica), le basi di conoscenze, i motori inferenziali e deduttivi, il ragionamento (simbolico) e i sistemi esperti;

 

c)

approcci statistici, stima bayesiana, metodi di ricerca e ottimizzazione.

 

Emendamento 709

Proposta di regolamento

Allegato III — comma 1 — parte introduttiva

Testo della Commissione

Emendamento

I sistemi di IA ad alto rischio a norma dell'articolo 6, paragrafo 2, sono i sistemi di IA elencati in uno dei settori indicati di seguito.

I sistemi di IA di cui ai punti da 1 a 8 bis rappresentano casi d'uso critici e sono tutti considerati sistemi di IA ad alto rischio a norma dell'articolo 6, paragrafo 2, a condizione che soddisfino i criteri di cui a tale articolo:

Emendamento 710

Proposta di regolamento

Allegato III — punto 1 — parte introduttiva

Testo della Commissione

Emendamento

1.

Identificazione categorizzazione biometrica delle persone fisiche:

1.

Sistemi biometrici basati su elementi biometrici:

Emendamento 711

Proposta di regolamento

Allegato III — punto 1 — lettera a

Testo della Commissione

Emendamento

a)

i sistemi di IA destinati a essere utilizzati per l'identificazione biometrica remota «in tempo reale» e «a posteriori» delle persone fisiche.

a)

i sistemi di IA destinati a essere utilizzati per l'identificazione biometrica delle persone fisiche , ad eccezione di quelli di cui all'articolo 5 .

Emendamento 712

Proposta di regolamento

Allegato III — punto 1 — lettera a bis (nuova)

Testo della Commissione

Emendamento

 

a bis)

I sistemi di IA destinati a essere utilizzati per trarre conclusioni sulle caratteristiche personali delle persone fisiche sulla base di dati biometrici o basati su elementi biometrici, compresi i sistemi di riconoscimento delle emozioni, ad eccezione di quelli di cui all'articolo 5;

 

Il punto 1 non comprende i sistemi di IA destinati a essere utilizzati per le verifiche biometriche il cui unico scopo è confermare che una determinata persona fisica è la persona che dichiara di essere.

Emendamento 713

Proposta di regolamento

Allegato III — punto 12– lettera a

Testo della Commissione

Emendamento

a)

i sistemi di IA destinati a essere utilizzati come componenti di sicurezza nella gestione del traffico stradale e  nella fornitura di acqua, gas, riscaldamento ed elettricità .

a)

i sistemi di IA destinati a essere utilizzati come componenti di sicurezza nella gestione del traffico stradale , ferroviario aereo, a meno che non siano disciplinati da normative di armonizzazione o di settore .

Emendamento 714

Proposta di regolamento

Allegato III — punto 2 — lettera a bis (nuova)

Testo della Commissione

Emendamento

 

a bis)

i sistemi di IA destinati a essere utilizzati come componenti di sicurezza nella gestione e nel funzionamento della fornitura di acqua, gas, riscaldamento, energia elettrica e infrastrutture digitali critiche;

Emendamento 715

Proposta di regolamento

Allegato III — punto 3– lettera a

Testo della Commissione

Emendamento

a)

i sistemi di IA destinati a essere utilizzati al fine di determinare l'accesso o l'assegnazione di persone fisiche agli istituti di istruzione e formazione professionale;

a)

i sistemi di IA destinati a essere utilizzati al fine di determinare l'accesso o  influenzare materialmente le decisioni sull'ammissione o l'assegnazione di persone fisiche agli istituti di istruzione e formazione professionale;

Emendamento 716

Proposta di regolamento

Allegato III — punto 3– lettera b

Testo della Commissione

Emendamento

b)

i sistemi di IA destinati a essere utilizzati per valutare gli studenti negli istituti di istruzione e formazione professionale e per valutare i partecipanti alle prove solitamente richieste per l'ammissione agli istituti di istruzione .

b)

i sistemi di IA destinati a essere utilizzati per valutare gli studenti negli istituti di istruzione e formazione professionale e per valutare i partecipanti alle prove solitamente richieste per l'ammissione a tali istituti.

Emendamento 717

Proposta di regolamento

Allegato III — punto 3 — lettera b bis (nuova)

Testo della Commissione

Emendamento

 

b bis)

i sistemi di IA destinati a essere utilizzati per valutare il livello di istruzione adeguato per un individuo e a influenzare materialmente il livello di istruzione e formazione professionale che tale individuo riceverà o al quale potrà accedere;

Emendamento 718

Proposta di regolamento

Allegato III — punto 3 — lettera b ter (nuova)

Testo della Commissione

Emendamento

 

b ter)

i sistemi di IA destinati a essere utilizzati per monitorare e rilevare comportamenti vietati da parte degli studenti durante le prove nel contesto/all'interno degli istituti di istruzione e formazione professionale;

Emendamento 719

Proposta di regolamento

Allegato III — punto 4– lettera a

Testo della Commissione

Emendamento

a)

i sistemi di IA destinati a essere utilizzati per l'assunzione o la selezione di persone fisiche, in particolare per pubblicizzare i posti vacanti , vagliare o filtrare le candidature, valutare i candidati nel corso di colloqui o prove;

a)

i sistemi di IA destinati a essere utilizzati per l'assunzione o la selezione di persone fisiche, in particolare per inserire annunci di lavoro mirati , vagliare o filtrare le candidature, valutare i candidati nel corso di colloqui o prove;

Emendamento 720

Proposta di regolamento

Allegato III — punto 4– lettera b

Testo della Commissione

Emendamento

b)

l'IA destinata a essere utilizzata per adottare decisioni in materia di promozione e cessazione dei rapporti contrattuali di lavoro, per l'assegnazione dei compiti e per il monitoraggio e la valutazione delle prestazioni e del comportamento delle persone nell'ambito di tali rapporti di lavoro.

b)

i sistemi di IA destinati a essere utilizzati per adottare decisioni o influenzare materialmente le decisioni riguardanti l'avvio, la promozione e  la cessazione dei rapporti contrattuali di lavoro, l'assegnazione dei compiti sulla base dei comportamenti individuali, dei tratti o delle caratteristiche personali, o il monitoraggio e la valutazione delle prestazioni e del comportamento delle persone nell'ambito di tali rapporti di lavoro;

Emendamento 721

Proposta di regolamento

Allegato III — punto 5– lettera a

Testo della Commissione

Emendamento

a)

i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche o per conto di autorità pubbliche per valutare l'ammissibilità delle persone fisiche alle prestazioni e ai servizi di assistenza pubblica, nonché per concedere, ridurre, revocare o recuperare tali prestazioni e servizi;

a)

i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche o per conto di autorità pubbliche per valutare l'ammissibilità delle persone fisiche alle prestazioni e ai servizi di assistenza pubblica, compresi i servizi sanitari e i servizi essenziali, tra cui, ma non solo, l'alloggio, l'elettricità, il riscaldamento/raffreddamento e internet, nonché per concedere, ridurre, revocare , aumentare o recuperare tali prestazioni e servizi;

Emendamento 722

Proposta di regolamento

Allegato III — punto 5– lettera b

Testo della Commissione

Emendamento

b)

i sistemi di IA destinati a essere utilizzati per valutare l'affidabilità creditizia delle persone fisiche o per stabilire il loro merito di credito, a eccezione dei sistemi di IA messi in servizio per uso proprio da fornitori di piccole dimensioni ;

b)

i sistemi di IA destinati a essere utilizzati per valutare l'affidabilità creditizia delle persone fisiche o per stabilire il loro merito di credito, a eccezione dei sistemi di IA utilizzati allo scopo di individuare frodi finanziarie ;

Emendamento 723

Proposta di regolamento

Allegato III — punto 5 — lettera b bis (nuova)

Testo della Commissione

Emendamento

 

b bis)

i sistemi di IA destinati a essere utilizzati per adottare decisioni o influenzare materialmente le decisioni riguardo all'ammissibilità di persone fisiche all'assicurazione sanitaria e sulla vita;

Emendamento 724

Proposta di regolamento

Allegato III — punto 5– lettera c

Testo della Commissione

Emendamento

c)

i sistemi di IA destinati a essere utilizzati per inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all'invio di tali servizi, compresi vigili del fuoco e assistenza medica.

c)

i sistemi di IA destinati a essere utilizzati per valutare e classificare le chiamate di emergenza effettuate da persone fisiche o inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all'invio di tali servizi, compresi polizia, autorità di contrasto, vigili del fuoco e assistenza medica , nonché per i sistemi di selezione dei pazienti per quanto concerne l'assistenza sanitaria di emergenza;

Emendamento 725

Proposta di regolamento

Allegato III — punto 6– lettera a

Testo della Commissione

Emendamento

a)

i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto per effettuare valutazioni individuali dei rischi delle persone fisiche al fine di determinare il rischio di reato o recidiva in relazione a una persona fisica o il rischio per vittime potenziali di reati;

soppresso

Emendamento 726

Proposta di regolamento

Allegato III — punto 6– lettera b

Testo della Commissione

Emendamento

b)

i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto, come poligrafi e strumenti analoghi, o per rilevare lo stato emotivo di una persona fisica ;

b)

i sistemi di IA destinati a essere utilizzati da o per conto delle autorità di contrasto, o da agenzie, uffici o organismi dell'Unione a sostegno delle autorità di contrasto, come poligrafi e strumenti analoghi, nella misura in cui il loro uso è consentito dal pertinente diritto dell'Unione e nazionale ;

Emendamento 727

Proposta di regolamento

Allegato III — punto 6– lettera c

Testo della Commissione

Emendamento

c)

i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto per individuare i «deep fake» di cui all'articolo 52, paragrafo 3;

soppresso

Emendamento 728

Proposta di regolamento

Allegato III — punto 6– lettera d

Testo della Commissione

Emendamento

d)

i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto per la valutazione dell'affidabilità degli elementi probatori nel corso delle indagini o del perseguimento di reati;

d)

i sistemi di IA destinati a essere utilizzati da o per conto delle autorità di contrasto, o da agenzie, uffici o organismi dell'Unione a sostegno delle autorità di contrasto per la valutazione dell'affidabilità degli elementi probatori nel corso delle indagini o del perseguimento di reati;

Emendamento 729

Proposta di regolamento

Allegato III — punto 6– lettera e

Testo della Commissione

Emendamento

e)

i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto per prevedere il verificarsi o il ripetersi di un reato effettivo o potenziale sulla base della profilazione delle persone fisiche di cui all'articolo 3, paragrafo 4, della direttiva (UE) 2016/680 o per valutare i tratti e le caratteristiche della personalità o il comportamento criminale pregresso di persone fisiche o gruppi;

soppresso

Emendamento 730

Proposta di regolamento

Allegato III — punto 6– lettera f

Testo della Commissione

Emendamento

f)

i sistemi di IA destinati a essere utilizzati dalle autorità di contrasto per la profilazione delle persone fisiche di cui all'articolo 3, paragrafo 4, della direttiva (UE) 2016/680 nel corso dell'indagine, dell'accertamento e del perseguimento di reati;

f)

i sistemi di IA destinati a essere utilizzati da o per conto delle autorità di contrasto, o da agenzie, uffici o organismi dell'Unione a sostegno delle autorità di contrasto per la profilazione delle persone fisiche di cui all'articolo 3, paragrafo 4, della direttiva (UE) 2016/680 nel corso dell'indagine, dell'accertamento e del perseguimento di reati o, nel caso delle agenzie dell'Unione, degli uffici o degli organismi, a norma di quanto stabilito all'articolo 3, paragrafo 5, del regolamento (UE) 2018/1725 ;

Emendamento 731

Proposta di regolamento

Allegato III — punto 6– lettera g

Testo della Commissione

Emendamento

g)

i sistemi di IA destinati a essere utilizzati per l'analisi criminale riguardo alle persone fisiche, che consentono alle autorità di contrasto di eseguire ricerche in set di dati complessi, correlati e non correlati, resi disponibili da fonti di dati diverse o in formati diversi, al fine di individuare modelli sconosciuti o scoprire relazioni nascoste nei dati.

g)

i sistemi di IA destinati a essere utilizzati da o per conto delle autorità di contrasto, o da agenzie, uffici o organismi dell'Unione a sostegno delle autorità di contrasto per l'analisi criminale riguardo alle persone fisiche, che consentono alle autorità di contrasto di eseguire ricerche in set di dati complessi, correlati e non correlati, resi disponibili da fonti di dati diverse o in formati diversi, al fine di individuare modelli sconosciuti o scoprire relazioni nascoste nei dati.

Emendamento 732

Proposta di regolamento

Allegato III — punto 7– lettera a

Testo della Commissione

Emendamento

a)

i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti, come poligrafi e strumenti analoghi, o per rilevare lo stato emotivo di una persona fisica;

a)

i sistemi di IA destinati a essere utilizzati da o per conto delle autorità pubbliche competenti, o da agenzie, uffici o organismi dell'Unione, come poligrafi e strumenti analoghi, nella misura in cui il loro uso è consentito dal pertinente diritto dell'Unione e nazionale

Emendamento 733

Proposta di regolamento

Allegato III — punto 7– lettera b

Testo della Commissione

Emendamento

b)

i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti per valutare un rischio (compresi un rischio per la sicurezza, un rischio di immigrazione irregolare o un rischio per la salute) posto da una persona fisica che intende entrare o è entrata nel territorio di uno Stato membro;

b)

i sistemi di IA destinati a essere utilizzati da o per conto delle autorità pubbliche competenti o dalle agenzie, dagli uffici o organismi dell'Unione per valutare un rischio (compresi un rischio per la sicurezza, un rischio di immigrazione irregolare o un rischio per la salute) posto da una persona fisica che intende entrare o è entrata nel territorio di uno Stato membro;

Emendamento 734

Proposta di regolamento

Allegato III — punto 7– lettera c

Testo della Commissione

Emendamento

c)

i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti per verificare l'autenticità dei documenti di viaggio e dei documenti giustificativi delle persone fisiche e per individuare i documenti non autentici mediante il controllo delle caratteristiche di sicurezza;

c)

i sistemi di IA destinati a essere utilizzati da o per conto delle autorità pubbliche competenti o dalle agenzie, dagli uffici o organismi dell'Unione per verificare l'autenticità dei documenti di viaggio e dei documenti giustificativi delle persone fisiche e per individuare i documenti non autentici mediante il controllo delle caratteristiche di sicurezza;

Emendamento 735

Proposta di regolamento

Allegato III — punto 7– lettera d

Testo della Commissione

Emendamento

d)

i sistemi di IA destinati ad assistere le autorità pubbliche competenti nell'esame delle domande di asilo, di visto e di permesso di soggiorno e dei relativi reclami per quanto riguarda l'ammissibilità delle persone fisiche che richiedono tale status.

d)

i sistemi di IA destinati a essere utilizzati da o per conto delle autorità pubbliche competenti o dalle agenzie, dagli uffici o organismi dell'Unione, per ricevere assistenza nell'esame e nella valutazione della veridicità delle prove in relazione alle domande di asilo, di visto e di permesso di soggiorno e dei relativi reclami per quanto riguarda l'ammissibilità delle persone fisiche che richiedono tale status.

Emendamento 736

Proposta di regolamento

Allegato III — punto 7 — lettera d bis (nuova)

Testo della Commissione

Emendamento

 

d bis)

i sistemi di IA destinati a essere utilizzati da o per conto delle autorità pubbliche competenti o dalle agenzie, dagli uffici o organismi dell'Unione nella gestione della migrazione, dell'asilo e del controllo delle frontiere per monitorare, sorvegliare o elaborare dati nel contesto delle attività di gestione delle frontiere allo scopo di individuare, riconoscere o identificare persone fisiche;

Emendamento 737

Proposta di regolamento

Allegato III — punto 7 — lettera d ter (nuova)

Testo della Commissione

Emendamento

 

d ter)

i sistemi di IA destinati a essere utilizzati da o per conto delle autorità pubbliche competenti o dalle agenzie, dagli uffici o organismi dell'Unione in materia di gestione della migrazione, dell'asilo e del controllo delle frontiere per prevedere o anticipare le tendenze relative ai movimenti migratori e all'attraversamento delle frontiere;

Emendamento 738

Proposta di regolamento

Allegato III — punto 8– lettera a

Testo della Commissione

Emendamento

a)

i sistemi di IA destinati ad assistere un'autorità giudiziaria nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti.

a)

i sistemi di IA destinati a essere utilizzati da un'autorità giudiziaria o da un organo amministrativo, o per loro conto, per assistere un'autorità giudiziaria o un organo amministrativo nella ricerca e nell'interpretazione dei fatti e del diritto e nell'applicazione della legge a una serie concreta di fatti o utilizzati in modo analogo nella risoluzione alternativa delle controversie .

Emendamento 739

Proposta di regolamento

Allegato III — punto 8 — lettera a bis (nuova)

Testo della Commissione

Emendamento

 

a bis)

i sistemi di IA destinati a essere utilizzati per influenzare l'esito di un'elezione o di un referendum o il comportamento di voto delle persone fisiche nell'esercizio del loro voto alle elezioni o ai referendum. Sono esclusi i sistemi di IA i cui risultati non sono rivolti direttamente alle persone fisiche, come gli strumenti utilizzati per organizzare, ottimizzare e strutturare campagne politiche da un punto di vista amministrativo e logistico.

Emendamento 740

Proposta di regolamento

Allegato III — punto 8 — lettera a ter (nuova)

Testo della Commissione

Emendamento

 

a ter)

i sistemi di IA destinati a essere utilizzati dalle piattaforme di social media che sono state designate come piattaforme online di dimensioni molto grandi ai sensi dell'articolo 33 del regolamento (UE) 2022/2065, per quanto concerne i loro sistemi di raccomandazione per raccomandare al destinatario del servizio i contenuti generati dagli utenti disponibili sulla piattaforma.

Emendamento 741

Proposta di regolamento

Allegato IV — punto 1– lettera a

Testo della Commissione

Emendamento

a)

la finalità prevista, la persona o le persone che sviluppano il sistema, la data e la versione del sistema;

a)

la finalità prevista, il nome del fornitore e la versione del sistema, tenendo conto del suo rapporto con le versioni precedenti e, ove del caso, più recenti, nella successione delle revisioni ;

Emendamento 742

Proposta di regolamento

Allegato IV — punto 1 — lettera a bis (nuova)

Testo della Commissione

Emendamento

 

a bis)

la natura dei dati che possono o sono destinati a essere trattati dal sistema e, nel caso dei dati personali, le categorie di persone fisiche e di gruppi che possono o sono destinati a essere interessati;

Emendamento 743

Proposta di regolamento

Allegato IV — punto 1– lettera b

Testo della Commissione

Emendamento

b)

il modo in cui il sistema interagisce o può essere utilizzato per interagire con hardware o software che non fanno parte del sistema di IA stesso, ove applicabile;

b)

il modo in cui il sistema può interagire o può essere utilizzato per interagire con hardware o software , compresi altri sistemi di IA che non fanno parte del sistema di IA stesso, ove applicabile;

Emendamento 744

Proposta di regolamento

Allegato IV — punto 1– lettera c

Testo della Commissione

Emendamento

c)

le versioni dei pertinenti software o firmware e qualsiasi requisito relativo all'aggiornamento della versione;

c)

le versioni dei pertinenti software o firmware e , ove applicabile, le informazioni per l'operatore o qualsiasi requisito relativo all'aggiornamento della versione;

Emendamento 745

Proposta di regolamento

Allegato IV — punto 1– lettera d

Testo della Commissione

Emendamento

d)

la descrizione di tutte le forme in cui il sistema di IA è immesso sul mercato o  messo in servizio;

d)

la descrizione delle diverse configurazioni e varianti del sistema di IA che si intende immettere sul mercato o  mettere in servizio;

Emendamento 746

Proposta di regolamento

Allegato IV — punto 1 — lettera f bis (nuova)

Testo della Commissione

Emendamento

 

f bis)

la descrizione dell'interfaccia dell'operatore;

Emendamento 747

Proposta di regolamento

Allegato IV — punto 1– lettera g

Testo della Commissione

Emendamento

g)

le istruzioni per l'uso destinate all'utente e, ove applicabile, le istruzioni per l'installazione.

g)

le istruzioni per l'uso destinate all'operatore a norma dell'articolo 13, paragrafi 2 e 3, e dell'articolo 14, paragrafo 4, lettera e) , e, ove applicabile, le istruzioni per l'installazione.

Emendamento 748

Proposta di regolamento

Allegato IV — punto 1 — lettera g bis (nuova)

Testo della Commissione

Emendamento

 

g bis)

una descrizione dettagliata e facilmente intelligibile del principale obiettivo o dei principali obiettivi di ottimizzazione del sistema;

Emendamento 749

Proposta di regolamento

Allegato IV — punto 1 — lettera g ter (nuova)

Testo della Commissione

Emendamento

 

g ter)

una descrizione dettagliata e facilmente intelligibile dell'output e della qualità di output previsti dal sistema;

Emendamento 750

Proposta di regolamento

Allegato IV — punto 1 — lettera g quater (nuova)

Testo della Commissione

Emendamento

 

g quater)

istruzioni dettagliate e facilmente intelligibili per l'interpretazione dell'output del sistema;

Emendamento 751

Proposta di regolamento

Allegato IV — punto 1 — lettera g quinquies (nuova)

Testo della Commissione

Emendamento

 

g quinquies)

esempi di scenari per i quali il sistema non dovrebbe essere utilizzato;

Emendamento 752

Proposta di regolamento

Allegato IV — punto 2– lettera b

Testo della Commissione

Emendamento

b)

le specifiche di progettazione del sistema , vale a dire la logica generale del sistema di IA e  degli algoritmi ; le principali scelte di progettazione, comprese le motivazioni e le ipotesi formulate, anche per quanto riguarda le persone o i gruppi di persone sui quali il sistema è destinato a essere utilizzato; le principali scelte di classificazione; gli aspetti che il sistema è progettato per ottimizzare e la pertinenza dei diversi parametri; le decisioni in merito a eventuali compromessi posti in essere con riguardo alle soluzioni tecniche adottate per soddisfare i requisiti di cui al titolo III, capo 2;

b)

una descrizione dell'architettura, delle specifiche di progettazione , degli algoritmi e delle strutture dati , compresa una scomposizione dei suoi componenti e delle sue interfacce, del modo in cui si relazionano tra loro di come provvedono all'elaborazione complessiva o alla logica del sistema di IA; le principali scelte di progettazione, comprese le motivazioni e le ipotesi formulate, anche per quanto riguarda le persone o i gruppi di persone sui quali il sistema è destinato a essere utilizzato; le principali scelte di classificazione; gli aspetti che il sistema è progettato per ottimizzare e la pertinenza dei diversi parametri; le decisioni in merito a eventuali compromessi posti in essere con riguardo alle soluzioni tecniche adottate per soddisfare i requisiti di cui al titolo III, capo 2;

Emendamento 753

Proposta di regolamento

Allegato IV — punto 2– lettera c

Testo della Commissione

Emendamento

c)

la descrizione dell'architettura del sistema che spiega in che modo i componenti software si basano l'uno sull'altro o si alimentano reciprocamente e si integrano nel processo complessivo; le risorse computazionali utilizzate per sviluppare, addestrare, sottoporre a prova e convalidare il sistema di IA;

c)

soppresso

Emendamento 754

Proposta di regolamento

Allegato IV — punto 2– lettera e

Testo della Commissione

Emendamento

e)

la valutazione delle misure di sorveglianza umana necessarie in conformità dell'articolo 14, compresa una valutazione delle misure tecniche necessarie per facilitare l'interpretazione degli output dei sistemi di IA da parte degli utenti , in conformità dell'articolo 13, paragrafo 3, lettera d);

e)

la valutazione delle misure di sorveglianza umana necessarie in conformità dell'articolo 14, compresa una valutazione delle misure tecniche necessarie per facilitare l'interpretazione degli output dei sistemi di IA da parte degli operatori , in conformità dell'articolo 13, paragrafo 3, lettera d);

Emendamento 755

Proposta di regolamento

Allegato IV — punto 2– lettera g

Testo della Commissione

Emendamento

g)

le procedure di convalida e di prova utilizzate, comprese le informazioni sui dati di convalida e di prova utilizzati e sulle loro principali caratteristiche; le metriche utilizzate per misurare l'accuratezza, la robustezza , la cibersicurezza e la conformità ad altri requisiti pertinenti di cui al titolo III, capo 2, nonché gli impatti potenzialmente discriminatori; i log delle prove e tutte le relazioni di prova corredate di data e firma delle persone responsabili, anche per quanto riguarda le modifiche predeterminate di cui alla lettera f).

g)

le procedure di convalida e di prova utilizzate, comprese le informazioni sui dati di convalida e di prova utilizzati e sulle loro principali caratteristiche; le metriche utilizzate per misurare l'accuratezza, la robustezza e la conformità ad altri requisiti pertinenti di cui al titolo III, capo 2, nonché gli impatti potenzialmente discriminatori; i log delle prove e tutte le relazioni di prova corredate di data e firma delle persone responsabili, anche per quanto riguarda le modifiche predeterminate di cui alla lettera f).

Emendamento 756

Proposta di regolamento

Allegato IV — punto 2 — lettera g bis (nuova)

Testo della Commissione

Emendamento

 

g bis)

le misure di cibersicurezza poste in essere.

Emendamento 757

Proposta di regolamento

Allegato IV — punto 3

Testo della Commissione

Emendamento

3.

Informazioni dettagliate sul monitoraggio, sul funzionamento e sul controllo del sistema di IA, in particolare per quanto riguarda: le sue capacità e limitazioni in termini di prestazioni, compresi i gradi di accuratezza relativi a determinate persone o determinati gruppi di persone sui quali il sistema è destinato a essere utilizzato e il livello di accuratezza complessivo atteso in relazione alla finalità prevista del sistema; i prevedibili risultati indesiderati e fonti di rischio per la salute, la sicurezza e i diritti fondamentali, nonché di rischio di discriminazione in considerazione della finalità prevista del sistema di IA; le misure di sorveglianza umana necessarie in conformità dell'articolo 14, comprese le misure tecniche poste in essere per facilitare l'interpretazione degli output dei sistemi di IA da parte degli utenti ; le specifiche relative ai dati di input, se del caso.

3.

Informazioni dettagliate sul monitoraggio, sul funzionamento e sul controllo del sistema di IA, in particolare per quanto riguarda: le sue capacità e limitazioni in termini di prestazioni, compresi i gradi di accuratezza relativi a determinate persone o determinati gruppi di persone sui quali il sistema è destinato a essere utilizzato e il livello di accuratezza complessivo atteso in relazione alla finalità prevista del sistema; i prevedibili risultati indesiderati e fonti di rischio per la salute, la sicurezza e i diritti fondamentali, nonché di rischio di discriminazione in considerazione della finalità prevista del sistema di IA; le misure di sorveglianza umana necessarie in conformità dell'articolo 14, comprese le misure tecniche poste in essere per facilitare l'interpretazione degli output dei sistemi di IA da parte degli operatori ; le specifiche relative ai dati di input, se del caso.

Emendamento 758

Proposta di regolamento

Allegato IV — punto 3 bis (nuovo)

Testo della Commissione

Emendamento

 

3 bis.

Una descrizione dell'adeguatezza delle metriche di prestazione per il sistema di IA specifico.

Emendamento 759

Proposta di regolamento

Allegato IV — punto 3 ter (nuovo)

Testo della Commissione

Emendamento

 

3 ter.

Informazioni sul consumo energetico del sistema di IA durante la fase di sviluppo e sul consumo energetico previsto durante l'uso, tenendo conto, se del caso, del pertinente diritto dell'Unione e nazionale;

Emendamento 760

Proposta di regolamento

Allegato IV — punto 5

Testo della Commissione

Emendamento

5.

Una descrizione di qualsiasi modifica apportata al sistema durante il suo ciclo di vita.

5.

Una descrizione di qualsiasi modifica pertinente apportata dai fornitori al sistema durante il suo ciclo di vita.

Emendamento 761

Proposta di regolamento

Allegato IV — punto 6

Testo della Commissione

Emendamento

6.

Un elenco delle norme armonizzate applicate integralmente o in parte i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell'Unione europea; nei casi in cui tali norme armonizzate non sono state applicate, una descrizione dettagliata delle soluzioni adottate per soddisfare i requisiti di cui al titolo III, capo 2, compreso un elenco delle altre norme e specifiche tecniche pertinenti applicate.

6.

Un elenco delle norme armonizzate applicate integralmente o in parte i cui riferimenti sono stati pubblicati nella Gazzetta ufficiale dell'Unione europea; nei casi in cui tali norme armonizzate non sono state applicate, una descrizione dettagliata delle soluzioni adottate per soddisfare i requisiti di cui al titolo III, capo 2, compreso un elenco delle altre norme o specifiche comuni pertinenti applicate.

Emendamento 762

Proposta di regolamento

Allegato IV — punto 4 bis (nuovo)

Testo della Commissione

Emendamento

 

4 bis.

se un sistema di IA comporta il trattamento di dati personali, una dichiarazione attestante che tale sistema di IA è conforme ai regolamenti (UE) 2016/679 e (UE) 2018/1725 e alla direttiva (UE) 2016/680.

Emendamento 763

Proposta di regolamento

Allegato V — punto 7

Testo della Commissione

Emendamento

7.

il luogo e la data di rilascio della dichiarazione, il nome e la funzione della persona che firma la dichiarazione nonché un'indicazione della persona a nome e per conto della quale ha firmato, la firma.

7.

il luogo e la data di rilascio della dichiarazione, la firma, il nome e la funzione della persona che firma la dichiarazione nonché un'indicazione della persona a nome e per conto della quale ha firmato, la firma.

Emendamento 764

Proposta di regolamento

Allegato VII — punto 4 — punto 4.5

Testo della Commissione

Emendamento

4.5.

Ove necessario per valutare la conformità del sistema di IA ad alto rischio ai requisiti di cui al titolo III, capo 2, e su richiesta motivata, anche all'organismo notificato deve essere concesso l'accesso al codice sorgente del sistema di IA.

4.5.

Ove necessario per valutare la conformità del sistema di IA ad alto rischio ai requisiti di cui al titolo III, capo 2, dopo che tutte le altre modalità ragionevoli per verificare la conformità sono state esaurite e si sono rivelate insufficienti, e su richiesta motivata, anche all'organismo notificato deve essere concesso l'accesso ai modelli di addestramento e addestrati del sistema di IA , compresi i relativi parametri. Tale accesso è soggetto al vigente diritto dell'Unione in materia di protezione della proprietà intellettuale e dei segreti commerciali. Essi adottano misure tecniche e organizzative per garantire la protezione della proprietà intellettuale e dei segreti commerciali.

Emendamento 765

Proposta di regolamento

Allegato VIII — parte introduttiva

Testo della Commissione

Emendamento

Le seguenti informazioni devono essere fornite e successivamente aggiornate in relazione ai sistemi di IA ad alto rischio che devono essere registrati a norma dell'articolo 51:

Sezione A - Le seguenti informazioni devono essere fornite e successivamente aggiornate in relazione ai sistemi di IA ad alto rischio che devono essere registrati a norma dell'articolo 51 , paragrafo 1 :

Emendamento 766

Proposta di regolamento

Allegato VIII — punto 4 bis (nuovo)

Testo della Commissione

Emendamento

 

4 bis.

la denominazione commerciale del modello di base e qualsiasi ulteriore riferimento inequivocabile che ne consenta l'identificazione e la tracciabilità

Emendamento 767

Proposta di regolamento

Allegato VIII — punto 5

Testo della Commissione

Emendamento

5.

la descrizione della finalità prevista del sistema di IA;

5.

Una descrizione semplice e comprensibile di quanto segue:

 

a)

la finalità prevista del sistema di IA;

 

b)

i componenti e le funzioni supportate dall'IA;

 

c)

una spiegazione a grandi linee della logica del sistema di IA

Emendamento 768

Proposta di regolamento

Allegato VIII — punto 5 bis (nuovo)

Testo della Commissione

Emendamento

 

5 bis.

se del caso, le categorie e la natura dei dati presumibilmente o prevedibilmente trattati dal sistema di IA.

Emendamento 769

Proposta di regolamento

Allegato VIII — punto 11

Testo della Commissione

Emendamento

11.

le istruzioni per l'uso in formato elettronico; questa informazione non deve essere fornita per i sistemi di IA ad alto rischio nei settori delle attività di contrasto e della gestione migrazione, dell'asilo e del controllo delle frontiere di cui all'allegato III, punti 1, 6 e 7;

soppresso

Emendamento 770

Proposta di regolamento

Allegato VIII — Sezione B (nuova)

Testo della Commissione

Emendamento

 

Sezione B — Le seguenti informazioni devono essere fornite e successivamente aggiornate in relazione ai sistemi di IA ad alto rischio da registrare a norma dell'articolo 51, paragrafo 1 bis, lettera a), e paragrafo 1 ter:

 

1.

il nome, l'indirizzo e i dati di contatto dell'operatore;

 

2.

il nome, l'indirizzo e i dati di contatto della persona che fornisce informazioni a nome dell'operatore;

 

3.

la denominazione commerciale del sistema di IA ad alto rischio e qualsiasi ulteriore riferimento inequivocabile che consenta l'identificazione e la tracciabilità del sistema di IA utilizzato;

 

4.

a) una descrizione semplice e comprensibile dell'uso previsto del sistema di IA, compresi gli esiti specifici perseguiti attraverso l'uso del sistema, l'ambito geografico e temporale dell'applicazione;

 

b)

se del caso, le categorie e la natura dei dati trattati dal sistema di IA;

 

c)

le modalità di sorveglianza umana e governance

 

d)

se del caso, gli organismi o le persone fisiche responsabili delle decisioni adottate o sostenute dal sistema di IA;

 

5.

una sintesi dei risultati della valutazione d'impatto sui diritti fondamentali effettuata a norma dell'articolo 29 bis;

 

6.

l'URL dell'inserimento del sistema di IA nella banca dati dell'UE da parte del suo fornitore;

 

7.

una sintesi della valutazione d'impatto sulla protezione dei dati effettuata ai sensi dell'articolo 35 del regolamento (UE) 2016/679 o dell'articolo 27 della direttiva (UE) 2016/680, come specificato all'articolo 29, paragrafo 6, del presente regolamento, ove applicabile;

Emendamento 771

Proposta di regolamento

Allegato VIII — Sezione C (nuova)

Testo della Commissione

Emendamento

 

Sezione C — Le seguenti informazioni devono essere fornite e successivamente aggiornate in relazione ai modelli di base da registrare a norma dell'articolo 28 ter, lettera e):

 

1.

Il nome, l'indirizzo e i dati di contatto del fornitore;

 

2.

Se le informazioni sono trasmesse da un'altra persona per conto del fornitore: il nome, l'indirizzo e i dati di contatto di tale persona;

 

3.

Il nome, l'indirizzo e i dati di contatto del rappresentante autorizzato, ove applicabile;

 

4.

La denominazione commerciale e qualsiasi ulteriore riferimento inequivocabile che consenta l'identificazione del modello di base;

 

5.

La descrizione delle fonti di dati utilizzate nello sviluppo del modello di base;

 

6.

La descrizione delle capacità e dei limiti del modello di base, compresi i rischi ragionevolmente prevedibili e le misure adottate per attenuarli, nonché i restanti rischi non attenuati, con una spiegazione del motivo per cui non possono essere attenuati;

 

7.

La descrizione delle risorse di formazione utilizzate dal modello di fondazione, compresa la potenza di calcolo richiesta, il tempo di formazione e altre informazioni pertinenti relative alle dimensioni e alla potenza del modello 8. La descrizione delle prestazioni del modello, anche per quanto riguarda i parametri di riferimento pubblici o i parametri di riferimento aggiornati dell'industria;

 

8.

La descrizione dei risultati delle pertinenti prove interne ed esterne e dell'ottimizzazione del modello;

 

9.

Gli Stati membri in cui il modello di base è o è stato immesso sul mercato, messo in servizio o reso disponibile nell'Unione;

 

10.

L'URL per ulteriori informazioni (facoltativo).

(1)  La questione è stata rinviata alla commissione competente in base all'articolo 59, paragrafo 4, quarto comma, del regolamento del Parlamento, per l'avvio di negoziati interistituzionali (A9-0188/2023).

(33)  Consiglio europeo, riunione straordinaria del Consiglio europeo (1 e 2 ottobre 2020) — Conclusioni, EUCO 13/20, 2020, pag. 6.

(34)  Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell'intelligenza artificiale, della robotica e delle tecnologie correlate (2020/2012(INL)).

(33)  Consiglio europeo, riunione straordinaria del Consiglio europeo (1 e 2 ottobre 2020) — Conclusioni, EUCO 13/20, 2020, pag. 6.

(34)  Risoluzione del Parlamento europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell'intelligenza artificiale, della robotica e delle tecnologie correlate (2020/2012(INL)).

(35)  Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati) (GU L 119 del 4.5.2016, pag. 1).

(36)   Regolamento (UE) 2018/1725 del Parlamento europeo e del Consiglio, del 23 ottobre 2018, sulla tutela delle persone fisiche in relazione al trattamento dei dati personali da parte delle istituzioni, degli organi e degli organismi dell'Unione e sulla libera circolazione di tali dati, e che abroga il regolamento (CE) n. 45/2001 e la decisione n. 1247/2002/CE (GU L 295 del 21.11.2018, pag. 39).

(37)   Direttiva (UE) 2016/680 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, nonché alla libera circolazione di tali dati e che abroga la decisione quadro 2008/977/GAI del Consiglio (direttiva sulla protezione dei dati nelle attività di polizia e giudiziarie) (GU L 119 del 4.5.2016, pag. 89).

(35)  Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati) (GU L 119 del 4.5.2016, pag. 1).

(38)   Decisione quadro del Consiglio 2002/584/GAI, del 13 giugno 2002, relativa al mandato d'arresto europeo e alle procedure di consegna tra Stati membri (GU L 190 del 18.7.2002, pag. 1).

(39)  Regolamento (CE) n. 300/2008 del Parlamento europeo e del Consiglio, dell'11 marzo 2008, che istituisce norme comuni per la sicurezza dell’aviazione civile e che abroga il regolamento (CE) n. 2320/2002 (GU L 97 del 9.4.2008, pag. 72).

(40)  Regolamento (UE) n. 167/2013 del Parlamento europeo e del Consiglio, del 5 febbraio 2013, relativo all'omologazione e alla vigilanza del mercato dei veicoli agricoli e forestali (GU L 60 del 2.3.2013, pag. 1).

(41)  Regolamento (UE) n. 168/2013 del Parlamento europeo e del Consiglio, del 15 gennaio 2013, relativo all'omologazione e alla vigilanza del mercato dei veicoli a motore a due o tre ruote e dei quadricicli (GU L 60 del 2.3.2013, pag. 52).

(42)  Direttiva 2014/90/UE del Parlamento europeo e del Consiglio, del 23 luglio 2014, sull'equipaggiamento marittimo e che abroga la direttiva 96/98/CE del Consiglio (GU L 257 del 28.8.2014, pag. 146).

(43)  Direttiva (UE) 2016/797 del Parlamento europeo e del Consiglio, dell'11 maggio 2016, relativa all'interoperabilità del sistema ferroviario dell'Unione europea (GU L 138 del 26.5.2016, pag. 44).

(44)  Regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio, del 30 maggio 2018, relativo all'omologazione e alla vigilanza del mercato dei veicoli a motore e dei loro rimorchi, nonché dei sistemi, dei componenti e delle entità tecniche indipendenti destinati a tali veicoli, che modifica i regolamenti (CE) n. 715/2007 e (CE) n. 595/2009 e abroga la direttiva 2007/46/CE (GU L 151 del 14.6.2018, pag. 1).

(45)  Regolamento (UE) 2018/1139 del Parlamento europeo e del Consiglio, del 4 luglio 2018, recante norme comuni nel settore dell’aviazione civile, che istituisce un'Agenzia dell'Unione europea per la sicurezza aerea e che modifica i regolamenti (CE) n. 2111/2005, (CE) n. 1008/2008, (UE) n. 996/2010, (UE) n. 376/2014 e le direttive 2014/30/UE e 2014/53/UE del Parlamento europeo e del Consiglio, e abroga i regolamenti (CE) n. 552/2004 e (CE) n. 216/2008 del Parlamento europeo e del Consiglio e il regolamento (CEE) n. 3922/91 del Consiglio (GU L 212 del 22.8.2018, pag. 1).

(46)  Regolamento (UE) 2019/2144 del Parlamento europeo e del Consiglio, del 27 novembre 2019, relativo ai requisiti di omologazione dei veicoli a motore e dei loro rimorchi, nonché di sistemi, componenti ed entità tecniche destinati a tali veicoli, per quanto riguarda la loro sicurezza generale e la protezione degli occupanti dei veicoli e degli altri utenti vulnerabili della strada, che modifica il regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio e abroga i regolamenti (CE) n. 78/2009, (CE) n. 79/2009 e (CE) n. 661/2009 del Parlamento europeo e del Consiglio e i regolamenti (CE) n. 631/2009, (UE) n. 406/2010, (UE) n. 672/2010, (UE) n. 1003/2010,(UE) n. 1005/2010, (UE) n. 1008/2010, (UE) n. 1009/2010, (UE) n. 19/2011,(UE) n. 109/2011, (UE) n. 458/2011, (UE) n. 65/2012, (UE) n. 130/2012,(UE) n. 347/2012, (UE) n. 351/2012, (UE) n. 1230/2012 e (UE) 2015/166 della Commissione (GU L 325 del 16.12.2019, pag. 1).

(39)  Regolamento (CE) n. 300/2008 del Parlamento europeo e del Consiglio, dell'11 marzo 2008, che istituisce norme comuni per la sicurezza dell’aviazione civile e che abroga il regolamento (CE) n. 2320/2002 (GU L 97 del 9.4.2008, pag. 72).

(40)  Regolamento (UE) n. 167/2013 del Parlamento europeo e del Consiglio, del 5 febbraio 2013, relativo all'omologazione e alla vigilanza del mercato dei veicoli agricoli e forestali (GU L 60 del 2.3.2013, pag. 1).

(41)  Regolamento (UE) n. 168/2013 del Parlamento europeo e del Consiglio, del 15 gennaio 2013, relativo all'omologazione e alla vigilanza del mercato dei veicoli a motore a due o tre ruote e dei quadricicli (GU L 60 del 2.3.2013, pag. 52).

(42)  Direttiva 2014/90/UE del Parlamento europeo e del Consiglio, del 23 luglio 2014, sull'equipaggiamento marittimo e che abroga la direttiva 96/98/CE del Consiglio (GU L 257 del 28.8.2014, pag. 146).

(43)  Direttiva (UE) 2016/797 del Parlamento europeo e del Consiglio, dell'11 maggio 2016, relativa all'interoperabilità del sistema ferroviario dell'Unione europea (GU L 138 del 26.5.2016, pag. 44).

(44)  Regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio, del 30 maggio 2018, relativo all'omologazione e alla vigilanza del mercato dei veicoli a motore e dei loro rimorchi, nonché dei sistemi, dei componenti e delle entità tecniche indipendenti destinati a tali veicoli, che modifica i regolamenti (CE) n. 715/2007 e (CE) n. 595/2009 e abroga la direttiva 2007/46/CE (GU L 151 del 14.6.2018, pag. 1).

(45)  Regolamento (UE) 2018/1139 del Parlamento europeo e del Consiglio, del 4 luglio 2018, recante norme comuni nel settore dell’aviazione civile, che istituisce un'Agenzia dell'Unione europea per la sicurezza aerea e che modifica i regolamenti (CE) n. 2111/2005, (CE) n. 1008/2008, (UE) n. 996/2010, (UE) n. 376/2014 e le direttive 2014/30/UE e 2014/53/UE del Parlamento europeo e del Consiglio, e abroga i regolamenti (CE) n. 552/2004 e (CE) n. 216/2008 del Parlamento europeo e del Consiglio e il regolamento (CEE) n. 3922/91 del Consiglio (GU L 212 del 22.8.2018, pag. 1).

(46)  Regolamento (UE) 2019/2144 del Parlamento europeo e del Consiglio, del 27 novembre 2019, relativo ai requisiti di omologazione dei veicoli a motore e dei loro rimorchi, nonché di sistemi, componenti ed entità tecniche destinati a tali veicoli, per quanto riguarda la loro sicurezza generale e la protezione degli occupanti dei veicoli e degli altri utenti vulnerabili della strada, che modifica il regolamento (UE) 2018/858 del Parlamento europeo e del Consiglio e abroga i regolamenti (CE) n. 78/2009, (CE) n. 79/2009 e (CE) n. 661/2009 del Parlamento europeo e del Consiglio e i regolamenti (CE) n. 631/2009, (UE) n. 406/2010, (UE) n. 672/2010, (UE) n. 1003/2010,(UE) n. 1005/2010, (UE) n. 1008/2010, (UE) n. 1009/2010, (UE) n. 19/2011,(UE) n. 109/2011, (UE) n. 458/2011, (UE) n. 65/2012, (UE) n. 130/2012,(UE) n. 347/2012, (UE) n. 351/2012, (UE) n. 1230/2012 e (UE) 2015/166 della Commissione (GU L 325 del 16.12.2019, pag. 1).

(47)  Regolamento (UE) 2017/745 del Parlamento europeo e del Consiglio, del 5 aprile 2017, relativo ai dispositivi medici, che modifica la direttiva 2001/83/CE, il regolamento (CE) n. 178/2002 e il regolamento (CE) n. 1223/2009 e che abroga le direttive 90/385/CEE e 93/42/CEE del Consiglio (GU L 117 del 5.5.2017, pag. 1).

(48)  Regolamento (UE) 2017/746 del Parlamento europeo e del Consiglio, del 5 aprile 2017, relativo ai dispositivi medico-diagnostici in vitro e che abroga la direttiva 98/79/CE e la decisione 2010/227/UE della Commissione (GU L 117 del 5.5.2017, pag. 176).

(47)  Regolamento (UE) 2017/745 del Parlamento europeo e del Consiglio, del 5 aprile 2017, relativo ai dispositivi medici, che modifica la direttiva 2001/83/CE, il regolamento (CE) n. 178/2002 e il regolamento (CE) n. 1223/2009 e che abroga le direttive 90/385/CEE e 93/42/CEE del Consiglio (GU L 117 del 5.5.2017, pag. 1).

(48)  Regolamento (UE) 2017/746 del Parlamento europeo e del Consiglio, del 5 aprile 2017, relativo ai dispositivi medico-diagnostici in vitro e che abroga la direttiva 98/79/CE e la decisione 2010/227/UE della Commissione (GU L 117 del 5.5.2017, pag. 176).

(49)  Direttiva 2013/32/UE del Parlamento europeo e del Consiglio, del 26 giugno 2013, recante procedure comuni ai fini del riconoscimento e della revoca dello status di protezione internazionale (GU L 180 del 29.6.2013, pag. 60).

(50)  Regolamento (CE) n. 810/2009 del Parlamento europeo e del Consiglio, del 13 luglio 2009, che istituisce un Codice comunitario dei visti (codice dei visti) (GU L 243 del 15.9.2009, pag. 1).

(49)  Direttiva 2013/32/UE del Parlamento europeo e del Consiglio, del 26 giugno 2013, recante procedure comuni ai fini del riconoscimento e della revoca dello status di protezione internazionale (GU L 180 del 29.6.2013, pag. 60).

(50)  Regolamento (CE) n. 810/2009 del Parlamento europeo e del Consiglio, del 13 luglio 2009, che istituisce un Codice comunitario dei visti (codice dei visti) (GU L 243 del 15.9.2009, pag. 1).

(54)  Regolamento (UE) n. 1025/2012 del Parlamento europeo e del Consiglio, del 25 ottobre 2012, sulla normazione europea, che modifica le direttive 89/686/CEE e 93/15/CEE del Consiglio nonché le direttive 94/9/CE, 94/25/CE, 95/16/CE, 97/23/CE, 98/34/CE, 2004/22/CE, 2007/23/CE, 2009/23/CE e 2009/105/CE del Parlamento europeo e del Consiglio e che abroga la decisione 87/95/CEE del Consiglio e la decisione n. 1673/2006/CE del Parlamento europeo e del Consiglio (GU L 316 del 14.11.2012, pag. 12).

(54)  Regolamento (UE) n. 1025/2012 del Parlamento europeo e del Consiglio, del 25 ottobre 2012, sulla normazione europea, che modifica le direttive 89/686/CEE e 93/15/CEE del Consiglio nonché le direttive 94/9/CE, 94/25/CE, 95/16/CE, 97/23/CE, 98/34/CE, 2004/22/CE, 2007/23/CE, 2009/23/CE e 2009/105/CE del Parlamento europeo e del Consiglio e che abroga la decisione 87/95/CEE del Consiglio e la decisione n. 1673/2006/CE del Parlamento europeo e del Consiglio (GU L 316 del 14.11.2012, pag. 12).

(55)  Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati) (GU L 119 del 4.5.2016, pag. 1).

(55)  Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati) (GU L 119 del 4.5.2016, pag. 1).

(56)  Direttiva 2013/36/UE del Parlamento europeo e del Consiglio, del 26 giugno 2013, sull'accesso all'attività degli enti creditizi e sulla vigilanza prudenziale sugli enti creditizi e sulle imprese di investimento, che modifica la direttiva 2002/87/CE e abroga le direttive 2006/48/CE e 2006/49/CE (GU L 176 del 27.6.2013, pag. 338).

(56)  Direttiva 2013/36/UE del Parlamento europeo e del Consiglio, del 26 giugno 2013, sull'accesso all'attività degli enti creditizi e sulla vigilanza prudenziale sugli enti creditizi e sulle imprese di investimento, che modifica la direttiva 2002/87/CE e abroga le direttive 2006/48/CE e 2006/49/CE (GU L 176 del 27.6.2013, pag. 338).

(57)  Direttiva 2001/95/CE del Parlamento europeo e del Consiglio, del 3 dicembre 2001, relativa alla sicurezza generale dei prodotti (GU L 11 del 15.1.2002, pag. 4).

(57)  Direttiva 2001/95/CE del Parlamento europeo e del Consiglio, del 3 dicembre 2001, relativa alla sicurezza generale dei prodotti (GU L 11 del 15.1.2002, pag. 4).

(58)   GU L 123 del 12.5.2016, pag. 1.

(58)   GU L 123 del 12.5.2016, pag. 1.

(61)   Raccomandazione della Commissione, del 6 maggio 2003, relativa alla definizione delle microimprese, piccole e medie imprese (GU L 124 del 20.5.2003, pag. 36).

(62)  Decisione quadro del Consiglio 2002/584/GAI, del 13 giugno 2002, relativa al mandato d'arresto europeo e alle procedure di consegna tra Stati membri (GU L 190 del 18.7.2002, pag. 1).

(1 bis)   Direttiva (UE) 2020/1828 del Parlamento europeo e del Consiglio, del 25 novembre 2020, relativa alle azioni rappresentative a tutela degli interessi collettivi dei consumatori e che abroga la direttiva 2009/22/CE (GU L 409 del 4.12.2020, pag. 1).


ELI: http://data.europa.eu/eli/C/2024/506/oj

ISSN 1977-0944 (electronic edition)


Top