Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52021AR2682

    Parere del Comitato europeo delle regioni — Approccio europeo in materia di intelligenza artificiale — Legge sull'intelligenza artificiale (parere riveduto)

    COR 2021/02682

    GU C 97 del 28.2.2022, p. 60–85 (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    28.2.2022   

    IT

    Gazzetta ufficiale dell’Unione europea

    C 97/60


    Parere del Comitato europeo delle regioni — Approccio europeo in materia di intelligenza artificiale — Legge sull'intelligenza artificiale

    (parere riveduto)

    (2022/C 97/12)

    Relatore:

    Guido RINK (NL/PSE), assessore comunale di Emmen

    Testi di riferimento:

    Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni — Promuovere un approccio europeo all'intelligenza artificiale

    COM(2021) 205

    Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione

    COM(2021) 206

    I.   PROPOSTE DI EMENDAMENTO

    Emendamento 1

    Considerando 1

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, la commercializzazione e l'uso dell'intelligenza artificiale (IA) in conformità ai valori dell'Unione. Il presente regolamento persegue una serie di motivi imperativi di interesse pubblico, quali un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali, e garantisce la libera circolazione transfrontaliera di beni e servizi basati sull'IA, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all'uso di sistemi di IA, salvo espressa autorizzazione del presente regolamento.

    Lo scopo del presente regolamento è migliorare il funzionamento del mercato interno e garantire i diritti fondamentali dei cittadini istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, la commercializzazione e l'uso dell'intelligenza artificiale (IA) in conformità ai valori dell'Unione. Il presente regolamento persegue una serie di motivi imperativi di interesse pubblico, quali un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali, e garantisce la libera circolazione transfrontaliera di beni e servizi basati sull'IA, impedendo così agli Stati membri di imporre restrizioni allo sviluppo, alla commercializzazione e all'uso di sistemi di IA, salvo espressa autorizzazione del presente regolamento.

    Motivazione

    Introducendo il riferimento ai diritti fondamentali si vuole sottolineare il collegamento con la Carta dei diritti fondamentali dell'Unione europea.

    Emendamento 2

    Nuovo considerando dopo il considerando 6

    Testo proposto dalla Commissione europea

    Emendamento del CdR

     

    La definizione di sistemi di IA è un processo continuo, che dovrebbe tenere conto del contesto in cui si inserisce l'intelligenza artificiale, seguire il ritmo degli sviluppi socioculturali in questo settore e non perdere di vista il legame tra l'ecosistema di eccellenza e l'ecosistema di fiducia.

    Motivazione

    Gli sviluppi in materia di IA e in campo tecnologico richiedono un approccio adattivo ed evolutivo. Il nuovo considerando si propone di chiarire che la definizione di IA deve evolvere nel tempo e in funzione dei progressi via via realizzati in materia di sistemi e applicazioni di IA.

    Emendamento 3

    Considerando 20

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    Al fine di garantire che tali sistemi siano utilizzati in modo responsabile e proporzionato, è altresì importante stabilire che, in ciascuna delle tre situazioni elencate in modo esaustivo e definite rigorosamente, è opportuno tener conto di taluni elementi, in particolare per quanto riguarda la natura della situazione all'origine della richiesta e le conseguenze dell'uso per i diritti e le libertà di tutte le persone interessate, nonché le tutele e le condizioni previste per l'uso. L'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto dovrebbe inoltre essere subordinato a limiti di tempo e di spazio adeguati , con particolare riguardo a indicazioni o elementi probatori relativi a minacce, vittime o autori di reati. La banca dati di riferimento delle persone dovrebbe risultare adeguata per ogni caso d'uso in ciascuna delle tre situazioni di cui sopra.

    Al fine di garantire che tali sistemi siano utilizzati in modo responsabile e proporzionato, è altresì importante stabilire che, in ciascuna delle tre situazioni elencate in modo esaustivo e definite rigorosamente, è opportuno tener conto di taluni elementi, in particolare per quanto riguarda la natura della situazione all'origine della richiesta e le conseguenze dell'uso per i diritti e le libertà di tutte le persone interessate, nonché le tutele e le condizioni previste per l'uso. Si dovrebbe prevedere una consultazione degli enti locali e regionali interessati prima che venga fatto un uso eccezionale di tali sistemi. L'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto dovrebbe inoltre essere subordinato a rigorosi limiti di tempo e di spazio, con particolare riguardo a indicazioni o elementi probatori relativi a minacce, vittime o autori di reati. La banca dati di riferimento delle persone dovrebbe risultare adeguata per ogni caso d'uso in ciascuna delle tre situazioni di cui sopra.

    Motivazione

    I sistemi di identificazione biometrica remota «in tempo reale» non andrebbero utilizzati in maniera disinvolta.

    Emendamento 4

    Considerando 21

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    È opportuno subordinare ogni uso di un sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto a un'autorizzazione esplicita e specifica da parte di un'autorità giudiziaria o di un'autorità amministrativa indipendente di uno Stato membro. Tale autorizzazione dovrebbe , in linea di principio, essere ottenuta prima dell'uso, tranne in situazioni di urgenza debitamente giustificate, vale a dire le situazioni in cui la necessità di utilizzare i sistemi in questione è tale da far sì che sia effettivamente e oggettivamente impossibile ottenere un'autorizzazione prima di iniziare a utilizzare il sistema. In tali situazioni di urgenza , è opportuno limitare l'uso al minimo indispensabile e subordinarlo a tutele e condizioni adeguate, come stabilito dal diritto nazionale e specificato nel contesto di ogni singolo caso d'uso urgente dall'autorità di contrasto stessa . L'autorità di contrasto dovrebbe inoltre in tali situazioni tentare di ottenere nel minor tempo possibile un'autorizzazione , indicando contestualmente i motivi per cui non ha potuto richiederla prima.

    È opportuno subordinare ogni uso di un sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto a un'autorizzazione esplicita e specifica da parte di un'autorità giudiziaria o di un'autorità amministrativa indipendente di uno Stato membro. Tale autorizzazione dovrebbe essere ottenuta prima dell'uso, tranne in situazioni di urgenza debitamente giustificate, vale a dire le situazioni in cui la necessità di utilizzare i sistemi in questione è tale da far sì che sia effettivamente e oggettivamente impossibile ottenere un'autorizzazione prima di iniziare a utilizzare il sistema. In ogni caso , è opportuno limitare l'uso al minimo indispensabile e subordinarlo a tutele e condizioni adeguate, come stabilito dal diritto nazionale. L'autorità di contrasto dovrebbe inoltre informare immediatamente gli enti locali e regionali interessati e tentare di ottenere un'autorizzazione da parte delle autorità competenti .

    Motivazione

    La responsabilità politica e amministrativa della gestione e della vigilanza degli spazi pubblici spetta agli enti locali e regionali, i quali dovrebbero quindi essere debitamente associati in caso di installazione di questi sistemi negli spazi pubblici. In situazioni di emergenza in cui non è ragionevole attendersi lo svolgimento di una consultazione preliminare, l'ente locale o regionale interessato dovrebbe essere immediatamente informato dell'installazione di sistemi biometrici nello spazio pubblico.

    Emendamento 5

    Considerando 39

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    I sistemi di IA utilizzati nella gestione della migrazione, dell'asilo e del controllo delle frontiere hanno effetti su persone che si trovano spesso in una posizione particolarmente vulnerabile e il cui futuro dipende dall'esito delle azioni delle autorità pubbliche competenti. L'accuratezza, la natura non discriminatoria e la trasparenza dei sistemi di IA utilizzati in tali contesti sono pertanto particolarmente importanti per garantire il rispetto dei diritti fondamentali delle persone interessate, in particolare i loro diritti alla libera circolazione, alla non discriminazione, alla protezione della vita privata e dei dati personali, alla protezione internazionale e alla buona amministrazione. È pertanto opportuno classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti incaricate di compiti in materia di gestione della migrazione, dell'asilo e del controllo delle frontiere, come poligrafi e strumenti analoghi, o per rilevare lo stato emotivo di una persona fisica, per valutare taluni rischi presentati da persone fisiche che entrano nel territorio di uno Stato membro o presentano domanda di visto o di asilo, per verificare l'autenticità dei pertinenti documenti delle persone fisiche, nonché per assistere le autorità pubbliche competenti nell'esame delle domande di asilo, di visto e di permesso di soggiorno e dei relativi reclami in relazione all'obiettivo di determinare l'ammissibilità delle persone fisiche che richiedono tale status. I sistemi di IA nel settore della gestione della migrazione, dell'asilo e dei controlli di frontiera di cui al presente regolamento dovrebbero essere conformi ai pertinenti requisiti procedurali stabiliti dalla direttiva 2013/32/UE del Parlamento europeo e del Consiglio, dal regolamento (CE) n. 810/2009 del Parlamento europeo e del Consiglio e da altre normative pertinenti.

    I sistemi di IA utilizzati nella gestione della migrazione, dell'asilo e del controllo delle frontiere hanno effetti su persone che si trovano spesso in una posizione particolarmente vulnerabile e il cui futuro dipende dall'esito delle azioni delle autorità pubbliche competenti. L'accuratezza, la natura non discriminatoria e la trasparenza dei sistemi di IA utilizzati in tali contesti sono pertanto particolarmente importanti per garantire il rispetto dei diritti fondamentali delle persone interessate, in particolare i loro diritti alla libera circolazione, alla non discriminazione, alla protezione della vita privata e dei dati personali, alla protezione internazionale e alla buona amministrazione. È pertanto indispensabile classificare come ad alto rischio i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche competenti incaricate di compiti in materia di gestione della migrazione, dell'asilo e del controllo delle frontiere, come poligrafi e strumenti analoghi, o per rilevare lo stato emotivo di una persona fisica, per valutare taluni rischi presentati da persone fisiche che entrano nel territorio di uno Stato membro o presentano domanda di visto o di asilo, per verificare l'autenticità dei pertinenti documenti delle persone fisiche, nonché per assistere le autorità pubbliche competenti nell'esame delle domande di asilo, di visto e di permesso di soggiorno e dei relativi reclami in relazione all'obiettivo di determinare l'ammissibilità delle persone fisiche che richiedono tale status. I sistemi di IA nel settore della gestione della migrazione, dell'asilo e dei controlli di frontiera di cui al presente regolamento dovrebbero essere conformi ai pertinenti requisiti procedurali stabiliti dalla direttiva 2013/32/UE del Parlamento europeo e del Consiglio, dal regolamento (CE) n. 810/2009 del Parlamento europeo e del Consiglio e da altre normative pertinenti.

    Motivazione

    L'emendamento intende sottolineare la necessità di assoggettare i sistemi di IA descritti nel punto al regime rafforzato applicabile ai sistemi di IA ad alto rischio.

    Emendamento 6

    Considerando 43

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    Tali requisiti dovrebbero applicarsi ai sistemi di IA ad alto rischio per quanto concerne la qualità dei set di dati utilizzati, la documentazione tecnica e la conservazione delle registrazioni, la trasparenza e la fornitura di informazioni agli utenti, la sorveglianza umana e la robustezza, l'accuratezza e la cibersicurezza. Tali requisiti sono necessari per attenuare efficacemente i rischi per la salute, la sicurezza e i diritti fondamentali, come applicabile alla luce della finalità prevista del sistema, e, non essendo ragionevolmente disponibili altre misure meno restrittive degli scambi, sono così evitate limitazioni ingiustificate del commercio.

    Tali requisiti dovrebbero applicarsi ai sistemi di IA ad alto rischio per quanto concerne la qualità dei set di dati utilizzati, la documentazione tecnica e la conservazione delle registrazioni, la trasparenza e la fornitura di informazioni agli utenti, la sorveglianza umana e la robustezza, l'accuratezza e la cibersicurezza. Tali requisiti sono necessari per attenuare efficacemente i rischi per la salute, la sicurezza, compresa quella dei dati, i diritti dei consumatori e i diritti fondamentali, come applicabile alla luce della finalità del sistema, e, non essendo ragionevolmente disponibili altre misure meno restrittive degli scambi, sono così evitate limitazioni ingiustificate del commercio. Le persone o i gruppi di persone fisiche interessati da sistemi di IA ad alto rischio immessi sul mercato dell'Unione o altrimenti messi in servizio dovrebbero essere informati in maniera appropriata e comprensibile, con informazioni facilmente accessibili, e avere accesso a informazioni esplicite, facilmente reperibili e pubbliche sul fatto che sono assoggettati a tali sistemi.

    Motivazione

    I requisiti in materia di trasparenza e di informazione applicabili ai fornitori e agli utenti dovrebbero essere estesi alle persone o ai gruppi di persone potenzialmente interessati dall'uso di sistemi di IA ad alto rischio elencati nell'allegato III della proposta di regolamento. Con l'aggettivo «comprensibile» nella modifica proposta si intende, in particolare, «un linguaggio comprensibile e accessibile per l'utente, ivi compreso il linguaggio orale e la lingua dei segni».

    Emendamento 7

    Nuovo considerando dopo il considerando 44

    Testo proposto dalla Commissione europea

    Emendamento del CdR

     

    I fornitori di sistemi di IA non includono, nei loro sistemi di gestione della qualità, misure, di qualsiasi tipo, che favoriscano discriminazioni ingiustificate fondate sul genere, l'origine, la religione o le convinzioni personali, la disabilità, l'età, l'orientamento sessuale o qualsiasi altro motivo.

    Motivazione

    La discriminazione illecita è il risultato dell'azione umana. I fornitori di sistemi di IA non dovrebbero includere, nei loro sistemi di gestione della qualità, misure che possano eventualmente favorire la discriminazione.

    Emendamento 8

    Considerando 47

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    Per ovviare all'opacità che può rendere alcuni sistemi di IA incomprensibili o troppo complessi per le persone fisiche, è opportuno imporre un certo grado di trasparenza per i sistemi di IA ad alto rischio. Gli utenti dovrebbero poter interpretare gli output del sistema e utilizzarlo in modo adeguato. I sistemi di IA ad alto rischio dovrebbero pertanto essere corredati di documentazione e istruzioni per l'uso pertinenti, nonché di informazioni concise e chiare, anche in relazione, se del caso, ai possibili rischi in termini di diritti fondamentali e discriminazione.

    Per ovviare all'opacità che può rendere alcuni sistemi di IA incomprensibili o troppo complessi per le persone fisiche o le autorità pubbliche a tutti i livelli di governo , è opportuno imporre un elevato grado di trasparenza per i sistemi di IA ad alto rischio. Gli utenti dovrebbero poter interpretare gli output del sistema e utilizzarlo in modo adeguato. I sistemi di IA ad alto rischio dovrebbero pertanto essere corredati di documentazione e istruzioni per l'uso pertinenti, nonché di informazioni concise e chiare, anche in relazione, se del caso, ai possibili rischi in termini di diritti fondamentali e discriminazione.

    Motivazione

    La responsabilità degli sviluppatori di sistemi di IA ad alto rischio risulta attenuata dal ricorso all'espressione «un certo grado di trasparenza».

    Emendamento 9

    Considerando 48

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    I sistemi di IA ad alto rischio dovrebbero essere progettati e sviluppati in modo da consentire alle persone fisiche di sorvegliarne il funzionamento. Il fornitore del sistema dovrebbe a tal fine individuare misure di sorveglianza umana adeguate prima dell'immissione del sistema sul mercato o della sua messa in servizio. Tali misure dovrebbero in particolare garantire, ove opportuno, che il sistema sia soggetto a vincoli operativi intrinseci che il sistema stesso non può annullare e che risponda all'operatore umano, e che le persone fisiche alle quali è stata affidata la sorveglianza umana dispongano delle competenze, della formazione e dell'autorità necessarie per svolgere tale ruolo.

    I sistemi di IA ad alto rischio dovrebbero essere progettati e sviluppati in modo da consentire alle persone fisiche e alle autorità pubbliche a tutti i livelli di governo di sorvegliarne il funzionamento. Il fornitore del sistema dovrebbe a tal fine individuare misure di sorveglianza umana adeguate prima dell'immissione del sistema sul mercato o della sua messa in servizio. Tali misure dovrebbero in particolare garantire, ove opportuno, che il sistema sia soggetto a vincoli operativi intrinseci che il sistema stesso non può annullare e che risponda all'operatore umano, e che le persone fisiche alle quali è stata affidata la sorveglianza umana dispongano delle competenze, della formazione e dell'autorità necessarie per svolgere tale ruolo.

    Motivazione

    Evidente.

    Emendamento 10

    Considerando 67

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    I sistemi di IA ad alto rischio dovrebbero recare la marcatura CE per indicare la loro conformità al presente regolamento, in modo da poter circolare liberamente nel mercato interno. Gli Stati membri non dovrebbero ostacolare in maniera ingiustificata l'immissione sul mercato o la messa in servizio di sistemi di IA ad alto rischio che soddisfano i requisiti stabiliti nel presente regolamento e recano la marcatura CE.

    I sistemi di IA ad alto rischio dovrebbero recare la marcatura CE per indicare la loro conformità al presente regolamento, in modo da poter circolare liberamente nel mercato interno. Gli Stati membri non dovrebbero ostacolare l'immissione sul mercato o la messa in servizio di sistemi di IA ad alto rischio che soddisfano i requisiti stabiliti nel presente regolamento e recano la marcatura CE. Gli Stati membri dispongono del potere di regolamentare le pratiche e i sistemi di IA ad alto rischio esclusivamente sulla base di interessi imperativi e debitamente giustificati di carattere pubblico e attinenti alla sicurezza nazionale .

    Motivazione

    Pur non ostacolando l'applicazione del regolamento in esame, gli Stati membri dovrebbero conservare il diritto di regolamentare i sistemi di IA ad alto rischio qualora siano in gioco interessi pubblici e di sicurezza nazionale.

    Emendamento 11

    Considerando 70

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    Alcuni sistemi di IA destinati all'interazione con persone fisiche o alla generazione di contenuti possono comportare rischi specifici di impersonificazione o inganno, a prescindere dal fatto che siano considerati ad alto rischio o no. L'uso di tali sistemi dovrebbe pertanto essere, in determinate circostanze, soggetto a specifici obblighi di trasparenza, fatti salvi i requisiti e gli obblighi per i sistemi di IA ad alto rischio. Le persone fisiche dovrebbero in particolare ricevere una notifica nel momento in cui interagiscono con un sistema di IA , a meno che tale interazione non risulti evidente dalle circostanze e dal contesto di utilizzo . È inoltre opportuno che le persone fisiche ricevano una notifica quando sono esposte a un sistema di riconoscimento delle emozioni o a un sistema di categorizzazione biometrica. Tali informazioni e notifiche dovrebbero essere fornite in formati accessibili alle persone con disabilità. Inoltre, gli utenti che utilizzano un sistema di IA per generare o manipolare immagini o contenuti audio o video che assomigliano notevolmente a persone, luoghi o eventi esistenti e che potrebbero apparire falsamente autentici, dovrebbero rendere noto che il contenuto è stato creato o manipolato artificialmente etichettando come tali gli output dell'intelligenza artificiale e rivelandone l'origine artificiale.

    Alcuni sistemi di IA destinati all'interazione con persone fisiche o alla generazione di contenuti possono comportare rischi specifici di impersonificazione o inganno, a prescindere dal fatto che siano considerati ad alto rischio o no. L'uso di tali sistemi dovrebbe pertanto essere soggetto a specifici obblighi di trasparenza, fatti salvi i requisiti e gli obblighi per i sistemi di IA ad alto rischio. Le persone fisiche dovrebbero in particolare ricevere sistematicamente una notifica nel momento in cui interagiscono con un sistema di IA. È inoltre opportuno che le persone fisiche ricevano una notifica quando sono esposte a un sistema di riconoscimento delle emozioni o a un sistema di categorizzazione biometrica. Tali informazioni e notifiche dovrebbero essere fornite in formati accessibili alle persone con disabilità. Inoltre, gli utenti che utilizzano un sistema di IA per generare o manipolare immagini o contenuti audio o video che assomigliano notevolmente a persone, luoghi o eventi esistenti e che potrebbero apparire falsamente autentici, dovrebbero rendere noto che il contenuto è stato creato o manipolato artificialmente etichettando come tali gli output dell'intelligenza artificiale e rivelandone l'origine artificiale.

    Motivazione

    Non dovrebbero essere previste eccezioni all'obbligo di trasparenza e di informazione quando le persone fisiche interagiscono con sistemi di IA.

    Emendamento 12

    Considerando 76

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    Al fine di facilitare un'attuazione agevole, efficace e armonizzata del presente regolamento, è opportuno istituire un comitato europeo per l'intelligenza artificiale. Il comitato dovrebbe essere responsabile di una serie di compiti consultivi, tra cui l'emanazione di pareri, raccomandazioni, consulenze o orientamenti su questioni relative all'attuazione del presente regolamento, comprese le specifiche tecniche o le norme esistenti per quanto riguarda i requisiti stabiliti nel presente regolamento, e la fornitura di consulenza e assistenza alla Commissione su questioni specifiche connesse all'intelligenza artificiale.

    Al fine di facilitare un'attuazione agevole, efficace e armonizzata del presente regolamento, è opportuno istituire un comitato europeo per l'intelligenza artificiale. Il comitato dovrebbe essere responsabile di una serie di compiti consultivi, tra cui l'emanazione di pareri, raccomandazioni, consulenze o orientamenti su questioni relative all'attuazione del presente regolamento, comprese le specifiche tecniche o le norme esistenti per quanto riguarda i requisiti stabiliti nel presente regolamento, e la fornitura di consulenza e assistenza alla Commissione su questioni specifiche connesse all'intelligenza artificiale. La composizione del comitato europeo per l'intelligenza artificiale dovrebbe tener conto degli interessi della società europea e rispettare l'equilibrio di genere.

    Motivazione

    Il comitato europeo per l'intelligenza artificiale dovrebbe tenere adeguatamente conto dei principali interessi della società europea, e cioè, in particolare, degli interessi in materia di diritti umani, di clima e di efficienza energetica dei sistemi di IA, di sicurezza, di inclusione sociale, di salute, ed altri ancora. L'equilibrio di genere è una condizione preliminare indispensabile per assicurare la diversità nell'ambito delle attività di consulenza, di formulazione di orientamenti ecc.

    Emendamento 13

    Considerando 77

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    Gli Stati membri svolgono un ruolo chiave nell'applicare il presente regolamento e nel garantirne il rispetto. A tale riguardo, è opportuno che ciascuno Stato membro designi una o più autorità nazionali competenti al fine di controllare l'applicazione e l'attuazione del presente regolamento. Al fine di incrementare l'efficienza organizzativa da parte degli Stati membri e di istituire un punto di contatto ufficiale nei confronti del pubblico e di altre controparti sia a livello di Stati membri sia a livello di Unione, è opportuno che in ciascuno Stato membro sia designata come autorità nazionale di controllo un'autorità nazionale.

    Gli Stati membri svolgono un ruolo chiave nell'applicare il presente regolamento e nel garantirne il rispetto. A tale riguardo, è opportuno che ciascuno Stato membro designi una o più autorità nazionali competenti al fine di controllare l'applicazione e l'attuazione del presente regolamento. Al fine di incrementare l'efficienza organizzativa da parte degli Stati membri e di istituire un punto di contatto ufficiale nei confronti del pubblico e di altre controparti sia a livello di Stati membri sia a livello di Unione, è opportuno che in ciascuno Stato membro sia designata come autorità nazionale di controllo un'autorità nazionale. Qualora lo Stato membro in questione lo ritenga opportuno, agli enti locali e regionali sono affidati compiti di vigilanza o di attuazione.

    Motivazione

    Ai fini dell'applicabilità del regolamento e delle relative disposizioni in materia di vigilanza e di attuazione, uno Stato membro dovrebbe essere autorizzato ad affidare agli enti locali e regionali, laddove necessario e per quanto possibile, compiti di vigilanza o di attuazione.

    Emendamento 14

    Considerando 79

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    Al fine di garantire un'applicazione adeguata ed efficace dei requisiti e degli obblighi stabiliti dal presente regolamento, che costituisce la normativa di armonizzazione dell'Unione, è opportuno che si applichi nella sua interezza il sistema di vigilanza del mercato e di conformità dei prodotti istituito dal regolamento (UE) 2019/1020. Ove necessario per il loro mandato, è opportuno che le autorità o gli organismi pubblici nazionali che controllano l'applicazione della normativa dell'Unione che tutela i diritti fondamentali, compresi gli organismi per la parità, abbiano altresì accesso alla documentazione creata a norma del presente regolamento.

    Al fine di garantire un'applicazione adeguata ed efficace dei requisiti e degli obblighi stabiliti dal presente regolamento, che costituisce la normativa di armonizzazione dell'Unione, è opportuno che si applichi nella sua interezza il sistema di vigilanza del mercato e di conformità dei prodotti istituito dal regolamento (UE) 2019/1020. Ove necessario per il loro mandato, è opportuno che le autorità o gli organismi pubblici nazionali che controllano l'applicazione della normativa dell'Unione che tutela i diritti fondamentali, compresi gli organismi per la parità , nonché, se del caso, gli enti locali e regionali, abbiano altresì accesso alla documentazione creata a norma del presente regolamento.

    Motivazione

    L'emendamento mira a tener conto delle diverse strutture di governo presenti negli Stati membri dell'UE.

    Emendamento 15

    Considerando 83

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    Al fine di garantire una cooperazione affidabile e costruttiva delle autorità competenti a livello nazionale e dell'Unione, è opportuno che tutte le parti coinvolte nell'applicazione del presente regolamento rispettino la riservatezza delle informazioni e dei dati ottenuti nell'assolvimento dei loro compiti.

    Al fine di garantire una cooperazione affidabile e costruttiva delle autorità competenti a livello nazionale , regionale e locale e a livello dell'Unione , è opportuno che tutte le parti coinvolte nell'applicazione del presente regolamento rispettino la riservatezza delle informazioni e dei dati ottenuti nell'assolvimento dei loro compiti.

    Motivazione

    L'emendamento mira a tener conto delle diverse strutture di governo presenti negli Stati membri dell'UE.

    Emendamento 16

    Titolo I, Articolo 3 — Definizioni, punto 1)

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    «sistema di intelligenza artificiale» (sistema di IA): un software sviluppato con una o più delle tecniche e degli approcci elencati nell'allegato I, che può, per una determinata serie di obiettivi definiti dall'uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono;

    «sistema di intelligenza artificiale» (sistema di IA): un software sviluppato con una o più delle tecniche e degli approcci elencati in modo non esaustivo nell'allegato I, collegato a pratiche sociali, all'identità e alla cultura, e che può, per una determinata serie di obiettivi definiti dall'uomo , sulla base della percezione del suo ambiente attraverso la raccolta di dati, l'interpretazione dei dati raccolti (siano essi strutturati oppure no), la gestione delle conoscenze o il trattamento delle informazioni risultanti da detti dati, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono;

    Motivazione

    Un sistema di IA è costituito da una combinazione di componenti tecnici che collegano dati, algoritmi e potenza di calcolo a pratiche sociali, alla società, all'identità e alla cultura. La definizione di tale insieme socio-tecnico dinamico dovrebbe pertanto, con il passar del tempo, poter rispondere alle esigenze future ed essere aggiornata regolarmente al fine di rispecchiare con precisione il crescente impatto sociale dell'IA, individuando nel contempo le sfide e le opportunità in rapida evoluzione legate a questa tecnologia, incluso il collegamento tra gestione delle conoscenze e IA. In tale contesto, anche un algoritmo sviluppato da un altro algoritmo dovrebbe essere soggetto alle disposizioni del regolamento in esame.

    Emendamento 17

    Articolo 5, paragrafo 1

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    Sono vietate le pratiche di intelligenza artificiale seguenti:

    Sono vietate le pratiche di intelligenza artificiale seguenti:

    a)

    l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole al fine di distorcerne materialmente il comportamento in un modo che provochi o possa provocare a tale persona o a un'altra persona un danno fisico o psicologico;

    a)

    l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che utilizza tecniche subliminali che agiscono senza che una persona ne sia consapevole al fine di distorcerne materialmente il comportamento in un modo che provochi o possa provocare a tale persona o a un'altra persona un danno fisico o psicologico , violi o sia probabile che violi i diritti fondamentali di un'altra persona o di un gruppo di persone, anche per quanto riguarda la loro salute e la loro incolumità fisica o psicologica, causi o sia probabile che causi un pregiudizio ai consumatori — quali perdite finanziarie o discriminazione economica —, o comprometta o sia probabile che comprometta la democrazia e lo Stato di diritto ;

    b)

    l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che sfrutta le vulnerabilità di uno specifico gruppo di persone, dovute all'età o alla disabilità fisica o mentale, al fine di distorcere materialmente il comportamento di una persona che appartiene a tale gruppo in un modo che provochi o possa provocare a tale persona o a un'altra persona un danno fisico o psicologico;

    b)

    l'immissione sul mercato, la messa in servizio o l'uso di un sistema di IA che sfrutta le vulnerabilità di uno specifico gruppo di persone, dovute all'età o alla disabilità fisica o mentale, al fine di distorcere materialmente il comportamento di una persona che appartiene a tale gruppo in un modo che provochi o possa provocare a tale persona o a un'altra persona un danno fisico o psicologico;

    c)

    l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA da parte delle autorità pubbliche o per loro conto ai fini della valutazione o della classificazione dell'affidabilità delle persone fisiche per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note o previste, in cui il punteggio sociale così ottenuto comporti il verificarsi di uno o di entrambi i seguenti scenari:

    i)

    un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di interi gruppi di persone fisiche in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti;

    ii)

    un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di interi gruppi di persone fisiche che sia ingiustificato o sproporzionato rispetto al loro comportamento sociale o alla sua gravità;

    c)

    l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA da parte delle autorità pubbliche o per loro conto ai fini della valutazione o della classificazione dell'affidabilità delle persone fisiche o di gruppi di persone per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note o previste , che determinino l'attribuzione di un punteggio sociale basato sull'IA per finalità generali ;

    d)

    l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto, a meno che e nella misura in cui tale uso sia strettamente necessario per uno dei seguenti obiettivi:

    i)

    la ricerca mirata di potenziali vittime specifiche di reato, compresi i minori scomparsi;

    ii)

    la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l'incolumità fisica delle persone fisiche o di un attacco terroristico;

    iii)

    il rilevamento, la localizzazione, l'identificazione o l'azione penale nei confronti di un autore o un sospettato di un reato di cui all'articolo 2, paragrafo 2, della decisione quadro 2002/584/GAI del Consiglio ([62]), punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno tre anni, come stabilito dalla legge di tale Stato membro.

    d)

    l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA da parte delle autorità pubbliche o per loro conto, applicando un punteggio sociale basato sull'IA senza sorveglianza umana per finalità specifiche, ossia in contesti sociali collegati ai contesti in cui i dati sono stati originariamente generati o raccolti, ai fini della valutazione o della classificazione dell'affidabilità delle persone fisiche o di gruppi di persone per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note o previste, con l'attribuzione del punteggio sociale che porti a un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di interi gruppi di persone fisiche che sia ingiustificato o sproporzionato rispetto al loro comportamento sociale o alla sua gravità;

     

    e )

    l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto, a meno che e nella misura in cui tale uso sia strettamente necessario per uno dei seguenti obiettivi:

    i)

    la ricerca mirata di potenziali vittime specifiche di reato, compresi i minori scomparsi;

    ii)

    la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l'incolumità fisica delle persone fisiche o di un attacco terroristico;

    iii)

    il rilevamento, la localizzazione, l'identificazione o l'azione penale nei confronti di un autore o un sospettato di un reato di cui all'articolo 2, paragrafo 2, della decisione quadro 2002/584/GAI del Consiglio ([62]), punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno tre anni, come stabilito dalla legge di tale Stato membro.

    Motivazione

    In genere le tecniche subliminali possono pregiudicare la libertà o i diritti umani e, di conseguenza, compromettere il funzionamento dello Stato di diritto democratico. Al tempo stesso, l'intelligenza artificiale può minare o indebolire i diritti dei consumatori. Le aggiunte proposte intendono chiarire questo punto.

    Per quanto riguarda il punteggio o valutazione sociale da parte delle autorità pubbliche o per loro conto, tale punteggio o valutazione dovrebbe essere vietato/a se viene realizzato/a per finalità generali, tenuto conto dei pericoli insiti in tali pratiche, come spiegato nel considerando 17. La generazione o la raccolta di dati per finalità specifiche dovrebbe essere consentita unicamente se realizzata con una sorveglianza umana e a condizione che non leda il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia.

    Emendamento 18

    Articolo 5, paragrafo 4

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    Uno Stato membro può decidere di prevedere la possibilità di autorizzare in tutto o in parte l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto, entro i limiti e alle condizioni di cui al paragrafo 1, lettera d), e ai paragrafi 2 e 3. Tale Stato membro stabilisce nel proprio diritto nazionale le necessarie regole dettagliate per la richiesta, il rilascio, l'esercizio delle autorizzazioni di cui al paragrafo 3, nonché per le attività di controllo ad esse relative. Tali regole specificano inoltre per quali degli obiettivi elencati al paragrafo 1, lettera d), compresi i reati di cui al punto iii), le autorità competenti possono essere autorizzate ad utilizzare tali sistemi a fini di attività di contrasto.

    Uno Stato membro può decidere di prevedere la possibilità di autorizzare in tutto o in parte l'uso di sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto, entro i limiti e alle condizioni di cui al paragrafo 1, lettera d), e ai paragrafi 2 e 3. Tale Stato membro stabilisce nel proprio diritto nazionale le necessarie regole dettagliate per la richiesta, il rilascio, l'esercizio delle autorizzazioni di cui al paragrafo 3, nonché per le attività di controllo ad esse relative. Tali regole specificano inoltre per quali degli obiettivi elencati al paragrafo 1, lettera d), compresi i reati di cui al punto iii), le autorità competenti possono essere autorizzate ad utilizzare tali sistemi a fini di attività di contrasto. Dette regole stabiliscono inoltre le modalità di informazione e di consultazione degli enti locali e regionali interessati. Tale consultazione deve aver luogo prima dell'uso eccezionale dei sistemi in questione negli spazi pubblici. In situazioni di emergenza in cui non è ragionevole attendersi lo svolgimento di una consultazione preliminare, l'ente locale o regionale interessato deve essere immediatamente informato dell'installazione del sistema di IA in questione.

    Motivazione

    La responsabilità politica e amministrativa della gestione e della vigilanza degli spazi pubblici spetta agli enti locali e regionali, i quali dovrebbero pertanto avere voce in capitolo prima dell'installazione di tali sistemi di IA ed essere debitamente informati dell'uso eccezionale di sistemi di IA a fini di attività di contrasto.

    In situazioni di emergenza in cui non è ragionevole attendersi lo svolgimento di una consultazione preliminare, l'ente locale o regionale interessato deve essere immediatamente informato.

    Emendamento 19

    Articolo 13

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    Articolo 13  — Trasparenza e fornitura di informazioni agli utenti

    Articolo 13 bis — Trasparenza e fornitura di informazioni agli utenti

    1.   I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l'output del sistema e utilizzarlo adeguatamente. Sono garantiti un tipo e un livello di trasparenza adeguati, che consentano di conseguire il rispetto dei pertinenti obblighi dell'utente e del fornitore di cui al capo 3 del presente titolo.

    1.   I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l'output del sistema e utilizzarlo adeguatamente. Sono garantiti un tipo e un livello di trasparenza e di spiegazione comprensibile adeguati, che consentano di conseguire il rispetto dei pertinenti obblighi dell'utente e del fornitore di cui al capo 3 del presente titolo. La spiegazione deve essere fornita come minimo nella lingua del paese in cui è installato il sistema di IA in questione.

    2.   I sistemi di IA ad alto rischio sono accompagnati da istruzioni per l'uso in un formato digitale o non digitale appropriato, che comprendono informazioni concise, complete, corrette e chiare che siano pertinenti, accessibili e comprensibili per gli utenti.

    2.   I sistemi di IA ad alto rischio sono accompagnati da istruzioni per l'uso pubblico, comprensibili e accessibili a tutti, in un formato digitale o non digitale appropriato, che comprendono informazioni concise, complete, corrette e chiare che siano pertinenti, accessibili e comprensibili per gli utenti.

    3.   Le informazioni di cui al paragrafo 2 specificano:

    3.   Le informazioni di cui al paragrafo 2 specificano:

    a)

    l'identità e i dati di contatto del fornitore e, ove applicabile, del suo rappresentante autorizzato;

    a)

    l'identità e i dati di contatto del fornitore e, ove applicabile, del suo rappresentante autorizzato;

    b)

    le caratteristiche, le capacità e i limiti delle prestazioni del sistema di IA ad alto rischio, tra cui:

    b)

    le caratteristiche, le capacità e i limiti delle prestazioni del sistema di IA ad alto rischio, tra cui:

     

    i)

    la finalità prevista;

     

    i)

    la finalità prevista;

     

    ii)

    il livello di accuratezza, robustezza e cibersicurezza di cui all'articolo 15 rispetto al quale il sistema di IA ad alto rischio è stato sottoposto a prova e convalidato e che ci si può attendere, e qualsiasi circostanza nota e prevedibile che possa avere un impatto sul livello atteso di accuratezza, robustezza e cibersicurezza;

     

    ii)

    il livello di accuratezza (misurato con la metrica appropriata per la valutazione dei modelli) , robustezza e cibersicurezza di cui all'articolo 15 rispetto al quale il sistema di IA ad alto rischio è stato sottoposto a prova e convalidato e che ci si può attendere, e qualsiasi circostanza nota e prevedibile che possa avere un impatto sul livello atteso di accuratezza, robustezza e cibersicurezza;

     

    iii)

    qualsiasi circostanza nota o prevedibile connessa all'uso del sistema di IA ad alto rischio in conformità alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, che possa comportare rischi per la salute e la sicurezza o per i diritti fondamentali;

     

    iii)

    qualsiasi circostanza nota o prevedibile connessa all'uso del sistema di IA ad alto rischio in conformità alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, che possa comportare rischi per la salute e la sicurezza o per i diritti fondamentali;

     

    iv)

    le sue prestazioni per quanto riguarda le persone o i gruppi di persone sui quali il sistema è destinato a essere utilizzato;

     

    iv)

    le sue prestazioni per quanto riguarda le persone o i gruppi di persone sui quali il sistema è destinato a essere utilizzato;

     

    v)

    ove opportuno, le specifiche per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova, tenendo conto della finalità prevista del sistema di IA;

     

    v)

    ove opportuno, le specifiche per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova, tenendo conto della finalità prevista del sistema di IA;

    vi)

    i parametri utilizzati per regolare il modello e le misure adottate per evitare l'eccessivo adattamento ai dati di addestramento (overfitting) o l'adattamento insufficiente a tali dati;

    c)

    le eventuali modifiche apportate al sistema di IA ad alto rischio e alle sue prestazioni, che sono state predeterminate dal fornitore al momento della valutazione iniziale della conformità;

    c)

    le eventuali modifiche apportate al sistema di IA ad alto rischio e alle sue prestazioni, che sono state predeterminate dal fornitore al momento della valutazione iniziale della conformità;

    d)

    le misure di sorveglianza umana di cui all'articolo 14, comprese le misure tecniche poste in essere per facilitare l'interpretazione degli output dei sistemi di IA da parte degli utenti;

    d)

    le misure di sorveglianza umana di cui all'articolo 14, comprese le misure tecniche poste in essere per facilitare l'interpretazione degli output dei sistemi di IA da parte degli utenti;

    e)

    la durata prevista del sistema di IA ad alto rischio e tutte le misure di manutenzione e cura necessarie per garantire il corretto funzionamento di tale sistema, anche per quanto riguarda gli aggiornamenti software.

    e)

    la durata prevista del sistema di IA ad alto rischio e tutte le misure di manutenzione e cura necessarie per garantire il corretto funzionamento di tale sistema, anche per quanto riguarda gli aggiornamenti software.

     

    Articolo 13 ter — Trasparenza e fornitura di informazioni agli interessati

    Le persone o i gruppi di persone che potrebbero essere assoggettati a un sistema di IA ad alto rischio ne vengono informati esplicitamente, in forma appropriata e comprensibile, con informazioni facilmente accessibili, e hanno accesso a informazioni esplicite, facilmente reperibili e pubbliche sul fatto che sono assoggettati a tali sistemi.

    Motivazione

    Allo scopo di rafforzare l'ecosistema di fiducia, le istruzioni per l'uso di sistemi di IA ad alto rischio dovrebbero essere messe a disposizione del pubblico, e dovrebbero essere redatte in maniera comprensibile, nella lingua del paese in cui è installato il sistema di IA in questione.

    A fini di trasparenza e di comprensibilità degli algoritmi, deve essere possibile spiegare quali parametri sono stati utilizzati per regolare il modello e quali misure sono state adottate per evitare l'eccessivo adattamento ai dati di addestramento (overfitting) o l'adattamento insufficiente a tali dati.

    Il nuovo articolo 13 ter proposto disciplina l'obbligo di trasparenza e di informazione per le persone che interagiscono con i sistemi di IA o che potrebbero essere interessate dall'applicazione di un sistema di IA.

    Emendamento 20

    Articolo 14, paragrafo 4

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    Le misure di cui al paragrafo 3 consentono le seguenti azioni, a seconda delle circostanze, alle persone alle quali è affidata la sorveglianza umana:

    Le misure di cui al paragrafo 3 consentono le seguenti azioni, a seconda delle circostanze, alle persone alle quali è affidata la sorveglianza umana:

    a)

    comprendere appieno le capacità e i limiti del sistema di IA ad alto rischio ed essere in grado di monitorarne debitamente il funzionamento, in modo che i segnali di anomalie, disfunzioni e prestazioni inattese possano essere individuati e affrontati quanto prima;

    a)

    comprendere appieno le capacità e i limiti del sistema di IA ad alto rischio ed essere in grado di monitorarne debitamente il funzionamento, in modo che i segnali di anomalie, disfunzioni e prestazioni inattese possano essere individuati e affrontati quanto prima;

    b)

    restare consapevole della possibile tendenza a fare automaticamente affidamento o a fare eccessivo affidamento sull'output prodotto da un sistema di IA ad alto rischio («distorsione dell'automazione»), in particolare per i sistemi di IA ad alto rischio utilizzati per fornire informazioni o raccomandazioni per le decisioni che devono essere prese da persone fisiche;

    b)

    restare consapevole della possibile tendenza a fare automaticamente affidamento o a fare eccessivo affidamento sull'output prodotto da un sistema di IA ad alto rischio («distorsione dell'automazione») o da qualsiasi altra distorsione , in particolare per i sistemi di IA ad alto rischio utilizzati per fornire informazioni o raccomandazioni per le decisioni che devono essere prese da persone fisiche;

    c)

    essere in grado di interpretare correttamente l'output del sistema di IA ad alto rischio, tenendo conto in particolare delle caratteristiche del sistema e degli strumenti e dei metodi di interpretazione disponibili;

    c)

    essere in grado di interpretare correttamente l'output del sistema di IA ad alto rischio, tenendo conto in particolare delle caratteristiche del sistema e degli strumenti e dei metodi di interpretazione disponibili;

    d)

    essere in grado di decidere, in qualsiasi situazione particolare, di non usare il sistema di IA ad alto rischio o altrimenti di ignorare, annullare o ribaltare l'output del sistema di IA ad alto rischio;

    d)

    essere in grado di decidere, in qualsiasi situazione particolare, di non usare il sistema di IA ad alto rischio o altrimenti di ignorare, annullare o ribaltare l'output del sistema di IA ad alto rischio;

    e)

    essere in grado di intervenire sul funzionamento del sistema di IA ad alto rischio o di interrompere il sistema mediante un pulsante di «arresto» o una procedura analoga.

    e)

    essere in grado di intervenire sul funzionamento del sistema di IA ad alto rischio o di interrompere il sistema mediante un pulsante di «arresto» o una procedura analoga.

    Motivazione

    Esistono diversi tipi di distorsioni che possono risultare problematici. Tra gli esempi, si possono citare la distorsione dello sviluppatore o dell'utente stesso («distorsione sociale»), la distorsione inerente alla questione se il sistema di IA installato offra una soluzione adeguata al problema («distorsione tecnologica») e i diversi tipi di distorsione statistica.

    Emendamento 21

    Articolo 14 — nuovo paragrafo dopo il paragrafo 5

    Testo proposto dalla Commissione europea

    Emendamento del CdR

     

    Qualsiasi decisione adottata dai sistemi di IA di cui all'allegato III, punto 5, lettere a) e b), forma oggetto di un intervento umano ed è fondata su un processo decisionale rigoroso. È opportuno garantire un contatto umano rispetto a tali decisioni.

    Motivazione

    L'articolo 14 tratta esclusivamente della sorveglianza umana dei sistemi di IA ad alto rischio. Per quanto riguarda le decisioni adottate dalle autorità pubbliche, è importante sottolineare che occorre garantire l'intervento e il contatto umani e il rispetto delle procedure.

    Emendamento 22

    Articolo 17, paragrafo 1 — aggiungere una nuova lettera n) e una nuova lettera o) dopo la lettera m)

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    I fornitori di sistemi di IA ad alto rischio istituiscono di un sistema di gestione della qualità che garantisce la conformità al presente regolamento. Tale sistema è documentato in modo sistematico e ordinato sotto forma di politiche, procedure e istruzioni scritte e comprende almeno i seguenti aspetti:

    I fornitori di sistemi di IA ad alto rischio istituiscono di un sistema di gestione della qualità che garantisce la conformità al presente regolamento. Tale sistema è documentato in modo sistematico e ordinato sotto forma di politiche, procedure e istruzioni scritte e comprende almeno i seguenti aspetti:

    a)

    una strategia per la conformità normativa, compresa la conformità alle procedure di valutazione della conformità e alle procedure per la gestione delle modifiche dei sistemi di IA ad alto rischio;

    a)

    una strategia per la conformità normativa, compresa la conformità alle procedure di valutazione della conformità e alle procedure per la gestione delle modifiche dei sistemi di IA ad alto rischio;

    b)

    le tecniche, le procedure e gli interventi sistematici da utilizzare per la progettazione, il controllo della progettazione e la verifica della progettazione del sistema di IA ad alto rischio;

    b)

    le tecniche, le procedure e gli interventi sistematici da utilizzare per la progettazione, il controllo della progettazione e la verifica della progettazione del sistema di IA ad alto rischio;

    c)

    le tecniche, le procedure e gli interventi sistematici da utilizzare per lo sviluppo e per il controllo e la garanzia della qualità del sistema di IA ad alto rischio;

    c)

    le tecniche, le procedure e gli interventi sistematici da utilizzare per lo sviluppo e per il controllo e la garanzia della qualità del sistema di IA ad alto rischio;

    d)

    le procedure di esame, prova e convalida da effettuare prima, durante e dopo lo sviluppo del sistema di IA ad alto rischio e la frequenza con cui devono essere effettuate;

    d)

    le procedure di esame, prova e convalida da effettuare prima, durante e dopo lo sviluppo del sistema di IA ad alto rischio e la frequenza con cui devono essere effettuate;

    e)

    le specifiche tecniche, comprese le norme, da applicare e, qualora le pertinenti norme armonizzate non siano applicate integralmente, i mezzi da usare per garantire che il sistema di IA ad alto rischio sia conforme ai requisiti di cui al capo 2 del presente titolo;

    e)

    le specifiche tecniche, comprese le norme, da applicare e, qualora le pertinenti norme armonizzate non siano applicate integralmente, i mezzi da usare per garantire che il sistema di IA ad alto rischio sia conforme ai requisiti di cui al capo 2 del presente titolo;

    f)

    i sistemi e le procedure per la gestione dei dati, compresa la raccolta, l'analisi, l'etichettatura, l'archiviazione, la filtrazione, l'estrazione, l'aggregazione, la conservazione dei dati e qualsiasi altra operazione riguardante i dati effettuata prima e ai fini dell'immissione sul mercato o della messa in servizio di sistemi di IA ad alto rischio;

    f)

    i sistemi e le procedure per la gestione dei dati, compresa la raccolta, l'analisi, l'etichettatura, l'archiviazione, la filtrazione, l'estrazione, l'aggregazione, la conservazione dei dati e qualsiasi altra operazione riguardante i dati effettuata prima e ai fini dell'immissione sul mercato o della messa in servizio di sistemi di IA ad alto rischio;

    g)

    il sistema di gestione dei rischi di cui all'articolo 9;

    g)

    il sistema di gestione dei rischi di cui all'articolo 9;

    h)

    la predisposizione, l'attuazione e la manutenzione di un sistema di monitoraggio successivo all'immissione sul mercato a norma dell'articolo 61;

    h)

    la predisposizione, l'attuazione e la manutenzione di un sistema di monitoraggio successivo all'immissione sul mercato a norma dell'articolo 61;

    i)

    le procedure relative alla segnalazione di incidenti gravi e di malfunzionamenti a norma dell'articolo 62;

    i)

    le procedure relative alla segnalazione di incidenti gravi e di malfunzionamenti a norma dell'articolo 62;

    j)

    la gestione della comunicazione con le autorità nazionali competenti, le autorità competenti, comprese quelle settoriali, che forniscono o sostengono l'accesso ai dati, gli organismi notificati, altri operatori, clienti o altre parti interessate;

    j)

    la gestione della comunicazione con le autorità nazionali competenti, le autorità competenti, comprese quelle settoriali, che forniscono o sostengono l'accesso ai dati, gli organismi notificati, altri operatori, clienti o altre parti interessate;

    k)

    i sistemi e le procedure per la conservazione delle registrazioni e di tutte le informazioni e la documentazione pertinenti;

    k)

    i sistemi e le procedure per la conservazione delle registrazioni e di tutte le informazioni e la documentazione pertinenti;

    l)

    la gestione delle risorse, comprese le misure relative alla sicurezza dell'approvvigionamento;

    l)

    la gestione delle risorse, comprese le misure relative alla sicurezza dell'approvvigionamento;

    m)

    un quadro di responsabilità che definisca le responsabilità della dirigenza e di altro personale per quanto riguarda tutti gli aspetti elencati nel presente paragrafo.

    m)

    un quadro di responsabilità che definisca le responsabilità della dirigenza e di altro personale per quanto riguarda tutti gli aspetti elencati nel presente paragrafo;

     

    n)

    misure volte a prevenire discriminazioni ingiustificate fondate sul genere, l'origine etnica, la religione o le convinzioni personali, la disabilità, l'età, l'orientamento sessuale o qualsiasi altro motivo;

    o)

    una spiegazione di come siano state prese in considerazione questioni etiche nello sviluppo del sistema di IA ad alto rischio.

    Motivazione

    Le due lettere che si propone di aggiungere sottolineano che l'inclusività e la lotta alle discriminazioni ingiustificate dovrebbero essere componenti importanti del sistema di gestione della qualità.

    Il sistema deve rispettare i valori etici che un utente del sistema di IA desidera associare a quest'ultimo o che il fornitore di detto sistema può ragionevolmente attendersi che possano essere associati a un sistema di IA ad alto rischio. Il fornitore dovrebbe essere in grado di spiegare in che modo ha tenuto conto di tali valori etici.

    Emendamento 23

    Articolo 19, paragrafo 1

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    I fornitori dei sistemi di IA ad alto rischio garantiscono che il sistema di IA ad alto rischio sia sottoposto alla pertinente procedura di valutazione della conformità di cui all'articolo 43 prima della sua immissione sul mercato o messa in servizio. Se in seguito a tale valutazione i sistemi di IA risultano conformi ai requisiti di cui al capo 2 del presente titolo, i fornitori redigono una dichiarazione di conformità UE a norma dell'articolo 48 e appongono la marcatura CE di conformità a norma dell'articolo 49.

    I fornitori dei sistemi di IA ad alto rischio garantiscono che il sistema di IA ad alto rischio sia sottoposto alla pertinente procedura di valutazione della conformità di cui all'articolo 43 prima della sua immissione sul mercato o messa in servizio. Se in seguito a tale valutazione i sistemi di IA risultano conformi ai requisiti di cui al capo 2 del presente titolo, i fornitori redigono una dichiarazione di conformità UE a norma dell'articolo 48 e appongono la marcatura CE di conformità a norma dell'articolo 49. I fornitori dei sistemi di IA ad alto rischio pubblicano la dichiarazione di conformità UE e una sintesi della valutazione della conformità su un sito o una pubblicazione accessibile al pubblico.

    Motivazione

    Allo scopo di rafforzare l'ecosistema di fiducia nei sistemi di IA, i fornitori di sistemi di IA ad alto rischio dovrebbero dar prova di trasparenza. Il pubblico in generale dovrebbe quindi essere in grado di accertarsi che la valutazione della conformità sia stata determinata correttamente secondo le disposizioni del regolamento.

    Emendamento 24

    Articolo 29, nuovo paragrafo dopo il paragrafo 6

    Testo proposto dalla Commissione europea

    Emendamento del CdR

     

    Gli utenti di sistemi di IA ad alto rischio hanno l'obbligo di effettuare una valutazione etica prima che il sistema di IA ad alto rischio sia messo in servizio. Essi devono essere in grado di spiegare quale potrebbe essere l'impatto derivante dall'installazione di tale tecnologia sugli individui e sulla società. Precisano per quali finalità viene installato il sistema di IA in questione, quali sono i valori fondamentali e in che modo sono stati determinati nonché se il sistema tiene conto o meno di tali valori. Essi valutano l'impatto reale del sistema di IA sugli individui e sulla società per l'intera durata del ciclo di vita del sistema stesso.

    Motivazione

    Il concetto di «etica» è di portata assai vasta. Esistono molti modi di praticare l'etica nel settore della tecnologia, sia in termini di giustificazioni teoriche che di metodologie, strumenti e valori di progettazione concreti. I valori sono elementi che talune persone o gruppi di persone ritengono importanti, e possono essere preferibilmente concreti o, invece, più concettuali. È importante salvaguardare lo spettro dei valori morali che possono essere attuati e realizzare una valutazione permanente del ciclo di vita del sistema di IA in questione.

    Emendamento 25

    Articolo 52, paragrafo 1

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    I fornitori garantiscono che i sistemi di IA destinati a interagire con le persone fisiche siano progettati e sviluppati in modo tale che le persone fisiche siano informate del fatto di stare interagendo con un sistema di IA , a meno che ciò non risulti evidente dalle circostanze e dal contesto di utilizzo . Tale obbligo non si applica ai sistemi di IA autorizzati dalla legge per accertare, prevenire, indagare e perseguire reati, a meno che tali sistemi non siano a disposizione del pubblico per segnalare un reato.

    I fornitori garantiscono che i sistemi di IA destinati a interagire con le persone fisiche siano progettati e sviluppati in modo tale che le persone fisiche siano informate del fatto di stare interagendo con un sistema di IA. Tale obbligo non si applica ai sistemi di IA autorizzati dalla legge per accertare, prevenire, indagare e perseguire reati, a meno che tali sistemi non siano a disposizione del pubblico per segnalare un reato. Il ventaglio di opzioni e lo status giuridico delle persone fisiche che interagiscono con i sistemi di IA non devono essere limitati da tale interazione.

    Motivazione

    Quando degli artefatti tecnologici sono utilizzati come mezzo di interazione con persone fisiche, può esservi il rischio che le scelte effettuate dalle persone fisiche che interagiscono con tali artefatti siano limitate. Le persone fisiche dovrebbero essere sempre debitamente informate ogniqualvolta si trovino a interagire con sistemi di IA e ciò non dovrebbe dipendere dall'interpretazione di una particolare situazione. I loro diritti dovrebbero essere garantiti in qualsiasi momento nelle interazioni con i sistemi di IA.

    Emendamento 26

    Articolo 57, paragrafo 1

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    Il comitato è composto dalle autorità nazionali di controllo, rappresentate dal capo di tale autorità o da un alto funzionario di livello equivalente, e dal Garante europeo della protezione dei dati. Altre autorità nazionali possono essere invitate alle riunioni, qualora le questioni discusse siano di loro pertinenza.

    Il comitato è composto dalle autorità nazionali di controllo, rappresentate dal capo di tale autorità o da un alto funzionario di livello equivalente, e dal Garante europeo della protezione dei dati. Altre autorità nazionali, regionali e locali possono essere invitate alle riunioni, qualora le questioni discusse siano di loro pertinenza.

    Motivazione

    Gli enti locali e regionali dovrebbero poter partecipare al monitoraggio dei sistemi di IA e riferire in merito all'attuazione di tali sistemi sul campo.

    Emendamento 27

    Articolo 58

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    Nel fornire consulenza e assistenza alla Commissione nel contesto dell'articolo 56, paragrafo 2, il Comitato in particolare:

    Nel fornire consulenza e assistenza alla Commissione nel contesto dell'articolo 56, paragrafo 2, il Comitato in particolare:

    a)

    raccoglie e condivide conoscenze e migliori pratiche tra gli Stati membri;

    a)

    raccoglie e condivide conoscenze e migliori pratiche tra gli Stati membri , gli enti regionali e gli enti locali ;

    b)

    contribuisce all'uniformità delle pratiche amministrative negli Stati membri, anche per il funzionamento degli spazi di sperimentazione normativi di cui all'articolo 53;

    b)

    contribuisce all'uniformità delle pratiche amministrative negli Stati membri, anche per il funzionamento degli spazi di sperimentazione normativi di cui all'articolo 53;

    c)

    formula pareri, raccomandazioni o contributi scritti su questioni relative all'attuazione del presente regolamento, in particolare

    c)

    formula pareri, raccomandazioni o contributi scritti su questioni relative all'attuazione del presente regolamento, in particolare

     

    i)

    sulle specifiche tecniche o sulle norme esistenti relative ai requisiti di cui al titolo III, capo 2,

    ii)

    sull'uso delle norme armonizzate o delle specifiche comuni di cui agli articoli 40 e 41,

    iii)

    sulla preparazione di documenti di orientamento, compresi gli orientamenti per stabilire le sanzioni amministrative pecuniarie di cui all'articolo 71.

     

    i)

    sulle specifiche tecniche o sulle norme esistenti relative ai requisiti di cui al titolo III, capo 2,

    ii)

    sull'uso delle norme armonizzate o delle specifiche comuni di cui agli articoli 40 e 41,

    iii)

    sulla preparazione di documenti di orientamento, compresi gli orientamenti per stabilire le sanzioni amministrative pecuniarie di cui all'articolo 71.

    Motivazione

    Gli enti locali e regionali sono il livello di governo più vicino alle popolazioni e alle economie locali, e dovrebbero pertanto ricoprire esplicitamente una posizione di primo piano quando si tratta di condividere le loro conoscenze.

    Emendamento 28

    Articolo 59, paragrafo 1

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    Ciascuno Stato membro istituisce o designa autorità nazionali competenti al fine di garantire l'applicazione e l'attuazione del presente regolamento. Le autorità nazionali competenti sono organizzate e gestite in modo che sia salvaguardata l'obiettività e l'imparzialità dei loro compiti e attività.

    Ciascuno Stato membro istituisce o designa autorità nazionali competenti al fine di garantire l'applicazione e l'attuazione del presente regolamento. Le autorità nazionali competenti sono organizzate e gestite in modo che sia salvaguardata l'obiettività e l'imparzialità dei loro compiti e attività. Qualora lo Stato membro in questione lo ritenga opportuno, agli enti locali e regionali è conferito il potere di svolgere compiti di vigilanza o di attuazione.

    Motivazione

    Ai fini dell'applicabilità del regolamento e delle relative disposizioni in materia di vigilanza e di attuazione, uno Stato membro dovrebbe avere la facoltà di affidare agli enti locali e regionali, laddove necessario e per quanto possibile, compiti di vigilanza o di attuazione. In tale contesto, gli enti locali e regionali devono ricevere sostegno e formazione per avere pieni poteri di svolgere compiti di vigilanza o di attuazione.

    Emendamento 29

    Articolo 69, paragrafo 3

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    I codici di condotta possono essere elaborati da singoli fornitori di sistemi di IA o da organizzazioni che li rappresentano o da entrambi, anche con la partecipazione degli utenti e di tutti gli altri portatori di interessi e delle loro organizzazioni rappresentative. I codici di condotta possono riguardare uno o più sistemi di IA tenendo conto della similarità della finalità prevista dei sistemi pertinenti.

    I codici di condotta possono essere elaborati da autorità nazionali, regionali o locali, da singoli fornitori di sistemi di IA o da organizzazioni che li rappresentano o da entrambi, anche con la partecipazione degli utenti e di tutti gli altri portatori di interessi e delle loro organizzazioni rappresentative. I codici di condotta possono riguardare uno o più sistemi di IA tenendo conto della similarità della finalità prevista dei sistemi pertinenti.

    Motivazione

    Le autorità nazionali, locali e regionali dovrebbero disporre della competenza giuridica per elaborare codici di condotta per i sistemi di IA che sviluppano o che utilizzano.

    Emendamento 30

    Allegato I — Tecniche e approcci di intelligenza artificiale di cui all'articolo 3, punto 1)

    Testo proposto dalla Commissione europea

    Emendamento del CdR

     

    Allo stato attuale delle conoscenze scientifiche, l'IA comprende le tecniche e approcci seguenti:

    a)

    Approcci di apprendimento automatico, compresi l'apprendimento supervisionato, l'apprendimento non supervisionato e l'apprendimento per rinforzo, con utilizzo di un'ampia gamma di metodi, tra cui l'apprendimento profondo (deep learning);

    a)

    Approcci di apprendimento automatico, compresi l'apprendimento supervisionato, l'apprendimento non supervisionato e l'apprendimento per rinforzo, con utilizzo di un'ampia gamma di metodi, tra cui l'apprendimento profondo (deep learning);

    b)

    approcci basati sulla logica e approcci basati sulla conoscenza, compresi la rappresentazione della conoscenza, la programmazione induttiva (logica), le basi di conoscenze, i motori inferenziali e deduttivi, il ragionamento (simbolico) e i sistemi esperti;

    b)

    approcci basati sulla logica e approcci basati sulla conoscenza, compresi la rappresentazione della conoscenza, la programmazione induttiva (logica), le basi di conoscenze, i motori inferenziali e deduttivi, il ragionamento (simbolico) e i sistemi esperti;

    c)

    approcci statistici, stima bayesiana, metodi di ricerca e ottimizzazione;

    c)

    approcci statistici, stima bayesiana, metodi di ricerca e ottimizzazione;

    Motivazione

    La definizione e l'elenco delle tecniche di IA dovrebbero poter rispondere alle esigenze future. L'elenco delle tecniche e degli approcci specifici utilizzati per lo sviluppo di sistemi di IA non dovrebbe essere esaustivo e deve essere chiaramente basato sullo stato attuale delle conoscenze scientifiche.

    Emendamento 31

    Allegato III, punti da 1) a 5)

    Testo proposto dalla Commissione europea

    Emendamento del CdR

    I sistemi di IA ad alto rischio a norma dell'articolo 6, paragrafo 2, sono i sistemi di IA elencati in uno dei settori indicati di seguito.

    I sistemi di IA ad alto rischio a norma dell'articolo 6, paragrafo 2, sono i sistemi di IA elencati in uno dei settori indicati di seguito.

    1.

    Identificazione e categorizzazione biometrica delle persone fisiche:

    1.

    Identificazione e categorizzazione biometrica delle persone fisiche:

    a)

    i sistemi di IA destinati a essere utilizzati per l'identificazione biometrica remota «in tempo reale» e «a posteriori» delle persone fisiche.

    a)

    i sistemi di IA destinati a essere utilizzati per l'identificazione biometrica remota «in tempo reale» e «a posteriori» delle persone fisiche.

    2.

    Gestione e funzionamento delle infrastrutture critiche:

    2.

    Gestione e funzionamento delle infrastrutture critiche:

    a)

    i sistemi di IA destinati a essere utilizzati come componenti di sicurezza nella gestione del traffico stradale e nella fornitura di acqua, gas, riscaldamento ed elettricità.

    a)

    i sistemi di IA destinati a essere utilizzati come componenti di sicurezza nella gestione del traffico stradale e nella fornitura di acqua, gas, riscaldamento ed elettricità , come pure nelle infrastrutture di telecomunicazione, della rete di distribuzione idrica e di internet .

    3.

    Istruzione e formazione professionale:

    3.

    Istruzione e formazione professionale:

    a)

    i sistemi di IA destinati a essere utilizzati al fine di determinare l'accesso o l'assegnazione di persone fisiche agli istituti di istruzione e formazione professionale;

    a)

    i sistemi di IA destinati a essere utilizzati al fine di determinare l'accesso o l'assegnazione di persone fisiche agli istituti di istruzione e formazione professionale;

    b)

    i sistemi di IA destinati a essere utilizzati per valutare gli studenti negli istituti di istruzione e formazione professionale e per valutare i partecipanti alle prove solitamente richieste per l'ammissione agli istituti di istruzione.

    b)

    i sistemi di IA destinati a essere utilizzati per valutare gli studenti negli istituti di istruzione e formazione professionale e per valutare i partecipanti alle prove solitamente richieste per l'ammissione agli istituti di istruzione.

    4.

    Occupazione, gestione dei lavoratori e accesso al lavoro autonomo:

    4.

    Occupazione, gestione dei lavoratori e accesso al lavoro autonomo:

    a)

    i sistemi di IA destinati a essere utilizzati per l'assunzione o la selezione di persone fisiche, in particolare per pubblicizzare i posti vacanti, vagliare o filtrare le candidature, valutare i candidati nel corso di colloqui o prove;

    a)

    i sistemi di IA destinati a essere utilizzati per l'assunzione o la selezione di persone fisiche, in particolare per pubblicizzare i posti vacanti, vagliare o filtrare le candidature, valutare i candidati nel corso di colloqui o prove;

    b)

    l'IA destinata a essere utilizzata per adottare decisioni in materia di promozione e cessazione dei rapporti contrattuali di lavoro, per l'assegnazione dei compiti e per il monitoraggio e la valutazione delle prestazioni e del comportamento delle persone nell'ambito di tali rapporti di lavoro.

    b)

    l'IA destinata a essere utilizzata per adottare decisioni in materia di promozione e cessazione dei rapporti contrattuali di lavoro, per l'assegnazione dei compiti e per il monitoraggio e la valutazione delle prestazioni e del comportamento delle persone nell'ambito di tali rapporti di lavoro.

    5.

    Accesso a prestazioni e servizi pubblici e a servizi privati essenziali e fruizione degli stessi:

    5.

    Accesso a prestazioni e servizi pubblici e a servizi privati essenziali e fruizione degli stessi:

    a)

    i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche o per conto di autorità pubbliche per valutare l'ammissibilità delle persone fisiche alle prestazioni e ai servizi di assistenza pubblica, nonché per concedere, ridurre, revocare o recuperare tali prestazioni e servizi;

    a)

    i sistemi di IA destinati a essere utilizzati dalle autorità pubbliche o per conto di autorità pubbliche per valutare e decidere l'ammissibilità delle persone fisiche alle prestazioni e ai servizi di assistenza pubblica, nonché per concedere, ridurre, revocare o recuperare tali prestazioni e servizi;

    b)

    i sistemi di IA destinati a essere utilizzati per valutare l'affidabilità creditizia delle persone fisiche o per stabilire il loro merito di credito, a eccezione dei sistemi di IA messi in servizio per uso proprio da fornitori di piccole dimensioni;

    b)

    i sistemi di IA destinati a essere utilizzati per determinare l'affidabilità creditizia delle persone fisiche o il loro merito di credito, a eccezione dei sistemi di IA messi in servizio per uso proprio da fornitori di piccole dimensioni;

    c)

    i sistemi di IA destinati a essere utilizzati per inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all'invio di tali servizi, compresi vigili del fuoco e assistenza medica.

    c)

    i sistemi di IA destinati a essere utilizzati per inviare servizi di emergenza di primo soccorso o per stabilire priorità in merito all'invio di tali servizi, compresi vigili del fuoco e assistenza medica.

    Motivazione

    Le infrastrutture di telecomunicazione, della rete di distribuzione idrica e di Internet sono parte integrante delle infrastrutture critiche.

    Classificare un sistema di IA come sistema ad alto rischio equivale a decidere se tale sistema possa rappresentare un rischio reale per i cittadini. La mera valutazione analitica e teorica dell'ammissibilità delle persone alle prestazioni e ai servizi forniti dalle autorità pubbliche non implica di per sé un rischio elevato. L'aggiunta nel testo del verbo «decidere» al verbo «valutare» sottolinea che tale rischio si manifesta effettivamente al momento dell'adozione di una decisione, in particolare per le persone interessate.

    II.   RACCOMANDAZIONI POLITICHE

    IL COMITATO EUROPEO DELLE REGIONI

    Un ecosistema di eccellenza

    1.

    sottolinea che l'ambizioso obiettivo della Commissione di fare dell'Unione europea un leader mondiale nello sviluppo responsabile e antropocentrico dell'intelligenza artificiale (IA) potrà essere realizzato soltanto se gli enti locali e regionali occuperanno una posizione di primo piano in tale processo. Gli enti territoriali sono nella posizione migliore per contribuire a creare un contesto favorevole all'aumento degli investimenti nell'IA negli anni a venire e per promuovere la fiducia in questa tecnologia;

    2.

    sottolinea che, oltre a coinvolgere gli enti locali e regionali, è importante fornire sostegno e formazione a questi enti per rafforzarne le competenze in materia, specialmente nella misura in cui potrebbero essere affidati loro compiti di vigilanza e di attuazione;

    3.

    osserva che l'UE metterà a disposizione dei fondi per lo sviluppo dell'IA, ma sottolinea la frammentazione dell'approccio dovuta alla diversità dei programmi, che aumenta il rischio di dispersione e di sovrapposizioni;

    4.

    invita pertanto la Commissione a creare e collegare tra loro spazi di dati comuni solidi e multiformi, che permettano di risolvere dei casi di utilizzo socioculturale grazie a dati sia pubblici che privati. Ciò richiede, in particolare, l'armonizzazione con le iniziative legislative adottate nel quadro della strategia europea in materia di dati;

    Un ecosistema di fiducia

    5.

    si rammarica che nella proposta di regolamento non si faccia riferimento agli enti locali e regionali, sebbene il quadro giuridico si applichi sia agli attori pubblici che a quelli privati;

    6.

    osserva, a questo proposito, che i sistemi di IA possono svolgere un ruolo importante nell'interazione degli enti locali e regionali con i cittadini e nella fornitura di servizi. Inoltre, i sistemi di IA possono, tra l'altro, migliorare l'efficienza del settore pubblico e aiutare gli enti locali e regionali a rispondere agli adeguamenti necessari a livello locale e regionale nel contesto delle transizioni verde e digitale. È quindi importante che l'esperienza acquisita dagli enti locali e regionali sia utilizzata attivamente nella revisione in corso del regolamento;

    7.

    chiede una definizione più precisa di «fornitore» e di «utente», in particolare nei contesti in cui imprese, istituti di ricerca, autorità pubbliche e cittadini sviluppino e sperimentino congiuntamente dei sistemi di IA in «laboratori viventi (Living Labs)». Si dovrebbe prestare la dovuta attenzione anche ai cittadini o ai consumatori interessati dalle decisioni basate sull'IA dei sistemi utilizzati dagli utenti professionali;

    8.

    insiste sulla necessità di svolgere una consultazione preliminare degli enti locali e regionali interessati nei casi in cui vengano utilizzati sistemi di IA per l'identificazione biometrica remota e «in tempo reale» di persone fisiche in spazi accessibili al pubblico a fini di attività di contrasto;

    9.

    accoglie con favore la consultazione pubblica lanciata dalla Commissione europea sull'adeguamento delle norme in materia di responsabilità civile alle sfide specifiche dell'era digitale e dell'intelligenza artificiale (1) e si attende che tale esercizio consenta di definire un quadro aggiornato volto a garantire ai consumatori il risarcimento dei danni causati da applicazioni di IA;

    10.

    si chiede perché mai i sistemi di IA utilizzati nei processi democratici come, ad esempio, le consultazioni elettorali non siano inclusi nell'elenco dei sistemi di IA ad alto rischio;

    11.

    chiede con forza che i sistemi di IA ad alto rischio debbano conformarsi, per le persone fisiche, agli stessi requisiti di trasparenza e di informazione che si applicano attualmente agli utenti;

    12.

    osserva che il ricorso a un punteggio o una valutazione sociale comporta rischi e conseguenze non trascurabili nel campo dei diritti umani;

    13.

    esprime forte scetticismo nei confronti dei due scenari descritti nella proposta di regolamento (2) per stabilire quando un punteggio sociale determini un trattamento pregiudizievole o sfavorevole di persone fisiche o di gruppi di persone fisiche, dato che è estremamente difficile stabilire quando sussistano circostanze simili. In tale contesto, sollecita una chiara formulazione di solide garanzie al fine di assicurare che non venga eluso il divieto delle pratiche di applicazione di un punteggio sociale;

    14.

    segnala che i considerando della proposta di regolamento trattano in dettaglio dei rischi cui sono esposte le persone fisiche in conseguenza della loro interazione con i sistemi di IA ad alto rischio, in particolare nel contesto dell'istruzione, della formazione, dell'occupazione, della gestione delle risorse umane, dell'accesso al lavoro autonomo o dell'accesso e del diritto a taluni servizi essenziali sia pubblici che privati;

    15.

    invita la Commissione a valutare in modo più approfondito la classificazione ad alto rischio dei sistemi di IA destinati a essere utilizzati dalle autorità pubbliche (3);

    16.

    auspica che un'autorità formuli, ex ante, un parere influente sull'interpretazione delle disposizioni del regolamento, anche per quanto riguarda il regolamento generale sulla protezione dei dati, poiché questo rafforzerà la certezza del diritto e ridurrà i costi di progettazione e di attuazione dei sistemi di IA;

    17.

    sottolinea a tal fine l'importanza della chiarezza nella formulazione del regolamento, che è fondamentale per creare un ecosistema di fiducia e per eliminare l'incertezza giuridica in merito allo sviluppo e all'utilizzo dei sistemi di IA. Ciò eviterebbe interpretazioni errate dei requisiti proposti e ridurrebbe al minimo i rischi di una successiva cattiva gestione delle applicazioni di IA, massimizzando così l'efficacia del regolamento e la credibilità delle sanzioni. Al tempo stesso, e in linea con l'agenda «Legiferare meglio» della Commissione europea, l'individuazione precoce e l'eliminazione di potenziali sovrapposizioni e/o conflitti con le norme esistenti sono di fondamentale importanza;

    18.

    rileva che numerosi enti locali e regionali utilizzano gli stessi sistemi di IA per lo svolgimento di mansioni simili. Nella stragrande maggioranza dei casi, detti sistemi sono progettati da imprese private;

    19.

    sottolinea che la proposta di regolamento non è isolata sotto il profilo della garanzia dei diritti dei cittadini, ma deve essere vista nel contesto della legislazione esistente. Gli Stati membri sono quindi invitati a garantire su base continuativa le misure amministrative necessarie per tenere conto delle opportunità e dei rischi associati all'impiego dell'intelligenza artificiale nel settore pubblico;

    20.

    ne deduce che sono le imprese e gli organismi notificati ad interpretare le norme europee e nazionali nel contesto della valutazione della conformità, e che tale loro interpretazione si riflette pertanto nella pratica degli enti locali e regionali che utilizzano detti sistemi di IA. È quindi difficile stabilire in quale misura la politica locale e regionale possa essere presa in considerazione in tali sistemi di IA. Il Comitato richiama pertanto l'attenzione sulle esigenze specifiche degli enti locali e regionali e sul fatto che un approccio universale può compromettere l'efficacia dei sistemi di IA nel rispondere a tali esigenze. Inoltre, raccomanda che agli Stati membri venga conferito il potere di regolamentare i sistemi di IA ad alto rischio per motivi imperativi e giustificati di interesse pubblico;

    21.

    chiede, a tale proposito, che le valutazioni della conformità siano trasparenti e accessibili al pubblico. Inoltre, gli enti locali e regionali dovrebbero poter partecipare anche alla vigilanza sui sistemi di IA, riferire in merito alla loro attuazione sul campo e contribuire formalmente alla valutazione dell'applicazione del regolamento effettuata dalla Commissione europea;

    22.

    sottolinea che, per l'applicazione dello «spazio di sperimentazione normativa», occorre creare le adeguate condizioni giuridiche, metodologiche ed etiche che consentano lo sviluppo della tecnologia, l'elaborazione della legislazione e la relativa valutazione. È altresì necessario stabilire criteri ben precisi per l'ammissione delle imprese allo spazio di sperimentazione normativa. Per assicurare che le organizzazioni dei consumatori possano far applicare le disposizioni della legge sull'intelligenza artificiale, quest'ultima deve essere aggiunta nell'allegato I della direttiva relativa alle azioni rappresentative a tutela degli interessi collettivi dei consumatori [(UE) 2020/1828];

    Campagne d'informazione

    23.

    sottolinea che è importante organizzare campagne pubbliche, per informare e familiarizzare il pubblico in generale in merito all'esistenza dei sistemi di IA, alla loro utilità e ai potenziali rischi associati. Sottolinea altresì che occorre provvedere con urgenza a fornire ai consumatori un'informazione completa in materia di processi decisionali controllati dall'intelligenza artificiale / dalle macchine. Invita quindi la Commissione europea ad erogare dei finanziamenti per l'organizzazione di tali campagne d'informazione;

    Oneri amministrativi

    24.

    esprime preoccupazione per gli adempimenti amministrativi che potrebbero derivare dalla proposta di regolamento. Tali oneri amministrativi possono essere di ostacolo per le piccole e medie imprese e per gli enti locali e regionali nella promozione dell'innovazione e nell'uso e l'installazione di sistemi di IA (4);

    Proporzionalità e sussidiarietà

    25.

    ritiene che la proposta di regolamento in esame sia conforme ai principi di proporzionalità e di sussidiarietà. Il valore aggiunto dell'azione dell'UE in questo campo e le pertinenti basi giuridiche su cui si fonda la proposta della Commissione sono chiari e coerenti. La valutazione d'impatto della proposta includeva una sezione a parte dedicata alla sussidiarietà. Inoltre, nessun parlamento nazionale ha formulato un parere motivato sul mancato rispetto del principio di sussidiarietà entro il termine stabilito per la presentazione di eventuali osservazioni, che era fissato al 2 settembre 2021.

    Bruxelles, 2 dicembre 2021

    Il presidente del Comitato europeo delle regioni

    Apostolos TZITZIKOSTAS


    ([62])  Decisione quadro del Consiglio 2002/584/GAI, del 13 giugno 2002, relativa al mandato d'arresto europeo e alle procedure di consegna tra Stati membri (GU L 190 del 18.7.2002, pag. 1).

    ([62])  Decisione quadro del Consiglio 2002/584/GAI, del 13 giugno 2002, relativa al mandato d'arresto europeo e alle procedure di consegna tra Stati membri (GU L 190 del 18.7.2002, pag. 1).

    (1)  https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12979-Civil-liability-adapting-liability-rules-to-the-digital-age-and-artificial-intelligence/public-consultation_it

    (2)  Articolo 5, paragrafo 1, lettera c).

    (3)  Allegato III, punto 5, lettera a).

    (4)  Secondo un recente studio commissionato dalla Commissione europea [Study to Support an Impact Assessment of Regulatory Requirements for Artificial Intelligence in Europe («Studio a sostegno di una valutazione d'impatto degli obblighi normativi per l'intelligenza artificiale in Europa») pag. 12], sulla base di ipotesi ragionevoli, i costi per ottenere la certificazione di un sistema di IA potrebbero essere compresi, in media, tra 16 800 e 23 000 EUR, vale a dire all'incirca tra il 10 e il 14 % dei costi di sviluppo.


    Top