Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52022AE4704

    Parere del Comitato economico e sociale europeo sulla proposta di direttiva del Parlamento europeo e del Consiglio relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale (direttiva sulla responsabilità da intelligenza artificiale) [COM(2022) 496 final — 2022/0303 (COD)]

    EESC 2022/04704

    GU C 140 del 21.4.2023, p. 28–33 (BG, ES, CS, DA, DE, ET, EL, EN, FR, GA, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    21.4.2023   

    IT

    Gazzetta ufficiale dell’Unione europea

    C 140/28


    Parere del Comitato economico e sociale europeo sulla proposta di direttiva del Parlamento europeo e del Consiglio relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale (direttiva sulla responsabilità da intelligenza artificiale)

    [COM(2022) 496 final — 2022/0303 (COD)]

    (2023/C 140/05)

    Relatore generale:

    Wautier ROBYNS DE SCHNEIDAUER

    Consultazione

    Parlamento europeo, 6.10.2022

     

    Consiglio dell’Unione europea, 14/10/2022

    Base giuridica

    Articolo 114 del trattato sul funzionamento dell’Unione europea

    Sezione competente

    Mercato unico, produzione e consumo

    Decisione dell’Ufficio di presidenza

    20.9.2023

    Adozione in sessione plenaria

    24.1.2023

    Sessione plenaria n.

    575

    Esito della votazione

    (favorevoli/contrari/astenuti)

    154/1/0

    1.   Conclusioni e raccomandazioni

    1.1.

    Il CESE ha cominciato a elaborare il suo punto di vista sull’intelligenza artificiale (IA) a partire dal lavoro pionieristico condotto nel 2017, sempre insistendo sulla necessità che la sorveglianza umana delle applicazioni di IA comprendesse anche le responsabilità e creasse fiducia in tale tecnologia. Ha invitato ad adottare norme chiare che prevedessero, in caso di utilizzo illecito (o presumibilmente illecito), la responsabilità delle persone fisiche o giuridiche, come indicato nel suo parere del 2019 (1).

    1.2.

    Il CESE accoglie con favore e sostiene la proposta della Commissione, che si prefigge di migliorare i diritti delle vittime che hanno subito un qualsiasi danno — configurabile come tale secondo la legislazione nazionale — a causa di tale utilizzo illecito dell’IA, prevedendo diritti specifici in aggiunta alla normativa nazionale vigente in materia di responsabilità da fatto illecito o responsabilità oggettiva, alle disposizioni della direttiva sulla responsabilità per danno da prodotti difettosi e al diritto penale.

    1.3.

    Il CESE riconosce che un’armonizzazione minima risponde meglio a questo obiettivo, ma teme il rischio di interpretazioni divergenti da parte dei soggetti coinvolti nella catena di sviluppo e di approvvigionamento e da parte dei giudici. Insiste pertanto sulla necessità di stabilire definizioni giuridiche chiare e di ampliare ulteriormente le competenze richieste ai soggetti che dovranno applicare questa nuova legislazione in tutta l’UE con adeguate capacità digitali. L’obiettivo ultimo della Commissione dovrebbe essere quello di perseguire e sviluppare un regime di responsabilità il più uniforme possibile nella sua applicazione in tutta l’UE.

    1.4.

    Il CESE riconosce l’interazione tra le norme in materia di prevenzione e sicurezza, da un lato, e le opportunità di ricorso, dall’altro, oltre al ruolo di vigilanza delle autorità pubbliche, al fine di garantire il rispetto delle norme dell’UE e di quelle nazionali sullo sviluppo responsabile dell’IA. Invita a creare una rete di organismi per la risoluzione alternativa delle controversie, al fine di agevolare le vittime nell’esercizio dei loro diritti e raccogliere maggiori elementi di prova sugli effetti della direttiva.

    1.5.

    Il CESE apprezza l’equilibrio raggiunto nella direttiva tra i diritti delle vittime e gli interessi degli sviluppatori di IA, che consente di cogliere i vantaggi della transizione digitale e potrebbe rappresentare uno standard di riferimento per i paesi terzi che intendano seguire questo percorso.

    1.6.

    Il CESE invita la Commissione a monitorare attentamente l’introduzione di garanzie finanziarie o di un’assicurazione che copra la responsabilità derivante dall’IA, tenendo debitamente conto della loro disponibilità e della loro portata, dal momento che il nuovo quadro dovrebbe fornire certezza giuridica sia agli operatori che agli assicuratori. Gli elementi di prova relativi agli incidenti sono fondamentali per valutare l’eventuale necessità di misure al riguardo: è pertanto essenziale che tali incidenti siano documentati e segnalati.

    1.7.

    Il CESE invita la Commissione a includere nella sua strategia di comunicazione i diritti riconosciuti alle vittime dei danni causati dall’IA, al fine di aumentare la fiducia nella transizione digitale.

    1.8.

    Tenuto conto della rapidità degli sviluppi tecnologici, il CESE approva l’intenzione di rivedere tale legislazione non appena ciò sia giustificato da elementi di prova. A suo avviso, il periodo di cinque anni dall’entrata in vigore della direttiva stabilito per procedere a tale revisione sarebbe eccessivo, e raccomanda di ridurlo a tre anni. Il CESE è disposto a partecipare a questa revisione e a valutare l’esperienza delle organizzazioni della società civile dell’UE, in particolare riguardo al riscontro fornito dagli utenti finali in merito all’onere della prova e alle definizioni potenzialmente divergenti di danno ammissibile ai sensi delle legislazioni nazionali.

    1.9.

    Poiché l’utilizzo dell’IA può dare luogo a scelte politiche sensibili che non dovrebbero essere lasciate esclusivamente alle parti coinvolte nella catena di approvvigionamento dell’IA, il CESE chiede anche di essere coinvolto e consultato nella definizione delle norme etiche.

    2.   Sintesi della proposta

    2.1.

    La proposta di direttiva relativa alla responsabilità extracontrattuale in relazione all’intelligenza artificiale («direttiva sulla responsabilità da intelligenza artificiale») si basa sul Libro bianco della Commissione del 2020 sull’intelligenza artificiale (IA), sulla relazione sulle implicazioni dell’IA in materia di sicurezza e responsabilità che lo accompagna e sulla proposta di legge del 2021 sull’IA, incentrata sulla prevenzione e sulla sicurezza. La proposta è collegata al riesame della direttiva sulla responsabilità per danno da prodotti difettosi del 1985 («direttiva riveduta sulla responsabilità per danno da prodotti difettosi»), presentata lo stesso giorno della proposta di direttiva in esame. Entrambe le proposte consentono ai ricorrenti di far valere i loro diritti nei confronti di talune parti, con alcune differenze nell’ambito di applicazione dei due strumenti.

    2.2.

    Lo scopo della direttiva sulla responsabilità da IA è quello di stabilire norme uniformi per quanto riguarda determinati aspetti della responsabilità extracontrattuale per i danni causati dall’uso di sistemi di IA. In tal modo, essa è volta a migliorare il funzionamento del mercato unico e mette in atto una protezione più ampia per le vittime (siano esse persone fisiche o imprese), oltre a rafforzare la fiducia nell’IA attraverso norme armonizzate. Ciò riguarda, ad esempio, le violazioni della vita privata, la perdita di dati o i danni causati da problemi di sicurezza. Grazie alle nuove norme, ad esempio, sarà più facile ottenere un risarcimento per un soggetto discriminato in un processo di assunzione nel corso del quale sono state utilizzate tecnologie di IA, anche se permangono diversi ostacoli (giuridici). Al fine di eliminare l’incertezza giuridica che ancora sussiste, il CESE raccomanda di fornire una definizione giuridica di decisione adottata da macchine che utilizzano l’IA.

    2.3.

    Con la direttiva in esame la Commissione propone per la prima volta un’armonizzazione mirata delle norme nazionali in materia di responsabilità per l’IA, rendendo più facile il risarcimento delle vittime di danni connessi all’IA. In linea con gli obiettivi del Libro bianco sull’IA e con la proposta della Commissione del 2021 relativa alla legge sull’IA, che stabilisce i principi dello Stato di diritto attraverso un quadro per l’affidabilità e la fiducia nell’IA, le nuove norme garantiranno una protezione equa ai soggetti danneggiati da prodotti o servizi di IA come se il danno fosse stato causato in qualsiasi altra circostanza.

    2.4.

    Pur prestando attenzione a non compromettere o vanificare il progresso tecnologico in Europa, la direttiva introduce un quadro giuridico armonizzato che affronta la complessità dei sistemi di IA dai laboratori al mercato e semplifica le procedure giuridiche per le vittime di danni causati dai sistemi di IA attraverso due innovazioni giuridiche principali, che rispondono alle attuali esigenze:

    in primo luogo, quando è stata accertata una pertinente inosservanza di (un obbligo di diligenza ai sensi di) normative dell’UE o nazionali e sembra ragionevolmente probabile un nesso di causalità con il sistema di IA (o con l’output da esso prodotto), una «presunzione di causalità» relativa rimedierà alle difficoltà incontrate dalle vittime nel dover spiegare in dettaglio come il danno è stato causato da una specifica colpa od omissione, il che può risultare particolarmente difficile quando si tenta di comprendere sistemi complessi di IA. Disposizioni specifiche si applicano ai fornitori di sistemi di IA ad alto rischio (cfr. il punto 4.1), alle persone che agiscono per conto di questi ultimi e agli utenti. La proposta riduce la gravità della presunzione quando il sistema di IA è utilizzato da un utente non professionale che non ha interferito con il funzionamento di tale sistema;

    in secondo luogo, mentre nella responsabilità per danno da prodotti è più facile individuare le parti da citare in giudizio, l’ambiente dell’IA è più complesso. Ai sensi della direttiva proposta, le vittime disporranno di maggiori strumenti per avvalersi dei mezzi di ricorso giudiziari, attraverso il diritto di accesso agli elementi di prova presso le imprese e i fornitori, nei casi in cui siano coinvolti sistemi di IA ad alto rischio e quando sia necessario ottenere tali elementi di prova, e in misura proporzionata. Le vittime potranno ottenere dall’autorità giudiziaria un’ordinanza che dia accesso alle informazioni necessarie per determinare la causa del danno subito e la persona fisica o giuridica cui possono rivolgersi per tale danno. Quando gli elementi di prova sono facilmente accessibili, la presunzione non è più applicabile, il che costituisce un serio incentivo a rendere disponibili tali informazioni.

    Attraverso queste due misure, la direttiva proposta aiuta le vittime ad ottenere un risarcimento, individualmente o collettivamente (se del caso), senza abolire il concetto di nesso di causalità.

    3.   Garantire un’evoluzione tecnologica antropocentrica

    3.1.

    Il CESE è consapevole dei vantaggi e dei rischi potenziali che l’IA comporta. Il suo utilizzo non dovrebbe essere limitato al solo miglioramento della produttività, sostituendo gli esseri umani in taluni compiti umani e riducendo i costi. Questo sviluppo richiede di prestare attenzione ai rischi relativi al suo impatto sulla salute, derivante dalla modifica delle condizioni di lavoro, e sui diritti, come la tutela della vita privata, nonché di riconsiderare l’equilibrio tra macchine ed esseri umani sul luogo di lavoro, poiché occorre dare la precedenza alla sorveglianza umana, tenendo debitamente conto dell’eventuale persistenza di pregiudizi e preconcetti umani nel funzionamento delle macchine. Come riconosciuto dal gruppo di esperti ad alto livello sull’intelligenza artificiale nei loro orientamenti etici, gli esseri umani dovrebbero continuare ad essere responsabili della progettazione iniziale di sistemi di IA e assumersi la responsabilità finale dei loro possibili malfunzionamenti. Molti altri sviluppi sono ad oggi meno documentati, come l’impatto ambientale delle nanotecnologie. Il CESE ritiene che sia gli operatori di IA che altri portatori di interessi, ad esempio i consulenti in materia di gestione del rischio e gli assicuratori, nonché le autorità pubbliche e i rappresentanti dei lavoratori, dovrebbero monitorare il potenziale impatto attraverso l’analisi dei rischi, l’audit e l’ingegneria della sicurezza effettuando dei test in un ambiente simile al mondo reale. Come affermato nel suo precedente parere (2), il CESE accoglierebbe con favore l’introduzione di procedure di certificazione che garantiscano la sicurezza e l’allineamento con gli interessi umani.

    3.2.

    Il CESE è consapevole del fatto che le applicazioni di IA sono esposte al rischio di guasti e atti informatici dolosi, e rimanda ai suoi recenti pareri riguardanti l’atto sulla resilienza operativa digitale (DORA) (3) e le proposte di direttiva sulla cibersicurezza e sulla resilienza dei soggetti critici (4). Tali rischi e minacce giustificano evidentemente le prescrizioni esistenti in materia di prevenzione e monitoraggio nonché gli sviluppi futuri, in quanto potrebbero emergere nuove vulnerabilità.

    3.3.

    Il CESE approva l’intenzione di tenere il passo con i rapidi sviluppi futuri e di riesaminare gli effetti della direttiva quando i dati disponibili lo giustifichino, dando luogo a un aggiornamento in funzione delle esigenze e della proporzionalità. Ritiene che l’obiettivo dei cinque anni stabilito nella proposta sia troppo remoto, e suggerisce di agire prima, al massimo tre anni dopo l’entrata in vigore della direttiva. Il CESE insiste sulla necessità di coinvolgere la società civile in questa valutazione, e lo fa nella sua veste di organo che riflette i punti di vista dei cittadini, dei consumatori, dei lavoratori e delle grandi e piccole imprese, nel modo unico che lo caratterizza, prestando la dovuta attenzione ai diritti umani fondamentali, compresi i diritti dei lavoratori, nonché alle opportunità e agli ostacoli economici.

    4.   Tutela dei valori fondamentali dell’UE

    4.1.

    Il CESE sostiene l’approccio adottato dalla Commissione nella legge sull’IA, che distingue gli usi vietati dell’IA come il «punteggio sociale» attribuito ai cittadini da governi intrusivi, le applicazioni ad alto rischio da parte di imprese, tra cui quelle che assegnano punteggi per l’assunzione e per la valutazione del merito, nonché le infrastrutture e i dispositivi tecnici critici impiegati nell’assistenza sanitaria, e un gran numero di attività meno rischiose. Il CESE chiede una definizione univoca delle attività ad alto rischio. Il CESE rinnova la sua richiesta di aggiungere i potenziali danni all’ambiente tra i fattori da includere nella categoria ad alto rischio. Il CESE osserva che il risarcimento dovrebbe essere concesso alle vittime indipendentemente dalla classificazione delle applicazioni di IA in rischiose e meno rischiose.

    4.2.

    Come affermato nel suo parere del 2020 in merito al Libro bianco sull’IA, il CESE insiste sul suo impegno a salvaguardare i diritti fondamentali e la gestione umana nella fase finale della decisione quali pietre angolari di uno sviluppo responsabile dell’IA nell’Unione europea. Nelle scelte e nelle decisioni compiute dalle macchine potrebbe mancare la capacità umana di comprendere le conseguenze indesiderate, in particolare quando tali scelte e decisioni riguardano persone vulnerabili come i minori o gli anziani.

    4.3.

    Il CESE sottolinea l’importanza della fiducia dei cittadini negli sviluppi dell’IA per quanto attiene alla tutela della vita privata, all’equo trattamento e ai mezzi di ricorso laddove necessario. La proposta di direttiva è volta a garantire un risarcimento per i danni causati, del tutto o in parte, dall’uso di sistemi di IA almeno equivalente a quello dovuto per i danni subiti in situazioni in cui non è stato fatto ricorso a sistemi di IA. È importante che la Commissione, gli Stati membri e gli utenti dei sistemi di IA uniscano gli sforzi per trasmettere questo messaggio a un vasto pubblico.

    5.   Facilitare il risarcimento delle vittime di danni causati dall’IA

    5.1.

    La direttiva sulla responsabilità per danno da IA prevede una maggiore protezione dei cittadini, dei lavoratori e degli operatori economici dai danni riconosciuti nel contesto giuridico nazionale di tali vittime, estendendo tale protezione al di là delle sole lesioni fisiche e delle perdite materiali, come previsto nella proposta di direttiva sulla responsabilità per danno da prodotti difettosi. Tale estensione consente di risarcire i danni puramente economici causati, ad esempio, in caso di discriminazione ingiusta, rifiuto di accesso all’assistenza o all’istruzione, profilazione errata da parte dei servizi di polizia o perdita di dati. Il CESE insiste sulla necessità di fornire una definizione chiara dei danni ammissibili per evitare il rischio di interpretazioni divergenti nella giurisprudenza nazionale, come pure di impartire una formazione a tal fine agli operatori del settore, compresi i giudici nazionali, utilizzando mezzi adeguati. Il CESE evidenzia la possibilità, per i giudici nazionali, di chiedere alla Corte di giustizia di pronunciarsi in modo pregiudiziale sui punti rispetto ai quali le interpretazioni potrebbero divergere.

    5.2.

    Il CESE ritiene che l’accesso ai mezzi di ricorso e al risarcimento non sia uguale per i cittadini, i consumatori, i lavoratori o le imprese di tutta l’Unione europea. La buona volontà nei confronti dei ricorrenti, le norme procedurali e i costi associati a un’azione giudiziaria, come pure la misura in cui i ricorrenti sono coperti dalla tutela giudiziaria nelle cause in materia di responsabilità civile, differiscono notevolmente da uno Stato membro all’altro e da una classe sociale all’altra. Pertanto, come già indicato in linea di principio nel parere più generale sul regolamento sull’IA (5), il CESE raccomanda di istituire sistemi facilmente accessibili, gratuiti e obbligatori di risoluzione alternativa delle controversie in materia di responsabilità civile nelle applicazioni di IA a livello nazionale, con un coordinamento a livello dell’UE analogo a quello esistente, per esempio, nel settore dei servizi finanziari (FIN-NET), e di farlo in collaborazione con i pertinenti organi rappresentativi della società civile. Tali servizi contribuirebbero alla valutazione degli effetti della direttiva conservando una traccia delle transazioni extragiudiziali portate alla loro attenzione.

    5.3.

    Il CESE accoglie con favore gli sforzi compiuti per fornire alle vittime maggiori mezzi per reclamare un equo risarcimento quando subiscono danni causati da applicazioni di IA, procedure che altrimenti potrebbero essere indisponibili, oppure complicate e costose a causa dell’opacità e della complessità delle applicazioni di IA. Molti cittadini e consumatori sono diffidenti rispetto ai «robot» e agli algoritmi. Il CESE raccomanda di intervenire per rafforzare la fiducia dei cittadini, in particolare attraverso tutorial sui social media più utilizzati, nel quadro della strategia di comunicazione della Commissione.

    5.4.

    I soggetti danneggiati dai sistemi di IA potranno invocare la presunzione per gli operatori che non rispettano i requisiti dell’UE o nazionali. Il fatto che gli operatori debbano registrare la loro conformità a tali norme serve da difesa rispetto a eventuali comportamenti negligenti.

    6.   Integrare nuovi principi giuridici nel mercato unico

    6.1.

    La direttiva sulla responsabilità da IA giunge in un momento in cui la responsabilità per le carenze dell’IA figura nei programmi legislativi di diversi Stati membri. Il CESE comprende l’approccio della proposta che mira a salvaguardare, in questa fase, i principi giuridici nazionali, e sostiene il ricorso ad una direttiva al fine di evitare eccessive incoerenze nei principi di responsabilità in tutta l’UE come pure di consentire agli Stati membri di perfezionare il tipo di protezione che ritengono necessario e proporzionato nell’interesse generale. Richiama l’attenzione dei responsabili politici sugli aspetti negativi dei contesti giuridici frammentati, che impediscono la realizzazione di un vero mercato unico digitale, mantengono le differenze tra i cittadini e le imprese europee e rischiano di ostacolare l’innovazione tecnologica europea. Ritiene che il rischio di errata interpretazione del principio dell’interesse generale non debba essere sottovalutato, in quanto le procedure per invocarlo sono onerose e la loro giurisdizione non si estende al di là del caso in esame in ciascun procedimento dinanzi alla Corte di giustizia.

    6.2.

    Il CESE è consapevole di quanto i regimi giuridici nazionali applicabili alle azioni di responsabilità civile differiscano ancora da uno Stato membro all’altro, e nel corso degli anni ha prestato grande attenzione agli sforzi volti a superare tali differenze, per esempio attraverso un regime alternativo alle norme nazionali («28o regime»). In quest’ottica, esso comprende la scelta dello strumento giuridico proposto in questa fase dalla Commissione, ma fa presente il rischio che alcuni concetti possano dar luogo a interpretazioni diverse nei vari ordinamenti giuridici nazionali. Il CESE insiste sulla necessità che la Commissione persegua, quale obiettivo finale, un regime di responsabilità che sia applicato nel modo più uniforme possibile in tutta l’UE.

    6.3.

    Il CESE sottolinea il diritto della parte convenuta, in particolare nel caso di (piccoli) dettaglianti, di intentare un’azione legale nei confronti del proprio fornitore o le parti interessate pertinenti a monte della catena di approvvigionamento, e il dovere di questi ultimi di assumersi la responsabilità delle conseguenze del loro comportamento negligente o presumibilmente illecito. In questi casi i fornitori dovrebbero essere giuridicamente tenuti a risarcire i convenuti.

    7.   Sostenere la competitività degli sviluppi europei dell’IA

    7.1.

    Il CESE ritiene che la certezza del diritto costituisca un incentivo economico per l’attività europea di ricerca e sviluppo da parte dei centri scientifici, delle autorità pubbliche e delle imprese, e contribuisca allo sviluppo di innovazioni di avanguardia in un contesto globale. La proposta di direttiva sulla responsabilità da IA fornisce, al momento giusto, gli orientamenti necessari per rafforzare la necessaria fiducia degli innovatori rispetto ai rischi giuridici, in particolare quando operano a livello transfrontaliero, dato che le diverse giurisdizioni hanno regimi di responsabilità propri. Tali disposizioni avranno un notevole valore per le start-up e le PMI, che non dispongono delle stesse possibilità di accesso alla consulenza legale di cui godono le imprese più grandi. Il nuovo quadro può inoltre aiutare gli sviluppatori a lanciare nuove applicazioni di IA con una migliore comprensione delle implicazioni giuridiche, contribuendo alla strategia dell’UE sulle transizioni digitale e verde.

    7.2.

    In questa fase la proposta di direttiva sulla responsabilità da IA non include l’assicurazione obbligatoria per le applicazioni di IA. Dato che le applicazioni di IA sono ancora in pieno sviluppo, in particolare nei sistemi più complessi, per via della scarsità di esperienze passate sarebbe difficile stabilire metodi di tariffazione che siano ragionevolmente affidabili per essere rappresentativi dei danni e dei ricorsi futuri, in particolare se si considera che il verificarsi di danni e le richieste di risarcimento potrebbero essere interconnessi e causare la ripetizione dei guasti e, di conseguenza, l’aumento della gravità degli incidenti e l’accumulo delle perdite, mentre la capacità è attualmente limitata con le compagnie di (ri)assicurazione. Il CESE comprende pertanto la scelta della Commissione di non approfondire la questione dell’opportunità di introdurre in questa fase l’assicurazione obbligatoria o altre garanzie finanziarie e — eventualmente — per quali attività e in quale misura, ma invita la Commissione a monitorare attentamente la disponibilità e la portata dell’assicurazione. Occorre un sistema di monitoraggio che fornisca informazioni sugli incidenti che coinvolgono i sistemi di IA per valutare se siano necessarie misure supplementari quali la responsabilità oggettiva o l’assicurazione obbligatoria.

    7.3.

    Il CESE osserva che, ai sensi della legislazione nazionale o dell’UE, diversi rischi sono soggetti a un’assicurazione obbligatoria o ad altre garanzie finanziarie. Ciò vale, più in particolare, nel settore dell’utilizzo di veicoli a motore, nel quale si assiste oggi allo sviluppo di veicoli autonomi. In tali casi, quando l’assicurazione obbligatoria copre non solo il comportamento del conducente o dei passeggeri, ma anche il cattivo funzionamento dell’apparecchiatura, più specificamente in modalità di guida automatica, nella maggior parte dei casi (6) il risarcimento è garantito alle vittime dalla legislazione e dai contratti in vigore. Le compagnie di assicurazione possono, se del caso, chiedere ai fabbricanti il rimborso delle spese sostenute. Ciò dovrebbe ridurre i costi per gli utenti dei veicoli e spostare il centro di gravità economico dei rami di assicurazione pertinenti da un mercato tra imprese e consumatori a un modello da impresa a impresa. Il CESE ritiene pertanto che non siano necessari ulteriori interventi legislativi significativi nei settori in cui l’assicurazione obbligatoria esiste già o è in procinto di essere introdotta a livello dell’UE. Tuttavia, il CESE seguirà da vicino le scelte etiche su questioni quali gli scenari di prevenzione delle collisioni e di gestione degli incidenti.

    7.4.

    Il CESE ritiene che i vincoli di conformità e di gestione dei rischi inseriti nella direttiva sulla responsabilità da IA, nonché la presunzione che trasferisce l’onere della confutazione della prova sui fornitori, sulle persone che agiscono per conto di questi ultimi e sugli utenti dei sistemi di IA, siano misure proporzionate e mirate rispetto ai giusti livelli di rischio di danni causati dalle applicazioni di IA.

    7.5.

    Per quanto riguarda l’accesso agli elementi di prova, il CESE è favorevole alle misure adottate per proteggere i segreti commerciali, che costituiscono un aspetto importante della competitività degli innovatori europei, nonché le informazioni riservate, se tale disposizione è invocata in modo legittimo e con il dovuto rispetto per i diritti acquisiti, come i privilegi legalmente riconosciuti degli informatori, ad esempio nell’ambito di un rapporto di lavoro.

    7.6.

    Il CESE ritiene che l’adozione di una presunzione moderata piuttosto che di una responsabilità oggettiva faciliti gli sviluppi delle tecnologie di IA nell’Unione europea e potrebbe confermare il ruolo dell’UE in quanto fonte di normazione a livello mondiale, poiché altri paesi potrebbero allineare la loro legislazione a tale regime. Anche questo aspetto dovrebbe essere oggetto della revisione futura, unitamente ai chiarimenti che potrebbero risultare necessari a seguito di questa prima esperienza.

    Bruxelles, 24 gennaio 2023

    La presidente del Comitato economico e sociale europeo

    Christa SCHWENG


    (1)  Parere del Comitato economico e sociale europeo sulla comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni — Creare fiducia nell’intelligenza artificiale antropocentrica [COM(2019) 168 final] (GU C 47 dell'11.2.2020, pag. 64).

    (2)  Parere del Comitato economico e sociale europeo sulla comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni — Creare fiducia nell’intelligenza artificiale antropocentrica [COM(2019) 168 final] (GU C 47 dell'11.2.2020, pag. 64).

    (3)  Parere del Comitato economico e sociale europeo su: «Proposta di regolamento del Parlamento europeo e del Consiglio relativo alla resilienza operativa digitale per il settore finanziario e che modifica i regolamenti (CE) n. 1060/2009, (UE) n. 648/2012, (UE) n. 600/2014 e (UE) n. 909/2014» [COM(2020) 595 final — 2020/0266 (COD)], «Proposta di direttiva del Parlamento europeo e del Consiglio che modifica le direttive 2006/43/CE, 2009/65/CE, 2009/138/CE, 2011/61/UE, 2013/36/UE, 2014/65/UE, (UE) 2015/2366 e (UE) 2016/2341» [COM(2020) 596 final — 2020/0268 (COD)] (GU C 155 del 30.4.2021, pag. 38).

    (4)  Parere del Comitato economico e sociale europeo su «Proposta di direttiva del Parlamento europeo e del Consiglio relativa a misure per un livello comune elevato di cibersicurezza nell’Unione, che abroga la direttiva (UE) 2016/1148, e proposta di direttiva del Parlamento europeo e del Consiglio sulla resilienza dei soggetti critici» [COM(2020) 823 final — 2020/0359(COD) — COM(2020) 829 final — 2020/0365(COD)] (GU C 286 del 16.7.2021, pag. 170).

    (5)  Parere del Comitato economico e sociale europeo sulla proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione [COM(2021) 206 final — 2021/0106 (COD)] (GU C 517 del 22.12.2021, pag. 61).

    (6)  Il conducente ha il diritto di presentare un ricorso ai sensi della legge sulla responsabilità per danno da prodotti difettosi.


    Top