Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52017AE5365

    Parere del Comitato economico e sociale europeo sulla Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni — Lotta ai contenuti illeciti online — Verso una maggiore responsabilizzazione delle piattaforme online [COM(2017) 555 final]

    EESC 2017/05365

    GU C 237 del 6.7.2018, p. 19–25 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

    6.7.2018   

    IT

    Gazzetta ufficiale dell’Unione europea

    C 237/19


    Parere del Comitato economico e sociale europeo sulla Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni — Lotta ai contenuti illeciti online — Verso una maggiore responsabilizzazione delle piattaforme online

    [COM(2017) 555 final]

    (2018/C 237/03)

    Relatore:

    Bernardo HERNÁNDEZ BATALLER

    Consultazione

    Commissione europea, 17.11.2017

    Base giuridica

    Articolo 304 del Trattato sul funzionamento dell'Unione europea

    Sezione competente

    Mercato unico, produzione e consumo

    Adozione in sezione

    9.3.2018

    Adozione in sessione plenaria

    14.3.2018

    Sessione plenaria n.

    533

    Esito della votazione

    (favorevoli/contrari/astenuti)

    180/4/5

    1.   Conclusioni e raccomandazioni

    1.1

    I contenuti illeciti online rappresentano un problema complesso e di natura trasversale che deve essere affrontato da vari punti di vista, in funzione della valutazione data alla sua incidenza e del trattamento riservato a tale questione nel quadro giuridico degli Stati membri.

    Il Comitato economico e sociale europeo (CESE) sottolinea l'importanza di istituire un quadro regolamentare adeguato ed equilibrato per le piattaforme del mercato unico digitale, in modo da poter contribuire a creare un clima di fiducia sia per le imprese che per i consumatori in generale, e questo permetterebbe di confidare nelle piattaforme che si desidera utilizzare. Bisogna adottare, in materia di regolamentazione e autoregolamentazione, approcci politici che siano flessibili, sostenibili e offrano una risposta diretta alle sfide, specialmente in rapporto alle procedure per l'individuazione, l'indagine, la segnalazione e il ritiro di contenuti illeciti dalle piattaforme.

    1.2

    Il CESE ritiene necessario che venga mantenuta la coerenza tra i criteri e le misure da adottare e quanto indicato in proposito nei suoi pareri precedenti. Il punto di partenza deve essere la considerazione che ciò che è illegale nel mondo reale lo è anche in ambiente digitale («online»). Il CESE evidenzia l'importanza della neutralità tecnologica e della coerenza tra le norme applicate online e offline in situazioni equivalenti, in funzione delle necessità e possibilità.

    1.3

    È indispensabile conseguire il massimo equilibrio possibile tra le limitazioni previste in caso di contenuti illeciti e la garanzia del rispetto dei diritti fondamentali, anche in rapporto alle differenze — sul piano delle dimensioni e dell'attività — tra le piattaforme online.

    Il CESE invita la Commissione ad adottare misure appropriate contro la crescente diffusione di messaggi violenti e/o discriminatori sulle piattaforme, e mette l'accento sull'importanza sia di proteggere le persone vulnerabili e i minori, che di combattere ogni forma di razzismo, sessismo, incitamento al terrorismo e bullismo anche nell'ambiente digitale.

    1.4

    Occorre in particolare prendere in considerazione l'efficacia delle azioni da condurre per quelle piattaforme online la cui sede si trova al di fuori del territorio dell'Unione europea.

    Inoltre, è opportuno che la Commissione passi in rassegna e classifichi, nella misura del possibile, i contenuti illeciti pubblicati, in modo da poterne ricomprendere altri che non sono esplicitamente menzionati nella comunicazione.

    In ogni caso, l'applicazione dei principi guida per le procedure di individuazione, indagine, notifica e ritiro andrebbe promossa nei seguenti casi:

    a)

    per tutelare i diritti riconosciuti dalle convenzioni internazionali, come quelle intese a proteggere:

    i minori da quei contenuti digitali che possano essere in contrasto con quanto stabilito nella convenzione sui diritti dell'infanzia e dell'adolescenza;

    le persone disabili da quei contenuti digitali che possano essere in contrasto con quanto stabilito nella convenzione sui diritti delle persone con disabilità;

    b)

    per garantire l'assenza di discriminazioni di genere nei contenuti digitali, specialmente per quanto riguarda l'applicazione del principio della parità di trattamento tra uomini e donne nell'accesso a beni e servizi e nella loro fornitura, e per assicurare la parità di genere e la dignità umana nella pubblicità;

    c)

    per garantire e assicurare che i contenuti digitali siano conformi a quanto previsto nell'agenda digitale allo scopo di rafforzare la sicurezza e il rispetto dei diritti dei consumatori nella società digitale.

    Il testo della comunicazione dovrebbe tener conto delle ripercussioni che i contenuti illeciti possono generare sul mercato unico, in modo che sia possibile adottare le misure di prevenzione necessarie a preservarne il funzionamento in linea con i principi ispiratori.

    1.5

    In sintesi, il CESE reputa assai opportuna l'iniziativa della Commissione europea di presentare la comunicazione in esame che, in generale, riserva un trattamento corretto alla questione di come fare fronte alla pubblicazione di contenuti illeciti online. A tal fine, occorre riflettere sulla possibilità di rivedere il testo della direttiva sul commercio elettronico, della direttiva sulle pratiche commerciali sleali e della direttiva sulla pubblicità ingannevole e comparativa, sulla base — tra gli altri criteri — di norme che siano adeguate alle esigenze future e neutrali sul piano tecnologico, dato che sono essenziali per lo sviluppo delle piattaforme europee, allo scopo di non seminare l'incertezza tra gli operatori economici e di non limitare l'accesso ai servizi digitali.

    2.   Contesto di riferimento

    2.1

    Le piattaforme online costituiscono una tipologia di prestatori di servizi della società dell'informazione che esercitano la funzione di intermediari all'interno di un determinato ecosistema digitale. Questa tipologia comprende un'ampia gamma di soggetti che partecipano a numerose attività economiche, come il commercio elettronico, i mass media, i motori di ricerca, l'economia collaborativa, le attività senza fini di lucro, la distribuzione di contenuti culturali o i social network. Per questi soggetti non esiste alcuna definizione chiara e precisa, la cui formulazione risulta difficile a causa della loro natura in costante evoluzione. Attualmente, essi svolgono un ruolo importante nel quadro del mercato interno e in futuro tale ruolo assumerà una rilevanza crescente.

    2.2

    La Commissione ha già affrontato il tema delle piattaforme online in relazione al mercato unico digitale (1), riconoscendo che la sfida più importante che l'UE deve attualmente affrontare per assicurare la sua futura competitività a livello mondiale consiste nel promuovere efficacemente l'innovazione nei settori economici considerati, proteggendo al tempo stesso in modo adeguato i legittimi interessi dei consumatori e degli utenti. A tale scopo era prevista la revisione sia della direttiva sulle telecomunicazioni che della direttiva relativa alla vita privata e alle comunicazioni elettroniche (direttiva e-privacy) per quanto concerne la posizione dei servizi di comunicazione online OTT («over-the-top»).

    2.3

    Il CESE si era già espresso in merito a una precedente comunicazione in materia (2), sottolineando che molte piattaforme online rappresentano elementi importanti dell'economia collaborativa, e aveva ribadito le proprie conclusioni su questo tipo di economia, in particolare per quel che riguarda la tutela dei consumatori e i lavoratori, siano essi subordinati o autonomi. Il Comitato aveva inoltre evidenziato la necessità di affrontare il rischio di frammentazione normativa e per tale motivo riteneva necessaria l'adozione di un approccio coerente da parte dell'UE.

    2.4

    Adesso la Commissione affronta, attraverso la comunicazione in esame, la questione della lotta contro i contenuti illeciti online attraverso una maggiore responsabilizzazione delle piattaforme digitali, dato che fa propri alcuni principi e orientamenti volti a fare in modo che tali piattaforme intensifichino la lotta contro i suddetti contenuti illeciti, in cooperazione con le autorità nazionali, gli Stati membri e altre parti interessate.

    2.4.1

    L'obiettivo è rafforzare l'adozione di buone prassi per prevenire, individuare, rimuovere e disabilitare l'accesso a contenuti illeciti al fine di:

    a)

    garantirne l'effettiva rimozione;

    b)

    promuovere la trasparenza e la protezione dei diritti fondamentali online;

    c)

    chiarire le responsabilità delle piattaforme quando adottano misure efficaci per individuare e rimuovere contenuti illeciti, oppure per disabilitare l'accesso a tali contenuti (le cosiddette azioni da buon samaritano).

    2.4.2

    Il quadro giuridico dell'UE è costituito da norme vincolanti e non vincolanti, in particolare la direttiva sul commercio elettronico (3), che armonizza le condizioni che le piattaforme online all'interno del mercato unico digitale possono far valere per l'esonero dalla responsabilità in rapporto ai contenuti illeciti che potrebbe ospitare al loro interno.

    2.4.3

    Attualmente nell'UE non esiste un approccio armonizzato e coerente per la rimozione dei contenuti illeciti, dato che la liceità o illiceità è stabilita dalla normativa dell'UE in materia e anche dal diritto nazionale. In ogni caso, un approccio più armonizzato permetterebbe di rendere più efficace la lotta contro i contenuti illeciti e contribuirebbe allo sviluppo del mercato digitale.

    2.4.4

    Nella comunicazione vengono esaminati i criteri da stabilire per quanto riguarda il comportamento che le piattaforme online, le autorità competenti e gli utenti devono seguire per individuare in modo rapido ed efficiente i contenuti illeciti. A tal fine la Commissione ritiene che occorra rafforzare sistematicamente la collaborazione con le autorità competenti degli Stati membri e che questi ultimi debbano vigilare affinché le autorità giudiziarie possano intervenire efficacemente per combattere i contenuti illeciti online; si ritiene inoltre necessario rafforzare la cooperazione transfrontaliera.

    2.4.4.1

    Secondo la Commissione, per rimuovere in modo più rapido e sicuro i contenuti illeciti online, andrebbero creati dei meccanismi che permettano ai segnalatori attendibili di agire. Si tratta di enti specializzati nell'individuazione di contenuti illeciti, oppure di strutture apposite per la rilevazione e l'individuazione di tali contenuti online. La Commissione esaminerà la possibilità di decidere, a livello dell'UE, criteri comuni applicabili ai segnalatori attendibili.

    2.4.4.2

    Per quanto riguarda le segnalazioni da parte degli utenti, si ritiene che le piattaforme online debbano stabilire meccanismi di facile accesso e uso che permettano ai loro utenti di segnalare i contenuti considerati illeciti che sono ospitati su tali piattaforme.

    2.4.4.3

    Per quanto concerne la garanzia di un alto livello di qualità delle segnalazioni, la Commissione reputa che vadano creati meccanismi efficaci che facilitino la presentazione della segnalazione in modo sufficientemente preciso e motivato.

    2.4.5

    Viene valutata la pertinenza della creazione, da parte delle piattaforme online, di misure proattive per l'esonero dalla responsabilità che siano basate sulla tecnologia per rilevare e individuare contenuti illeciti.

    2.4.6

    La rimozione del contenuto illecito è uno degli aspetti esaminati dalla comunicazione che, in tale contesto, punta a fissare solide garanzie che limitino il rischio di rimozione di contenuti non illeciti. L'obiettivo della Commissione è la realizzazione di un intervento immediato per la rimozione dei contenuti e la segnalazione di reati alle autorità di contrasto, oltre che la promozione della trasparenza sia nelle politiche adottate dalle piattaforme in materia di contenuti che nelle procedure per la segnalazione e l'azione.

    2.4.7

    Per quanto riguarda l'istituzione di garanzie contro la rimozione di contenuti leciti e l'abuso del sistema, la Commissione prende in esame la contestazione delle segnalazioni, nonché le misure contro le segnalazioni e le repliche alle segnalazioni in malafede.

    2.4.8

    La questione di come prevenire la ricomparsa di contenuti illeciti viene affrontata valutando la possibilità di introdurre misure volte a dissuadere gli utenti dal caricare ripetutamente contenuti illeciti dello stesso tipo, allo scopo di porre termine alla loro diffusione, promuovendo un maggiore utilizzo e sviluppo di tecnologie volte a prevenire la ricomparsa di contenuti illeciti online, per esempio mediante filtri automatici contro il ripetersi dei tentativi di ricaricare tali contenuti.

    2.4.9

    A conti fatti, la comunicazione fornisce orientamenti, ma non modifica il quadro giuridico applicabile né contiene norme vincolanti. Il suo scopo consiste innanzitutto nel fornire indicazioni alle piattaforme online sul modo migliore per assolvere alle loro responsabilità per quanto concerne la lotta contro i contenuti illeciti che potrebbero ospitare. Essa si propone inoltre di diffondere buone prassi nelle procedure introdotte contro diversi tipi di contenuti illeciti e di promuovere una cooperazione più stretta tra le piattaforme e le autorità competenti.

    3.   Osservazioni generali

    3.1

    Il CESE prende atto della comunicazione in esame e invita la Commissione a elaborare programmi e ad adottare misure efficaci che rendano possibile un quadro giuridico stabile e coerente per rimuovere in modo efficiente i contenuti illeciti. Inoltre, il CESE la ritiene opportuna anche in considerazione non solo dell'impatto che le piattaforme digitali hanno attualmente sulla vita quotidiana, ma anche per i rischi connessi alla loro diffusione sul piano sociale e le ripercussioni sul mercato unico digitale; la sua ragion d'essere è, infatti, evitare la frammentazione fra le legislazioni nazionali ed eliminare le barriere tecniche, giuridiche e fiscali per consentire alle imprese, ai cittadini e ai consumatori di beneficiare appieno degli strumenti e dei servizi digitali.

    Il CESE sottolinea la necessità che le piattaforme online combattano i contenuti illeciti e le pratiche commerciali sleali (come la rivendita a prezzi esorbitanti di biglietti d'ingresso a spettacoli) attraverso disposizioni normative integrate da misure efficaci di autoregolamentazione (ad esempio, tramite condizioni di utilizzo ben chiare e meccanismi appropriati per individuare i trasgressori recidivi, oppure istituendo gruppi specializzati per moderare i contenuti e risalire alla fonte di contenuti illeciti), oppure mediante l'adozione di misure ibride.

    3.2

    Il CESE ritiene che occorra passare in rassegna e classificare i casi di contenuti illeciti, in modo da non limitarsi soltanto a quelli menzionati nella comunicazione (l'incitamento al terrorismo, le esternazioni xenofobe e razziste che istigano pubblicamente all'odio e alla violenza, nonché la pedopornografia). A questo proposito, potrebbero figurare altre fattispecie, come i casi di diffamazione chiaramente dolosa, nonché quelli di diffusione di materiale lesivo della dignità umana o con contenuti sessisti che contribuiscono alla violenza di genere, senza l'intenzione di stilarne un elenco esaustivo ma allo scopo di riunire i criteri per la loro classificazione.

    Pertanto, l'applicazione dei principi guida per le procedure di individuazione, indagine, notifica e ritiro andrebbe promossa nei seguenti casi:

    a)

    per tutelare i diritti riconosciuti dalle convenzioni internazionali, come quelle intese a proteggere:

    i minori da quei contenuti digitali che possano essere in contrasto con quanto stabilito nella convenzione sui diritti dell'infanzia e dell'adolescenza;

    le persone disabili da quei contenuti digitali che possano essere in contrasto con quanto stabilito nella convenzione sui diritti delle persone con disabilità;

    b)

    per garantire l'assenza di discriminazioni di genere nei contenuti digitali, specialmente per quanto riguarda l'applicazione del principio della parità di trattamento tra uomini e donne nell'accesso a beni e servizi e nella loro fornitura, e per assicurare la parità di genere e la dignità umana nella pubblicità;

    c)

    per garantire e assicurare che i contenuti digitali siano conformi a quanto previsto nell'agenda digitale allo scopo di rafforzare la sicurezza e il rispetto dei diritti dei consumatori nella società digitale.

    3.3

    Il CESE è favorevole a un rafforzamento delle misure per combattere i contenuti illegali online, specialmente per quanto riguarda la protezione dei minori e la rimozione di contenuti che incitano all'odio o al terrorismo, e chiede che si tenga conto della necessità di evitare il bullismo e la violenza contro le persone vulnerabili.

    3.4

    Quanto detto vale anche se la nozione di contenuto illecito in ambiente digitale varia a seconda non solo dell'approccio giuridico seguito in ogni Stato membro, ma anche dell'etica seguita da ciascuno. È infatti possibile addurre esempi — che non sono così evidenti come quelli citati — in cui la valutazione della liceità di un contenuto dipenderà dall'interpretazione e dalla soluzione che verrà data a quei conflitti in cui esiste un'opposizione tra diritti fondamentali, come la libertà di espressione e altri diritti riconosciuti; in questi casi, bisognerà assicurare che vengano quanto più possibile contemperati i diritti, allo scopo di evitare tali conflitti. Ciononostante, occorre evidenziare l'importanza di intervenire contro la diffusione di notizie false, e per questo motivo il CESE ritiene che le piattaforme online debbano fornire agli utenti gli strumenti per segnalare le notizie false, in modo che altri utenti possano essere informati che la veridicità di un determinato contenuto è stata contestata. Inoltre, le piattaforme online potrebbero sviluppare partenariati con i segnalatori attendibili, ossia siti certificati che verificano i fatti, per rafforzarne la fiducia degli utenti nella validità dei contenuti online.

    3.5

    A scopo illustrativo, il CESE raccomanda di catalogare i casi di contenuti illeciti e in modo che possano contribuire, per quanto possibile, all'elaborazione di una definizione comune ai vari Stati membri, in modo da agevolare la fissazione delle priorità e la delimitazione delle fattispecie. A questo proposito, si propone di prendere in considerazione anche i casi attinenti a:

    la sicurezza nazionale (terrorismo, corruzione, traffico di stupefacenti, traffico di armi, evasione fiscale e riciclaggio di denaro);

    la protezione dei minori (pornografia, violenza, ecc.);

    la tratta di essere umani, prostituzione e violenza di genere, compresa la pubblicità sessista;

    la tutela della dignità umana (incitamento all'odio o alla discriminazione razziale, di genere o con fondamento ideologico, oppure in funzione dell'orientamento sessuale);

    la sicurezza economica (frodi e truffe, pirateria e contraffazione, ecc.);

    la sicurezza delle informazioni (intrusione informatica con finalità delittuosa, raccolta di dati a scopi commerciali, distorsione della concorrenza, manipolazione delle informazioni, ecc.);

    la protezione della vita privata (molestie in ambiente digitale, trasmissione e utilizzo di dati personali, intercettazione di comunicazioni personali, tracciamento della geolocalizzazione delle persone, ecc.);

    la tutela della reputazione (diffamazione, pubblicità comparativa illegittima, ecc.);

    la proprietà intellettuale.

    3.5.1

    Il CESE ritiene altresì necessario realizzare un avvicinamento concettuale tra gli Stati membri in rapporto alle nozioni di «contenuto illecito» e di «contenuto pericoloso», allo scopo di evitare interpretazioni distorte dei suddetti concetti.

    3.6

    Tenuto conto delle possibile conseguenze, occorre prestare una particolare attenzione alla concentrazione del potere economico in alcune piattaforme digitali, oltre che ai processi di elaborazione, trattamento e distribuzione di contenuti meramente informativi solo apparentemente leciti, intendendo per tali quelli che puntano a celare elementi illeciti o anche pericolosi.

    Inoltre, va riservato lo stesso trattamento a tutti gli aspetti relativi ai megadati e ai vantaggi ottenuti dalle piattaforme online grazie all'utilizzo di tali dati.

    3.7

    Inoltre, vista la portata globale del problema considerato, è opportuno valutare la possibilità di studiare e prevedere in questo campo delle iniziative di cooperazione e reciprocità da attuare in modo ottimale ed efficiente, nel rispetto di principi come quelli in materia di informazione, scelta, trasferimento progressivo, sicurezza, integrità dei dati, accesso e attuazione.

    4.   Osservazioni particolari

    4.1

    Per quanto riguarda il contesto generale, sembra opportuno condurre una riflessione su una revisione non solo della direttiva sul commercio elettronico, adottata nel 2000, ma anche della direttiva sulle pratiche sleali, varata nel 2005, e di quella sulla pubblicità, approvata nel 2006. In particolare vanno presi in considerazione gli aspetti relativi ai nuovi modelli economici emergenti, nonché le altre fattispecie in cui non esiste un rapporto commerciale consueto; in ogni caso, bisogna rafforzare il regime di responsabilità per i contenuti delle piattaforme in modo uniforme in tutta l'Unione e vanno eliminate le lacune in fase di attuazione, allo scopo di rafforzare la certezza del diritto e accrescere la fiducia delle imprese e dei consumatori.

    4.1.1

    In ogni caso, andrebbero introdotte delle misure contro i siti Internet che violano le disposizioni stabilite, prevedendo la possibilità di bloccare l'accesso a talune pagine web attraverso procedure trasparenti che siano dotate di idonee garanzie, allo scopo di assicurare che la restrizione sia limitata a quanto necessario e sia proporzionata, e che gli utenti siano informati del motivo della restrizione. Tali garanzie devono anche prevedere la possibilità di ricorrere per via giudiziaria.

    4.1.2

    Per quanto riguarda l'individuazione e la segnalazione di contenuti illeciti, la comunicazione stabilisce che bisogna valutare la possibilità — per gli organi giurisdizionali e le autorità di livello nazionale — di adottare misure cautelari e di altro tipo volte a rimuovere contenuti illeciti o a bloccarne l'acceso. Tale possibilità deve essere accompagnata da misure che siano concepite nei termini indicati dal CESE in rapporto alle misure previste nel regolamento sulla cooperazione tra le autorità nazionali responsabili dell'esecuzione della normativa che tutela i consumatori (4).

    4.2

    Sarebbe inoltre necessario stabilire meccanismi atti a individuare il responsabile e a definire le procedure di risposta per la revoca delle autorizzazioni preliminari e a posteriori, nonché le misure da adottare per ogni fattispecie sulla base degli antecedenti e delle informazioni disponibili.

    4.3

    Sarebbe inoltre possibile precisare gli aspetti relativi all'autorizzazione dei contenuti per quel che concerne le segnalazioni preliminari. Si potrebbero ad esempio compilare elenchi sia delle piattaforme online con contenuti illeciti che delle piattaforme conformi alle prassi migliori, in modo che ricevano un riconoscimento ufficiale che contribuisca ad aumentare la concorrenza in rapporto alla reputazione e la fiducia nella rete web.

    L'innovazione favorisce gli investimenti nella ricerca, nello sviluppo e nel miglioramento delle competenze dei lavoratori, oltre ad avere un'importanza cruciale per stimolare idee fresche e novità. Bisogna avvalersi dell'innovazione tecnologica per le procedure di individuazione, identificazione, rimozione e divieto di ripubblicazione di contenuti illeciti, come l'elaborazione delle informazioni e l'intelligenza artificiale, nonché l'impiego di tecnologie per l'individuazione e il filtraggio automatici; tuttavia, in ultima analisi, occorre assicurare che le singole decisioni dei cittadini siano state prese e le loro azioni compiute nel rispetto dei diritti fondamentali e dei valori democratici.

    Ribadendo che occorre trovare un equilibrio tra il rispetto dei diritti fondamentali e le limitazioni in caso di contenuti illeciti, il CESE sottolinea che l'impiego dell'attuale tecnologia per il filtraggio automatico grava di un onere sproporzionato la libertà degli intermediari di condurre la loro attività, il diritto degli utenti finali alla libertà di espressione e il diritto alla protezione dei dati personali. Non bisognerebbe imporre all'industria una soluzione unica per tutte le situazioni, come i filtri automatici contro il ripetersi dei tentativi di ricaricare contenuti illeciti, senza prendere in considerazione le esigenze specifiche delle PMI nel settore informatico. Le buone pratiche attualmente seguite in rapporto alla tecnologia di filtraggio automatico indicano che è necessaria l'applicazione sistematica del principio dell'intervento umano. Si tratta di un sistema in cui le decisioni contestualizzate finali su un numero ristretto di casi contestabili sono sempre prese da esseri umani, per ridurre la probabilità che venga violato il diritto fondamentale alla libertà di espressione. Andrebbe chiarito che i calcoli di un'intelligenza artificiale non possono prendere il posto delle decisioni che gli esseri umani adottano sulla base di valutazioni etiche.

    4.4

    Per quanto riguarda le segnalazioni, il CESE propone di affrontare la questione delle procedure di accreditamento dei segnalatori attendibili e, ai fini della «garanzia dell'elevata qualità delle segnalazioni», andrebbe ricordata l'opportunità di divulgarle al pubblico.

    4.5

    Per quanto attiene alle misure proattive, la comunicazione non presenta una proposta chiara per l'introduzione di misure volontarie con finalità di prevenzione e rieducazione che permettano di realizzare una serie di iniziative strategiche in questo campo, anche se si tratta di una necessità fondamentale per intraprendere in modo integrato ed efficiente la lotta contro i contenuti digitali illeciti.

    4.6

    Vanno previste misure per i casi in cui occorra rivedere le decisioni adottate, in modo che possano essere revocate con soluzioni che consentano di ripubblicare i contenuti erroneamente rimossi od oggetto di segnalazione in malafede che tendano a veicolare determinati messaggi, in particolare i meccanismi extragiudiziali per la presentazione di reclami — dotati di un codice di condotta — che prevedano sanzioni in caso di inosservanza delle regole.

    Il CESE chiede che venga assicurata la creazione di sistemi efficaci per le procedure di reclamo e risoluzione delle controversie, badando a semplificare le modalità con cui le PMI e i consumatori possano esercitare i loro diritti.

    4.7

    Per quanto riguarda la rimozione dei contenuti illeciti, si propone di accrescere l'efficacia delle proposte mediante l'introduzione di un elemento chiaramente dissuasivo come la divulgazione al pubblico delle misure adottate, nel rispetto della certezza del diritto, dato che questo rafforzerebbe gli standard di trasparenza, un fattore che rappresenta una condizione necessaria per un'attuazione riuscita ed efficiente della proposta normativa.

    Occorre assicurare un alto livello di protezione nei rapporti tra le piattaforme, i consumatori e gli altri operatori economici. È importante incoraggiare la trasparenza del sistema e il rafforzamento della cooperazione tra le piattaforme stesse, e tra queste e le autorità, allo scopo di intensificare la lotta contro i contenuti illeciti.

    4.8

    Infine, le proposte specifiche riguardanti i minori che possono essere adattate in funzione del grado di vulnerabilità devono essere estese ad altri gruppi vulnerabili della popolazione adulta.

    Bruxelles, 14 marzo 2018

    Il presidente del Comitato economico e sociale europeo

    Georges DASSIS


    (1)  Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni — Le piattaforme online e il mercato unico digitale: opportunità e sfide per l'Europa, COM(2016) 288 final del 25 maggio 2016.

    (2)  GU C 75 del 10.3.2017, pag. 119.

    (3)  Direttiva 2000/31/CE del Parlamento europeo e del Consiglio, dell'8 giugno 2000, relativa a taluni aspetti giuridici dei servizi della società dell'informazione, in particolare il commercio elettronico, nel mercato interno (GU L 178 del 17.7.2000, pag. 1).

    (4)  GU C 34 del 2.2.2017, pag. 100.


    Top