COMMISSIONE EUROPEA
Bruxelles, 28.9.2017
COM(2017) 555 final
COMUNICAZIONE DELLA COMMISSIONE AL PARLAMENTO EUROPEO, AL CONSIGLIO, AL COMITATO ECONOMICO E SOCIALE EUROPEO E AL COMITATO DELLE REGIONI
Lotta ai contenuti illeciti online
Verso una maggiore responsabilizzazione delle piattaforme online
1.Introduzione
Le piattaforme online sono importanti fattori di innovazione e di crescita nell'economia digitale. Offrono possibilità senza precedenti di accesso a informazioni e scambi, nonché nuove opportunità di mercato, in particolare per le piccole e medie imprese (PMI). Oggigiorno le piattaforme online costituiscono anche il principale punto di accesso a informazioni e altri contenuti su Internet per gran parte delle persone, tramite motori di ricerca, social network, siti di microblogging o piattaforme di condivisione di video. Recentemente inoltre i modelli operativi delle piattaforme si sono evoluti creando collegamenti più stretti tra gli utenti e i contenuti, segnatamente sotto l'aspetto della pubblicità mirata. Tali piattaforme mettono in collegamento miliardi di utenti con grandi quantità di contenuti e informazioni e forniscono servizi innovativi ai cittadini e alle imprese.
La grande diffusione di contenuti illegali che possono essere caricati - e quindi consultati - online suscita tuttavia serie preoccupazioni che richiedono risposte convincenti ed efficaci. Ciò che è illegale offline è illegale anche online. L'incitamento al terrorismo, le esternazioni xenofobe e razziste che istigano pubblicamente all'odio e alla violenza nonché la pornografia minorile sono illegali nell'UE. La crescente disponibilità di materiale terroristico online e la diffusione di tali contenuti costituiscono una seria minaccia alla sicurezza oltre che alla dignità delle vittime. L'Unione europea ha risposto a tali preoccupazioni attraverso un certo numero di misure, ma l'individuazione e la rimozione di contenuti illegali online rappresenta oggi una sfida urgente per la società digitale.
Preoccupato da diversi attacchi terroristici nell'UE e dalla proliferazione della propaganda terroristica online, il Consiglio europeo del 22-23 giugno 2017 ha dichiarato che "si aspetta che le imprese [...] sviluppino nuove tecnologie e nuovi strumenti al fine di migliorare l'individuazione automatica e la rimozione dei contenuti che incitano a compiere atti terroristici. Se necessario si dovrebbero completare tali iniziative con le pertinenti misure legislative a livello dell'UE". Queste richieste sono state riprese nelle dichiarazioni rilasciate dai leader del G7 e del G20 nei loro recenti vertici. Analogamente, nella risoluzione sulle piattaforme online del giugno 2017, il Parlamento europeo ha sollecitato tali piattaforme a "rafforzare le misure per affrontare i contenuti illegali e nocivi online", chiedendo al contempo alla Commissione di presentare proposte per affrontare tali questioni.
Le piattaforme online che gran parte degli utenti di Internet consultano per accedere ai contenuti hanno la pesante responsabilità, nei confronti della società, di proteggere gli utenti e il pubblico in generale nonché prevenire lo sfruttamento dei loro servizi da parte di criminali e altri soggetti coinvolti in attività illegali online. Gli spazi digitali aperti che forniscono non devono diventare terreno fertile, ad esempio, per il terrorismo, l'incitamento all'odio, la violenza su minori o il traffico di esseri umani, né luoghi che eludono lo Stato di diritto. La diffusione di contenuti illegali online può chiaramente indebolire la fiducia dei cittadini nei confronti dell'ambiente digitale, ma potrebbe anche minacciare l'ulteriore sviluppo economico degli ecosistemi delle piattaforme e del mercato unico digitale. Le piattaforme online dovrebbero intensificare con fermezza le loro azioni per affrontare tale problema, come parte della responsabilità derivante dal loro ruolo centrale nella società.
La lotta contro i contenuti illegali online deve essere condotta assicurando appropriate e solide garanzie per la tutela dei diversi diritti fondamentali in gioco. Vista la crescente importanza del loro ruolo nel fornire accesso alle informazioni, le piattaforme online rivestono anche un ruolo chiave nel raggiungimento di tale equilibrio. La lotta contro i contenuti illegali online all'interno dell'UE dovrebbe prendere le mosse dalle azioni dell'Unione a livello globale e tenerne conto.
La presente comunicazione stabilisce una serie di orientamenti e principi affinché le piattaforme online intensifichino la lotta contro i contenuti illegali online in cooperazione con le autorità nazionali, gli Stati membri e i portatori d'interessi pertinenti. È volta a facilitare e intensificare l'attuazione di buone pratiche per prevenire, individuare, rimuovere e disabilitare l'accesso a contenuti illegali al fine di garantire l'efficace rimozione di contenuti illegali, una maggiore trasparenza e la tutela dei diritti fondamentali online. Mira inoltre a fornire chiarimenti alle piattaforme in merito alla loro responsabilità nell'adozione di misure proattive volte a individuare, rimuovere o disabilitare l'accesso a contenuti illegali (le cosiddette azioni da "buon samaritano").
2.Contesto
L'Unione europea ha già affrontato la sfida dei contenuti illegali online tramite misure sia vincolanti sia non vincolanti. Le risposte politiche apportate includono la direttiva sulla lotta contro l'abuso e lo sfruttamento sessuale dei minori e la pedopornografia, la direttiva antiterrorismo, le misure proposte nel contesto delle riforme del diritto d'autore e la direttiva sui servizi di media audiovisivi (direttiva SMA).
Le misure legislative, adottate e proposte, sono state integrate da una serie di misure non legislative, come il codice di condotta per contrastare l'illecito incitamento all'odio online, il lavoro del Forum dell'UE su Internet per quanto riguarda la propaganda terroristica, il protocollo d'intesa sulla vendita di merci contraffatte, la comunicazione della Commissione sulla sorveglianza del mercato sui prodotti venduti online, la vendita online di prodotti della catena alimentare, il Piano d'azione dell'UE contro il traffico di specie selvatiche, gli orientamenti relativi alla direttiva sulle pratiche commerciali sleali o le azioni congiunte delle autorità nazionali all'interno della rete di cooperazione per la tutela dei consumatori. La Strategia europea per un'Internet migliore per i ragazzi è un'iniziativa di autoregolamentazione volta a migliorare l'ambiente online per i bambini e i ragazzi, visti i rischi di esposizione a materiale quale contenuti violenti o a sfondo sessuale, o bullismo online.
Nelle sue comunicazioni del 2016 e del 2017, la Commissione ha sottolineato la necessità che le piattaforme online agiscano in modo più responsabile e intensifichino l'impegno di autoregolamentazione a livello dell'UE per rimuovere i contenuti illegali. La Commissione si è inoltre impegnata a migliorare il coordinamento dei vari dialoghi settoriali con le piattaforme e a valutare la necessità di orientamenti riguardanti le procedure formali di segnalazione e azione. Ciò dovrebbe avvenire tenendo conto e senza pregiudizio dei dialoghi già in corso e dei lavori avviati in altri settori, come nell'ambito dell'Agenda europea sulla sicurezza o nel campo dell'illecito incitamento all'odio.
Le recenti relazioni su alcune di queste iniziative settoriali hanno dimostrato qualche progresso. Nel caso dell'illecito incitamento all'odio, le relazioni del luglio 2017 indicavano un aumento del contenuto rimosso dietro segnalazione dal 28% al 59% in alcuni paesi dell'UE in un periodo di sei mesi, ma con importanti differenze tra le piattaforme. Nello stesso periodo sono stati registrati anche alcuni miglioramenti nella velocità di rimozione, mentre ancora il 28% delle rimozioni è avvenuto solo dopo una settimana. Questo dimostra che un approccio non normativo potrebbe produrre risultati, in particolare se affiancato a misure che garantiscono di facilitare la cooperazione tra tutti gli operatori interessati. Nel quadro della lotta del Forum dell'UE su Internet contro i contenuti di natura terroristica, circa l'80-90% dei contenuti segnalati da Europol è stato rimosso dall'istituzione del Forum. Nel contesto della pornografia minorile, il sistema di linee dirette di INHOPE già nel 2015 ha riportato un tasso di rimozione del 91% entro 72 ore, con 1 contenuto su 3 eliminato entro 24 ore.
I vari dialoghi settoriali in corso hanno inoltre evidenziato una grande somiglianza delle procedure in materia di individuazione, identificazione, rimozione e divieto di ri-caricamento nei diversi settori. Tali conclusioni sono alla base della presente comunicazione.
A livello dell'UE, il quadro giuridico generale per la rimozione dei contenuti illegali è la direttiva sul commercio elettronico, che tra l'altro armonizza le condizioni alle quali certe piattaforme online possono beneficiare della deroga in materia di responsabilità per i contenuti illegali che ospitano in tutto il mercato unico digitale.
I contenuti illegali sulle piattaforme online possono diffondersi in particolare tramite servizi online che permettono il caricamento di contenuti di terzi. Tali servizi di "hosting" sono, a determinate condizioni, trattati nell'articolo 14 della direttiva sul commercio elettronico, il quale stabilisce che i prestatori di servizi di hosting non possono essere considerati responsabili per le informazioni memorizzate su richiesta di terzi, a condizione che: a) non siano effettivamente al corrente del fatto che l'attività o l'informazione è illecita e, per quanto attiene ad azioni risarcitorie, non siano al corrente di fatti o di circostanze che rendono manifesta l'illegalità dell'attività o dell'informazione; o b) non appena al corrente di tali fatti, agiscano immediatamente per rimuovere le informazioni o per disabilitarne l'accesso. Allo stesso tempo, la direttiva dovrebbe "costituire la base adeguata per elaborare sistemi rapidi e affidabili idonei a rimuovere le informazioni illecite e disabilitare l'accesso alle medesime".
Inoltre, l'articolo 15 dispone che "nella prestazione dei servizi di cui [all'articolo 14], gli Stati membri non impongono ai prestatori un obbligo generale di sorveglianza sulle informazioni che trasmettono o memorizzano né un obbligo generale di ricercare attivamente fatti o circostanze che indichino la presenza di attività illecite". Allo stesso tempo, il considerando 47 della direttiva ricorda che ciò riguarda unicamente gli obblighi di sorveglianza di carattere generale e "non riguarda gli obblighi di sorveglianza in casi specifici e, in particolare, lascia impregiudicate le ordinanze emesse dalle autorità nazionali secondo le rispettive legislazioni".
In tale contesto, nella sua comunicazione del 2016 sulle piattaforme online, la Commissione si è impegnata a mantenere un regime di responsabilità equilibrato e prevedibile per le piattaforme online, come quadro normativo fondamentale a sostegno dell'innovazione digitale in tutto il mercato unico digitale.
Gli orientamenti di cui alla presente comunicazione non pregiudicano l'acquis dell'UE e riguardano le attività delle piattaforme online e in particolare i servizi di hosting forniti da tali piattaforme ai sensi dell'articolo 14 della direttiva del commercio elettronico, e trattano tutte le categorie di contenuti illegali ma tengono debitamente conto del fatto che diversi tipi di contenuti possono richiedere un trattamento differente.
Attualmente nell'UE non esiste un approccio armonizzato e coerente alla rimozione dei contenuti illegali, bensì diversi approcci a seconda dello Stato membro, della categoria di contenuto o del tipo di piattaforma online. Un approccio più allineato renderebbe più efficace la lotta contro i contenuti illegali. Andrebbe inoltre a beneficio dello sviluppo del mercato unico digitale e ridurrebbe il costo della conformità a un gran numero di norme per le piattaforme online, anche per i nuovi operatori.
È importante sottolineare che detto quadro giuridico non definisce, né tanto meno armonizza, ciò che costituisce un contenuto "illegale". Ciò che è illecito è determinato dalla legislazione specifica a livello dell'UE, oltre che dal diritto nazionale. Sebbene, per esempio, il materiale terroristico, all'incitamento all'odio, la pornografia minorile o il traffico di esseri umani siano, per loro natura, caratteristiche e danni causati, molto diversi dalle violazioni dei diritti di proprietà intellettuale, dalle norme sulla sicurezza dei prodotti, dalle pratiche commerciali illecite online o dalle attività online di carattere diffamatorio, tutti questi tipi diversi di contenuto illegale rientrano nello stesso quadro giuridico globale definito dalla direttiva sul commercio elettronico. Inoltre, viste le significative somiglianze del processo di rimozione per tali tipi di contenuti differenti, la presente comunicazione tratta l'intera gamma di contenuti illegali online, consentendo allo stesso tempo differenze settoriali ove opportuno e giustificato.
Nell'UE, i tribunali e le autorità nazionali competenti, comprese le autorità di contrasto, hanno facoltà di avviare azioni penali e imporre sanzioni penali, nell'ambito di un giusto processo, concernenti l'illegalità di una determinata attività o informazione online. Allo stesso tempo, le piattaforme online hanno il diritto di impedire che le loro infrastrutture e la loro attività siano utilizzate al fine di commettere reati, hanno la responsabilità di proteggere i loro utenti e di prevenire i contenuti illegali sulla loro piattaforma, e dispongono solitamente dei mezzi tecnici per identificare e rimuovere tali contenuti. Ciò è tanto più importante perché le piattaforme online hanno effettuato investimenti massicci al fine di sviluppare tecnologie elaborate volte a raccogliere proattivamente informazioni riguardanti i contenuti diffusi sulle loro infrastrutture e il comportamento degli utenti. Benché sia importante prendere decisioni rapide riguardanti la rimozione di contenuti illegali, occorre anche applicare garanzie adeguate. Ciò richiede anche una ripartizione equilibrata dei ruoli tra organismi pubblici e privati.
Gli orientamenti e i principi stabiliti nella presente comunicazione non sono pertanto rivolti unicamente all'individuazione e alla rimozione di contenuti illegali, ma tentano anche di dissipare le preoccupazioni riguardanti la rimozione dei contenuti leciti, a volte denominata "rimozione abusiva", che a sua volta incide sulla libertà di espressione e sul pluralismo dei mezzi di comunicazione di massa. Dovrebbero quindi essere previste garanzie adeguate, adattate al tipo specifico di contenuto illegale interessato.
Esistono indubbiamente preoccupazioni d'interesse pubblico riguardanti i contenuti non necessariamente illegali ma potenzialmente nocivi, come le notizie false o i contenuti nocivi per i minorenni. Ad ogni modo, l'attenzione della presente comunicazione è rivolta all'individuazione e alla rimozione dei contenuti illegali.
3.Individuare e segnalare contenuti illegali
L'obiettivo della presente sezione è stabilire ciò che le piattaforme online, le autorità competenti e gli utenti dovrebbero fare al fine di individuare i contenuti illegali in modo rapido ed efficiente.
Le piattaforme online potrebbero accorgersi dell'esistenza di contenuti illegali in molti modi diversi, attraverso canali di segnalazione differenti, ad esempio: i) provvedimenti giudiziari o decisioni amministrative; ii) segnalazioni da parte di autorità competenti (ad esempio organismi di contrasto), "segnalatori attendibili" specializzati, titolari di diritti di proprietà intellettuale o comuni utenti, o iii) attraverso le indagini o le scoperte delle piattaforme stesse.
Oltre agli obblighi giuridici derivanti dal diritto dell'UE e nazionale e il loro "dovere di diligenza", nell'ambito delle loro responsabilità le piattaforme online dovrebbero garantire un ambiente online sicuro per gli utenti, ostile allo sfruttamento criminale o di altra natura illecita, e che dissuada e prevenga le attività criminali e le altre attività illecite online.
4.Tribunali e autorità competenti
In conformità al diritto dell'UE e/o nazionale, i tribunali nazionali e, in determinati casi, le autorità competenti possono rilasciare provvedimenti vincolanti o decisioni amministrative destinati alle piattaforme online che impongono la rimozione di contenuti illegali o il blocco dell'accesso ai medesimi.
Atteso che la rapida rimozione del materiale illecito è spesso essenziale al fine di limitare una diffusione e un danno più ampi, le piattaforme online dovrebbero anche essere in grado di prendere decisioni rapide riguardanti possibili azioni in relazione ai contenuti illegali online senza essere obbligate a farlo sulla base di un provvedimento giudiziario o di una decisione amministrativa, in particolare quando un'autorità di contrasto le informa di un presunto contenuto illegale individuato. Allo stesso tempo, quando attuano le loro responsabilità in tal senso le piattaforme online dovrebbero predisporre adeguate garanzie al fine di garantire il diritto degli utenti ad un rimedio efficace.
Le piattaforme online dovrebbero pertanto disporre delle risorse necessarie per comprendere i quadri giuridici in cui operano. Dovrebbero inoltre cooperare strettamente con le autorità di contrasto e altre autorità competenti se del caso, in particolare accertandosi di poter essere contattate in modo rapido ed efficace per richieste di rimozione immediata di contenuti illegali e anche al fine, se del caso, di avvertire le autorità di contrasto di segnali di attività criminali online. Al fine di evitare la duplicazione degli sforzi e delle segnalazioni e la conseguente riduzione dell'efficienza e dell'efficacia del processo di rimozione, le autorità di contrasto e le altre autorità competenti dovrebbero inoltre intraprendere ogni sforzo per cooperare tra loro nella definizione di interfacce digitali efficaci che facilitino la presentazione rapida ed affidabile di segnalazioni e garantiscano l'efficiente identificazione e segnalazione dei contenuti illegali. L'istituzione di punti di contatto da parte delle piattaforme e delle autorità è essenziale per il corretto funzionamento di tale cooperazione.
Per i contenuti di natura terroristica, presso Europol è stata istituita un'unità UE addetta alle segnalazioni su Internet (IRU), in cui esperti di sicurezza valutano e segnalano contenuti terroristici alle piattaforme online (mentre alcuni Stati membri hanno le loro IRU nazionali).
Le piattaforme online dovrebbero rafforzare sistematicamente la loro cooperazione con le autorità competenti degli Stati membri, mentre gli Stati membri dovrebbero garantire che i tribunali siano in grado di sanzionare efficacemente i contenuti illegali online, e che sia instaurata una cooperazione (transfrontaliera) più forte tra le autorità.
Le piattaforme online e le autorità di contrasto o le altre autorità competenti dovrebbero designare punti di contatto efficaci nell'UE e se del caso definire interfacce digitali efficaci per facilitarne l'interazione.
Le piattaforme e le autorità di contrasto sono inoltre incoraggiate a sviluppare interfacce tecniche che consentano loro di cooperare in modo più efficace nell'intero ciclo di governance dei contenuti. Anche la cooperazione con la comunità tecnica può essere utile per progredire e apportare soluzioni efficaci e tecnicamente valide a tale sfida.
5.Segnalazioni
6.Segnalatori attendibili
La rimozione di contenuti illegali online avviene in modo più rapido ed affidabile quando le piattaforme online predispongono meccanismi volti a fornire un canale privilegiato per gli autori di segnalazioni che offrono una particolare competenza nel comunicare la presenza di contenuti potenzialmente illegali sul loro sito web. Questi sono i cosiddetti "segnalatori attendibili", entità specializzate dotate di competenza specifica nell'identificazione di contenuti illegali e di strutture dedicate per l'individuazione e l'identificazione di tali contenuti online.
Rispetto agli utenti comuni, ci si può attendere che i segnalatori attendibili apportino la loro competenza e lavorino con parametri qualitativi elevati, il che dovrebbe comportare segnalazioni di qualità più elevata e rimozioni più rapide. Le piattaforme online sono incoraggiate a fare ricorso alle reti esistenti di segnalatori attendibili. Per i contenuti terroristici, ad esempio, l'unità addetta alle segnalazioni su Internet di Europol ha la competenza necessaria per valutare se un determinato contenuto costituisce un contenuto terroristico ed estremista violento online, e utilizza tale competenza per agire in qualità di segnalatore attendibile, oltre al suo ruolo di contrasto. La rete di linee dirette per la segnalazione di pornografia minorile INHOPE è un altro esempio di segnalatore attendibile; per quanto riguarda i contenuti di illecito incitamento all'odio, esistono organizzazioni della società civile o organismi parastatali specializzati nell'identificazione e nella segnalazione di contenuti razzisti e xenofobi illegali online.
Al fine di garantire l'elevata qualità delle segnalazioni e una più rapida rimozione dei contenuti illegali, l'industria potrebbe concordare criteri a livello dell'UE basati in particolare sul rispetto dei diritti fondamentali e dei valori democratici. Questo può avvenire attraverso meccanismi di autoregolamentazione o all'interno del quadro di normalizzazione dell'UE, nell'ambito del quale una particolare entità può essere considerata un segnalatore attendibile, lasciando una flessibilità sufficiente per tenere conto delle caratteristiche specifiche dei contenuti e del ruolo del segnalatore attendibile. Altri criteri potrebbero includere, a titolo non esaustivo, norme per la formazione interna, norme di processo e garanzia della qualità, nonché garanzie giuridiche riguardanti l'indipendenza, i conflitti di interessi, la tutela della vita privata e dei dati personali. Tali garanzie sono particolarmente importanti nel limitato numero di casi in cui le piattaforme rimuovano contenuti in seguito alla segnalazione da parte del segnalatore attendibile senza verificarne ulteriormente la legittimità. In questi casi limitati, i segnalatori attendibili potrebbero essere sottoposti a verifica a fronte di detti criteri, e un programma di certificazione potrebbe attestare lo stato di soggetto fidato. In ogni caso dovrebbero essere disponibili sufficienti garanzie volte a prevenire l'abuso del sistema, come indicato nella sezione 4.3.
Alle autorità competenti dovrebbe essere offerta la possibilità di partecipare ai meccanismi di segnalazione dei segnalatori attendibili, ove pertinente.
Occorre trovare un ragionevole equilibrio tra la garanzia di un'elevata qualità delle segnalazioni provenienti da segnalatori attendibili, l'entità delle misure supplementari che le società adotterebbero in relazione ai segnalatori attendibili e l'onere di garantire tali parametri qualitativi. In caso di abuso dei meccanismi dei segnalatori attendibili rispetto alle norme definite, il privilegio dello stato di segnalatore attendibile dovrebbe essere rimosso.
La Commissione incoraggia la stretta cooperazione tra le piattaforme online e i segnalatori attendibili. Le comunicazioni dei segnalatori attendibili dovrebbero essere trattate con procedura accelerata da parte della piattaforma. Tale cooperazione dovrebbe comportare un reciproco scambio di informazioni al fine di valutare e migliorare il processo di rimozione nel corso del tempo.
La Commissione esaminerà ulteriormente, in particolare nel corso di colloqui con i portatori di interessi, la possibilità di convenire criteri a livello dell'UE per i segnalatori attendibili.
7.Segnalazioni da parte degli utenti
Nella lotta efficace contro i contenuti illegali online, gli utenti comuni dovrebbero essere autorizzati a segnalare contenuti illegali alle piattaforme online e dovrebbero confidare nel fatto che le segnalazioni motivate saranno prese in considerazione e gestite rapidamente.
Le piattaforme online dovrebbero istituire un meccanismo facilmente accessibile e comprensibile che consenta agli utenti di segnalare i contenuti considerati illegali ospitati sulle piattaforme.
Se i contenuti sono pubblicamente disponibili, tali meccanismi di segnalazione dovrebbero essere disponibili anche al pubblico, senza che sia necessario essere registrato come utente. Per migliorare l'efficienza e la precisione della valutazione di contenuti potenzialmente illegali, tale meccanismo dovrebbe consentire una facile segnalazione tramite mezzi elettronici.
La proposta della Commissione di revisione della direttiva sui servizi di media audiovisivi mira a imporre ai gestori di piattaforme di condivisione di video di istituire e gestire meccanismi che consentano agli utenti di riferire o segnalare contenuti audiovisivi che potrebbero nuocere allo sviluppo fisico, mentale o morale dei minori, nonché contenuti che incitano alla violenza o all'odio.
8.Garanzia dell'elevata qualità delle segnalazioni
Le piattaforme online dovrebbero predisporre meccanismi efficaci volti a facilitare la presentazione di segnalazioni sufficientemente precise e adeguatamente giustificate al fine di consentire alle piattaforme di prendere decisioni rapide e informate sui provvedimenti da adottare. Ciò dovrebbe facilitare l'invio di segnalazioni che contengono una spiegazione dei motivi per cui l'autore della segnalazione considera il contenuto illecito e una chiara indicazione dell'ubicazione del contenuto potenzialmente illegale (ad esempio l'indirizzo URL).
Tali meccanismi di segnalazione dovrebbero essere visibili, facilmente accessibili, comprensibili e contestuali. Dovrebbero inoltre consentire una facile segnalazione di diversi tipi di contenuti, ad esempio attraverso la selezione da un elenco di categorie di motivi per cui il contenuto è considerato illegale. Se tecnicamente praticabile, è possibile utilizzare elementi che consentano di effettuare segnalazioni immediatamente alla prima apparizione del materiale o di riutilizzare le credenziali di accesso.
Una segnalazione sufficientemente motivata e dettagliata consente alla piattaforma di reperire rapidamente il contenuto potenzialmente illegale, di effettuarne una valutazione approfondita dell'illiceità del contenuto e di agire immediatamente se del caso. L'esatto livello di dettaglio richiesto dalle piattaforme per prendere rapidamente decisioni informate può variare considerevolmente in base al tipo di contenuto.
In generale gli utenti non dovrebbero essere obbligati a identificarsi quando segnalano quello che considerano un contenuto illegale, salvo che tale informazione sia richiesta al fine di determinare la liceità del contenuto (ad esempio quando si vanta la titolarità dei diritti di proprietà intellettuale). Ciò vale in particolare se la loro sicurezza è a rischio o se rivelarne l'identità potrebbe avere implicazioni giuridiche. Gli utenti dovrebbero essere incoraggiati a far pervenire le segnalazioni attraverso segnalatori attendibili, se presenti, ogni volta che desiderano mantenere l'anonimato nei confronti delle piattaforme.
Gli autori delle segnalazioni tuttavia dovrebbero avere la possibilità di fornire volontariamente i propri dati di contatto in una comunicazione, al fine di consentire alla piattaforma online di chiedere informazioni aggiuntive o di informare l'autore della segnalazione di qualsiasi seguito previsto. In tal caso, l'autore della segnalazione dovrebbe ricevere una conferma di ricezione e una comunicazione indicante i provvedimenti presi.
Una conferma di ricezione non solo impedisce che l'autore della segnalazione sia tenuto a controllare se la sua comunicazione ha avuto seguito, ma può anche fungere da prova in procedimenti giudiziari o stragiudiziali in conformità alle norme procedurali applicabili.
9.Misure proattive adottate dalle piattaforme online
10.Misure proattive e deroga alla responsabilità
Alla luce della centralità del loro ruolo e delle loro capacità, nonché delle loro responsabilità in materia, le piattaforme online dovrebbero adottare misure proattive efficaci volte a individuare e rimuovere i contenuti illegali online e non solo limitarsi a reagire alle segnalazioni ricevute. Inoltre per certe categorie di contenuti illegali l'obiettivo di ridurre il rischio di un danno grave potrebbe non essere conseguibile pienamente in assenza di misure proattive delle piattaforme.
La Commissione ritiene che l'adozione di tali misure proattive volontarie non comporti automaticamente la perdita da parte della piattaforma online del beneficio della deroga in materia di responsabilità di cui all'articolo 14 della direttiva sul commercio elettronico.
In primo luogo, tale deroga alla responsabilità è disponibile solo per i prestatori di servizi di "hosting" che rispettano le condizioni di cui all'articolo 14 della direttiva; tali prestatori di servizi sono quelli le cui attività consistono nella memorizzazione di informazioni su richiesta di terzi e che non rivestono un ruolo attivo che consente loro di venire a conoscenza di tali informazioni o avere controllo su queste.
Il considerando 38 della proposta della Commissione di una direttiva sul diritto d'autore nel mercato unico digitale, del 14 settembre 2016, prevede a tal riguardo: "Per quanto concerne l'articolo 14 [della direttiva sul commercio elettronico] è necessario verificare se il prestatore di servizi svolge un ruolo attivo, anche ottimizzando la presentazione delle opere o altro materiale caricati o promuovendoli, indipendentemente dalla natura del mezzo utilizzato a tal fine".
In particolare in relazione all'articolo 14 della direttiva sul commercio elettronico, nella causa L'Oréal contro eBay, la Corte di giustizia ha chiarito che "la mera circostanza che [una piattaforma online] memorizzi sul proprio server le offerte in vendita, stabilisca le modalità del suo servizio, sia ricompensato per quest'ultimo e fornisca informazioni d'ordine generale ai propri clienti non può avere l'effetto di privarlo delle deroghe in materia di responsabilità previste dall'[articolo 14 della direttiva sul commercio elettronico]". Tuttavia, la Corte ha sancito che tale effetto esiste "[l]addove, per contro, detta [piattaforma online] abbia prestato un'assistenza consistente segnatamente nell'ottimizzare la presentazione delle offerte in vendita di cui trattasi e nel promuovere tali offerte".
Ciò suggerisce che la mera circostanza che una piattaforma online adotti determinate misure relative alla prestazione dei suoi servizi in generale non significa necessariamente che rivesta un ruolo attivo in relazione ai singoli contenuti che memorizza e che non possa beneficiare della deroga alla responsabilità per tale motivo. Secondo l'avviso della Commissione tali misure possono, e di fatto dovrebbero, includere anche misure proattive volte a individuare e rimuovere contenuti illegali online, in particolare se tali misure sono adottate nell'ambito dell'applicazione delle condizioni del servizio della piattaforma online. Questo sarà in linea con l'equilibrio tra i vari interessi in gioco che la direttiva sul commercio elettronico si propone di raggiungere. Infatti la direttiva rammenta che è nell'interesse di tutti i portatori di interessi adottare e attuare sistemi rapidi e affidabili idonei a rimuovere le informazioni illecite e disabilitare l'accesso alle medesime. Sebbene non imponga alle piattaforme online di partecipare all'indagine fattuale attiva generale, tale direttiva riconosce anche l'importanza di misure volontarie
.
In secondo luogo, in conformità all'articolo 14 della direttiva sul commercio elettronico, i prestatori di servizi che rientrano nell'ambito di applicazione di tale disposizione possono beneficiare della deroga alla responsabilità solo a due condizioni, segnatamente: a) non siano effettivamente al corrente del fatto che l'attività o l'informazione è illecita e, per quanto attiene ad azioni risarcitorie, non siano al corrente di fatti o di circostanze che rendono manifesta l'illegalità dell'attività o dell'informazione, o b) non appena al corrente di tali fatti, agiscano immediatamente per rimuovere le informazioni o per disabilitarne l'accesso.
La Corte di giustizia ha chiarito che tali condizioni riguardano "ogni circostanza in cui [la piattaforma online interessata] viene ad essere, in qualunque modo, al corrente di [fatti o circostanze in base ai quali un operatore economico diligente avrebbe dovuto constatare l'illiceità di cui trattasi]" e che ciò include – oltre alla segnalazione da parte di un soggetto terzo – la circostanza in cui la piattaforma "scopre l'esistenza di un'attività o di un'informazione illecite a seguito di un esame effettuato di propria iniziativa".
Ne consegue che le misure proattive adottate da una piattaforma online al fine di individuare e rimuovere contenuti illegali potrebbero far sì che essa venga a conoscenza di attività o informazioni illecite, il che potrebbe comportare la perdita della deroga alla responsabilità in conformità all'articolo 14, paragrafo 1, lettera a) della direttiva sul commercio elettronico. In tali casi tuttavia la piattaforma online continua ad avere la possibilità di agire immediatamente per rimuovere o disabilitare l'accesso alle informazioni interessate non appena al corrente di tali fatti. Qualora agisca in tal senso, la piattaforma online continua a beneficiare della deroga alla responsabilità a norma dell'articolo 14, paragrafo 1, lettera b). I timori legati alla perdita del beneficio della deroga alla responsabilità non dovrebbe pertanto scoraggiare o precludere l'applicazione delle misure proattive volontarie efficaci che la presente comunicazione intende incoraggiare.
11.Utilizzo della tecnologia al fine di individuare contenuti illegali
Visto il volume di materiale gestito dalle piattaforme online in veste di intermediario, nonché il progresso tecnologico nell'elaborazione di informazioni e nell'intelligenza artificiale, l'uso di tecnologie di individuazione e filtraggio automatico sta diventando uno strumento ancora più importante nella lotta contro i contenuti illegali online. Attualmente molte grandi piattaforme utilizzano qualche forma di algoritmo di abbinamento basata su una serie di tecnologie, dal semplice filtraggio dei metadati fino all'indirizzamento calcolato e alla marcatura (fingerprinting) dei contenuti.
La direttiva sul commercio elettronico chiarisce che le disposizioni relative alla responsabilità non impediscono di sviluppare e utilizzare effettivamente sistemi tecnici di protezione e di identificazione nonché strumenti tecnici di sorveglianza resi possibili dalla tecnologia digitale
. Come chiarito anche dalla direttiva, tale utilizzo deve tuttavia avvenire entro i limiti fissati delle norme applicabili del diritto dell'UE e nazionale, in particolare in materia di tutela della vita privata e dei dati personali, e dal divieto nei confronti degli Stati membri di imporre obblighi generali di sorveglianza.
Le legislazioni settoriali possono definire norme obbligatorie per l'adozione di misure da parte delle piattaforme online, ad esempio in materia di diritto d'autore, per contribuire a garantire l'individuazione e la rimozione di contenuti illegali, anche quando hanno diritto alla deroga alla responsabilità di cui all'articolo 14 della direttiva sul commercio elettronico.
Più in generale, l'uso e l'ulteriore elaborazione di tale tecnologia è incoraggiato in particolare quando è in gioco un danno grave, come sollecitato dalle conclusioni del Consiglio europeo del 22 giugno 2017. Gli strumenti e i filtri automatici possono essere usati per identificare contenuti potenzialmente illegali e la ricerca privata e pubblica sta progredendo nell'elaborazione di tali strumenti. Nel settore del diritto d'autore, per esempio, il riconoscimento automatico dei contenuti si dimostra uno strumento efficace da diversi anni.
La Commissione sostiene il progresso della ricerca e approcci innovativi che superino lo stato della tecnica con l'obiettivo di migliorare l'accuratezza dei mezzi tecnici volti all'identificazione di contenuti illegali
. Incoraggia inoltre l'industria a garantire una diffusione efficace delle innovazioni che potrebbero contribuire ad una maggiore efficacia ed efficienza delle procedure di individuazione automatica.
In gran parte dei casi, le migliori pratiche attuali dell'industria prevedono l'uso di strumenti automatici al fine di restringere l'insieme di contenuti controversi per sottoporli ad un esame accurato da parte di esperti umani, che quindi potrebbero dover valutare la natura illecita di tali contenuti. Tale principio di intervento umano nel processo automatizzato costituisce, in generale, un elemento importante delle procedure automatiche che ambiscono a determinare l'illiceità di un dato contenuto, in particolare in settori in cui i tassi di errore sono elevati o in cui è necessaria la contestualizzazione.
La Commissione ritiene che le misure proattive adottate dalle piattaforme online che rientrano nel campo di applicazione dell'articolo 14 della direttiva sul commercio elettronico al fine di individuare e rimuovere i contenuti illegali che ospitano – compreso l'uso di strumenti automatici e strumenti volti a garantire che i contenuti precedentemente rimossi non siano ricaricati – non comportino di per sé una perdita della deroga alla responsabilità.
In particolare, l'adozione di tali misure non implica necessariamente che la piattaforma online interessata rivesta un ruolo attivo che non le consentirebbe più di beneficiare della deroga stessa. Quando l'adozione di tali misure comporta che la piattaforma online sia informata o si renda conto di attività o di informazioni illecite, la piattaforma deve agire immediatamente per rimuovere o disabilitare l'accesso alle informazioni illecite in questione al fine di soddisfare la condizione per continuare a beneficiare della deroga.
Le piattaforme online dovrebbero fare del loro meglio al fine di individuare, individuare e rimuovere proattivamente i contenti illegali online. La Commissione incoraggia vivamente le piattaforme online ad adottare misure proattive volontarie volte all'individuazione e alla rimozione dei contenuti illegali e ad intensificare la cooperazione e l'investimento nelle tecnologie di individuazione automatica e il loro uso.
12.Rimozione di contenuti illegali
È nell'interesse dell'intera società che le piattaforme rimuovano i contenuti illegali il più rapidamente possibile. Allo stesso tempo, la rimozione di tali contenuti non dovrebbe precludere l'azione penale o altri provvedimenti nei confronti di qualsiasi violazione sottostante del diritto. La condivisione di prove tra le autorità pubbliche e le piattaforme online è una strategia importante in tal senso. L'accesso transfrontaliero alle prove dovrebbe essere facilitato dall'imminente iniziativa legislativa sull'argomento. La rimozione di contenuti illegali da parte delle piattaforme non dovrebbe influire sulle indagini o sull'azione penale relative ai reati contemplati nel diritto dell'Unione o nazionale.
Dovrebbero inoltre essere disponibili solide garanzie per limitare il rischio di rimuovere contenuti leciti, sostenute da una serie di obblighi significativi di trasparenza volti ad aumentare la responsabilità dei processi di rimozione.
13.Garanzia di un'immediata rimozione e la segnalazione di reati alle autorità di contrasto
La direttiva sul commercio elettronico prevede che, se desiderano continuare a beneficiare della deroga alla responsabilità, le piattaforme online agiscano "immediatamente" per rimuovere i contenuti illegali non appena ne siano informate. Cosa ciò comporti in pratica dipende dal caso specifico, in particolare dal tipo di contenuto illegale, dall'accuratezza della segnalazione e dal potenziale danno causato.
In pratica, diversi tipi di contenuti richiedono una diversa quantità di informazioni contestuali al fine di determinarne la liceità. Per esempio, pur essendo facile determinare la natura illecita della pornografia minorile, la determinazione dell'illiceità di dichiarazioni diffamatorie richiede in genere un'analisi approfondita del contesto in cui sono avvenute.
Quando è in gioco un danno grave, per esempio nei casi di incitamento ad atti terroristici, la rapida rimozione è particolarmente importante e può essere soggetta a tempistiche specifiche.
Alcuni processi volontari come il codice di condotta per combattere l'illecito incitamento all'odio online hanno fornito obiettivi indicativi per i tempi di rimozione che sono - nella fattispecie - 24 ore nella maggior parte dei casi.
La cancellazione o la sospensione completamente automatizzate dei contenuti possono essere particolarmente efficaci e dovrebbero essere applicate quando le circostanze lasciano pochi dubbi sull'illiceità del materiale, ad esempio nei casi di materiale la cui rimozione viene segnalata da autorità di contrasto, o di contenuti illegali noti che erano stati precedentemente rimossi fatte salve le garanzie di cui alla sezione 4.3.
In linea generale, la rimozione a seguito di comunicazione da parte di segnalatori attendibili dovrebbe essere gestita più rapidamente, vista la qualità e l'accuratezza delle informazioni fornite nella segnalazione e l'attendibilità del segnalatore.
Nei casi in cui è in gioco un danno economico dovuto alla violazione di diritti di proprietà intellettuale, il potenziale danno economico derivante da tale violazione potrebbe essere strettamente connesso alla velocità della sua rimozione.
Una chiara indicazione, da parte delle piattaforme, del tempo necessario per trattare le richieste di rimozione in base al tipo di contenuto renderà più semplice valutare l'immediatezza del loro intervento e favorirà il rispetto dell'obbligo generale di rendicontazione delle piattaforme.
In alcuni casi, soprattutto se hanno difficoltà a valutare la liceità di un particolare contenuto e ciò riguarda una decisione potenzialmente controversa, le piattaforme online potrebbero trarre vantaggio dalla presentazione dei casi dubbi a un soggetto terzo per ricevere consulenza. Gli organismi di autoregolamentazione o le autorità competenti rivestono tale ruolo in diversi Stati membri. Nell'ambito della cooperazione rafforzata tra le piattaforme online e le autorità competenti, tale cooperazione è fortemente incoraggiata.
Infine le piattaforme online dovrebbero informare le autorità di contrasto quando vengono a conoscenza o riscontrano prove di reati o altre infrazioni al fine di allertare le autorità pertinenti e consentire loro di effettuare accertamenti e perseguire i soggetti che generano tali contenuti o l'abuso dei servizi da parte di organizzazioni criminali o terroristiche. Nel farlo, dovrebbero rispettare gli obblighi giuridici applicabili, compreso il regolamento (UE) 2016/679 sulla protezione dei dati personali. Ciò potrebbe essere opportuno nel caso dell'offerta e della vendita di prodotti e delle pratiche commerciali non conformi alla legislazione dell'UE.
La necessità di cooperare con le autorità di contrasto nell'indagine e nell'azione penale avverso i reati in alcuni casi potrebbe inoltre comportare che le piattaforme si astengano dalla rimozione dei contenuti illegali specifici, quando ciò è richiesto nel quadro di un'indagine specifica in corso, sotto la stretta supervisione delle autorità nazionali e in piena conformità alle norme nazionali di procedura penale.
Le autorità di contrasto dovrebbero creare la capacità necessaria per adottare azioni adeguate in risposta a tali segnalazioni. Un esempio di migliori pratiche riguardanti i punti di contatto è il portale SIRIUS istituito da Europol per sostenere gli Stati membri nelle indagini antiterrorismo online, anche facilitando la cooperazione tra le piattaforme e le autorità di contrasto dell'UE.
In conformità all'articolo 14 della direttiva sul commercio elettronico, se desiderano essere esonerate dalla responsabilità le piattaforme online devono rimuovere i contenuti illegali immediatamente non appena siano informate o si rendano conto della loro esistenza. Una rimozione particolarmente rapida è importante in caso di contenuti illegali in cui è in gioco un danno grave, ad esempio in casi di incitamento alla commissione di atti terroristici. Le tempistiche e le procedure di rimozione per diverse forme di contenuti illegali dovrebbero essere indicate chiaramente nelle relazioni sulla trasparenza.
La questione delle tempistiche fisse di rimozione sarà ulteriormente analizzata dalla Commissione.
Le prove di reati ottenute nel contesto della rimozione di contenuti illegali dovrebbero essere trasmesse alle autorità di contrasto, a condizione che ciò sia conforme in particolare ai requisiti di cui al regolamento (UE) 2016/679, soprattutto i motivi legittimi del trattamento di dati personali.
14.Aumento della trasparenza
15.Trasparenza sulla politica delle piattaforme online in materia di contenuti
La questione dell'eventuale liceità o illiceità dei contenuti è disciplinata dalle leggi dell'UE e nazionali. Allo stesso tempo le condizioni stesse del servizio delle piattaforme online possono stabilire che specifici tipi di contenuti sono indesiderati o inopportuni.
Le piattaforme online dovrebbero descrivere in modo dettagliato le loro politiche in materia di contenuti nelle condizioni del servizio e comunicarle chiaramente agli utenti. Tali condizioni non dovrebbero definire solo la politica relativa alla rimozione o alla disabilitazione dell'accesso ai contenuti, ma anche precisare le garanzie che assicurano che le misure relative ai contenuti non comportino una rimozione di contenuti leciti. In particolare, nell'ambito di una maggiore trasparenza delle politiche generali di rimozione delle piattaforme, le condizioni del servizio delle piattaforme online dovrebbero precisare chiaramente in quali casi l'utente può contestare una decisione di rimozione. Ciò dovrebbe contribuire a ridurre il potenziale effetto negativo sul diritto fondamentale degli utenti alla libertà di espressione e di informazione.
Le piattaforme online dovrebbero spiegare, nelle loro condizioni del servizio, in modo chiaro, facilmente comprensibile e sufficientemente dettagliato, la loro politica sui contenuti che disciplini il trattamento sia dei contenuti illegali sia dei contenuti che non rispettano le condizioni del servizio della piattaforma. Tutte le restrizioni sul tipo di contenuto consentito su una determinata piattaforma dovrebbero essere indicate e comunicate chiaramente ai rispettivi utenti. Tale spiegazione dovrebbe riguardare altresì le procedure poste in essere per contestare le decisioni di rimozione, anche quelle attivate da segnalatori attendibili.
16.Trasparenza su procedure di segnalazione e azione
Le relazioni sulla trasparenza dovrebbero trattare anche il risultato dell'applicazione delle politiche di gestione dei contenuti delle piattaforme.
Le piattaforme online dovrebbero pubblicare relazioni sulla trasparenza che contengano informazioni sufficientemente dettagliate sul numero e il tipo di segnalazioni ricevute e azioni intraprese, nonché il tempo dedicato al trattamento, così come la fonte della segnalazione
. Tali relazioni dovrebbero includere altresì informazioni sulle eventuali repliche alle segnalazioni e sui provvedimenti presi. La Commissione incoraggia la pubblicazione periodica - e almeno annuale - di tali informazioni.
Tenendo debitamente conto delle differenze contenutistiche, sarebbe utile se le relazioni sulla trasparenza presentassero un certo livello di normalizzazione all'interno del mercato unico digitale. Ciò consentirebbe una migliore sorveglianza, faciliterebbe l'aggregazione elettronica delle informazioni e potrebbe contribuire ad evitare inutili barriere alla prestazione transfrontaliera di servizi di hosting.
Particolare attenzione merita la comunicazione di tali dati sulla trasparenza da parte delle piattaforme online più piccole e delle PMI; inoltre qualsiasi attività di facilitazione, come la normalizzazione, dovrebbe ridurre al minimo gli oneri amministrativi.
La Commissione esaminerà ulteriormente, nel corso di dialoghi strutturati con l'industria, il potenziale di normalizzazione delle procedure di segnalazione e delle relazioni sulla trasparenza riguardanti i sistemi di rimozione e i loro risultati.
17.Garanzie contro la rimozione di contenuti leciti e l'abuso del sistema
Un'azione immediata, incluse le misure di filtraggio durante il caricamento o l'individuazione automatica volta a garantire la tempestiva rimozione dei contenuti illegali, in particolare in assenza di intervento umano nel processo, può incidere sull'accuratezza della decisione, compreso il rischio di rimozione di contenuti leciti. È quindi importante prevedere sufficienti garanzie affinché i contenuti rimossi erroneamente possano essere ripristinati.
18.Contestazione di una segnalazione
In generale i soggetti che hanno fornito i contenuti dovrebbero poter contestare una decisione di rimozione dei contenuti mediante una replica alla segnalazione, anche nel caso di rimozione automatizzata.
Secondo l'articolo 28 bis della proposta di modifica della direttiva SMA, per esempio, gli Stati membri devono garantire la disponibilità di meccanismi di reclamo e ricorso per la risoluzione delle controversie fra utenti e le piattaforme per la condivisione di video relativi all'applicazione delle opportune misure che tali piattaforme sono tenute ad adottare.
Se la replica alla segnalazione ha ragionevolmente dimostrato che l'attività o l'informazione oggetto della segnalazione non è illegale, il fornitore della piattaforma dovrebbe ripristinare senza ulteriore indugio il contenuto rimosso o consentire il ri-caricamento da parte dell'utente, fatte salve le condizioni del servizio della piattaforma.
La possibilità di contestare le decisioni dovrebbe portare a una riduzione del numero di rimozioni ingiustificate di contenuti leciti e potrebbe anche fornire prove documentali per i meccanismi di risoluzione stragiudiziale delle controversie o per procedure di ricorso in sede giudiziaria.
In alcune circostanze, non sarebbe opportuno informare il fornitore dei contenuti né consentire una replica alla segnalazione, in particolare nei casi in cui questo interferisca con i poteri investigativi delle autorità degli Stati membri necessari per prevenire, accertare e perseguire i reati, come nel caso della pornografia minorile.
La piattaforma online dovrebbe offrire procedure semplici di replica alla segnalazione online. Quando ricevono una replica alla segnalazione, le piattaforme online dovrebbero rispondere e, in caso di decisione negativa, specificarne il motivo. Le piattaforme sono incoraggiate a consentire il ricorso a organismi di risoluzione stragiudiziale delle controversie, se presenti nello Stato membro interessato, per la risoluzione delle controversie riguardanti repliche alla segnalazione.
19.Misure contro le segnalazioni e le repliche alla segnalazione effettuate in malafede
Allo stesso tempo, le procedure di segnalazione e azione possono talvolta essere oggetto di abuso tramite cattive pratiche o in malafede. Tali pratiche dovrebbero essere vivamente scoraggiate, per esempio riducendo la priorità data alle segnalazioni ricevute da un soggetto che invia una quantità elevata di segnalazioni nulle o riceve un numero elevato di repliche alla segnalazione, o revocando lo stato di segnalatore attendibile, in base a criteri consolidati e trasparenti. Le politiche in tal senso dovrebbero essere anche descritte chiaramente nelle condizioni del servizio di una piattaforma online ed essere riportate nelle relazioni generali sulla trasparenza delle piattaforme online, al fine di aumentare la responsabilizzazione nei confronti del pubblico. Misure analoghe dovrebbero valere per le repliche alla segnalazione infondate.
20.Prevenzione della ricomparsa di contenuti illegali
Una volta individuati e rimossi, i contenuti illegali non dovrebbero ricomparire online. Una prevenzione efficace ed efficiente della ricomparsa basata sulle buone pratiche esistenti e su garanzie adeguate è essenziale per un sistema funzionante. La prevenzione della diffusione di materiali illeciti noti su diverse piattaforme richiede una stretta cooperazione tra i prestatori di servizi online, nel pieno rispetto delle norme applicabili del diritto della concorrenza. È inoltre importante aumentare la cooperazione delle autorità di contrasto con le piccole imprese meno resilienti, che potrebbero diventare le piattaforme di elezione di criminali e di altri soggetti coinvolti in attività illecite online se ritenute più vulnerabili di altre.
21.Misure contro i trasgressori recidivi
Al fine di evitare la ricomparsa di contenuti illegali da parte di utenti che pubblicano ripetutamente contenuti illegali della stessa natura, molte piattaforme online hanno già posto in essere misure contro i trasgressori recidivi, come la sospensione o la cancellazione di account o misure di shadowbanning.
Le piattaforme online dovrebbero adottare misure intese a dissuadere gli utenti dal caricare ripetutamente contenuti illegali della stessa natura e a interrompere efficacemente la diffusione di tali contenuti illegali.
Questo dovrebbe applicarsi anche nel caso in cui il trasgressore sia lo stesso e la sostanza del contenuto in questione sia della stessa natura e, ove motivato, l'utente sia stato informato tempestivamente della segnalazione o delle segnalazioni ricevute contro di lui e dell'imminente sospensione o cancellazione. Ciò consentirebbe all'utente di contestare la decisione e di facilitare l'accesso al ricorso giudiziario avverso la misura, se previsto dal contratto tra l'utente e la piattaforma e dal diritto applicabile. Anche in questi casi, il trattamento dei dati personali deve rispettare appieno le norme vigenti in materia di protezione dei dati.
Anche in questo caso, il fornitore dei contenuti non dovrebbe essere informato qualora ciò interferisca con i poteri investigativi degli Stati membri necessari ai fini della prevenzione, dell'accertamento e del perseguimento dei reati, quando viene indicato il necessario fondamento giuridico.
22.Filtri sul ri-caricamento automatico
Oltre alle tecnologie usate per identificare i contenuti potenzialmente illegali di cui alla sezione 3.3, gli strumenti tecnologici possono essere usati con un maggiore livello di affidabilità per marcare e filtrare (rimozione permanente) i contenuti che sono già stati identificati e valutati come illegali. La Commissione pertanto incoraggia vivamente l'ulteriore uso di tali strumenti, ferme restando garanzie come la reversibilità e le deroghe descritte di seguito.
Ciò avviene attualmente con la "banca dati di hash", sviluppata nell'ambito del Forum dell'UE su Internet, e utilizzata in relazione ai contenuti terroristici o nel campo del diritto d'autore o della pornografia minorile, ma anche per prodotti segnalati dalle autorità di contrasto come non conformi alla legislazione pertinente. Tali pratiche hanno ottenuto buoni risultati. Tuttavia la loro efficacia dipende dalle ulteriori migliorie volte a limitare l'erronea identificazione di contenuti e a facilitare decisioni contestuali, nonché le necessarie garanzie di reversibilità.
Per esempio, basandosi sulla pratica nel campo del diritto d'autore nel settore del riconoscimento automatico dei contenuti, la proposta della Commissione sul diritto d'autore nel mercato unico digitale riconosce tali tecnologie – a condizione che siano adeguate e proporzionate – come un possibile mezzo per impedire tra l'altro la disponibilità di contenuti non coperti da licenza sui servizi online pertinenti.
Le procedure automatiche di rimozione permanente dovrebbero consentire deroghe contestuali e nel caso in cui il contenuto rimosso sia stato modificato e reso conforme ai requisiti di legge e di altra natura. La portata e la tempistica delle deroghe contestuali dovrebbero tenere conto della natura specifica del contenuto e di qualsiasi connessa minaccia alla sicurezza, nonché della possibilità di sospendere temporaneamente tale contenuto in attesa di una valutazione più approfondita.
La Commissione incoraggia fortemente l'ulteriore uso e sviluppo di tecnologie automatiche volte a prevenire la ricomparsa di contenuti illegali online.
Quando sono utilizzati strumenti automatici per prevenire la ricomparsa di contenuti illegali, dovrebbe essere prevista una garanzia di reversibilità per decisioni errate e l'uso e le prestazioni di tale tecnologia dovrebbero essere resi trasparenti nelle condizioni del servizio delle piattaforme.
Tutte le piattaforme online dovrebbero avere accesso alle basi di dati utilizzate per confrontare e identificare automaticamente la ricomparsa di contenuti illegali, ferma restando la conformità di qualsiasi operazione di trattamento con la legislazione applicabile in materia di protezione dei dati personali e di concorrenza. Le politiche delle società sulla protezione della vita privata dovrebbero includere informazioni trasparenti sul trattamento dei dati personali nel caso di tali basi di dati.
Le piattaforme online dovrebbero inoltre garantire il continuo aggiornamento dei loro strumenti, al fine di assicurare la individuazione di tutti i contenuti illegali, in linea con le tattiche e il comportamento mutevoli dei criminali e degli altri soggetti coinvolti nelle attività illecite online. Nel caso degli strumenti utilizzati per i contenuti terroristici, questi dovrebbero essere adattati al fine di individuare contenuti nuovi e storici, e garantirne la rapida revisione e rimozione. Tali contenuti dovrebbero essere aggiunti agli strumenti destinati a diverse piattaforme, come la citata "base di dati degli hash" (attualmente utilizzata in relazione ai contenuti terroristici). Tale sviluppo tecnologico dovrebbe avvenire nell'ambito di una cooperazione tra piattaforme online, autorità competenti e altri portatori di interessi, compresa la società civile.
23.Conclusioni
L'aumento dei contenuti illegali ospitati dalle piattaforme online crea una danno reale alla società, che comprende rischi per l'integrità, la dignità e la salute dei nostri cittadini; se non affrontato adeguatamente, tale danno indebolirà anche la fiducia nei confronti dei servizi digitali in senso lato e in ultima istanza del mercato unico digitale – un motore essenziale di innovazione, di crescita e di occupazione. Anche se tali contenuti sono creati e caricati da terzi, la crescente influenza delle piattaforme online nella società, derivante dal loro ruolo di guardiani dei contenuti e delle informazioni, ne aumenta le responsabilità nei confronti degli utenti e della società nel complesso. Le piattaforme dovrebbero pertanto essere proattive nell'eliminazione dei contenuti illegali, prevenendone la ricomparsa, dovrebbero porre in essere procedure efficaci di segnalazione e azione e istituire interfacce funzionanti con i soggetti terzi (come i segnalatori attendibili) e dare particolare priorità alle segnalazioni provenienti dalle autorità di contrasto. Quando le piattaforme online decidono quali contenuti dovrebbero essere considerati illegali, conformemente alla legge, dovrebbero essere posti in essere adeguati sistemi di pesi e contrappesi.
La presente comunicazione fornisce orientamenti e non modifica pertanto il quadro giuridico applicabile né contiene norme legalmente vincolanti; intende principalmente fornire orientamenti alle piattaforme online sulle modalità con cui possono assolvere alla loro responsabilità in relazione alla gestione dei contenuti illegali che ospitano. Mira altresì a semplificare le buone pratiche procedurali in relazione a diverse forme di contenuti illegali, al fine di promuovere una cooperazione più stretta tra le piattaforme e le autorità competenti. Così facendo delinea un approccio europeo alla gestione dei contenuti illegali per le piattaforme online, combinando la necessità di rimuovere rapidamente ed efficacemente i contenuti illegali nonché di prevenire e perseguire i reati, con la tutela della libertà di parola online. I presenti orientamenti integreranno e rafforzeranno i dialoghi settoriali in corso.
Occorre prestare particolare attenzione a garantire che le piattaforme online più piccole siano in grado di attuare tali procedure, e molti elementi della presente comunicazione sono stati concepiti tenendo conto delle loro esigenze specifiche. Ciò nonostante, la Commissione esaminerà ulteriori modalità per sostenere l'adozione degli orientamenti anche per le piccole piattaforme.
Il mercato unico digitale esige una maggiore coerenza delle reazioni della politica su scala transfrontaliera. Con la presente comunicazione, la Commissione sta pertanto fornendo, come primo passo, strumenti comuni volti ad affrontare la sfida condivisa della rimozione dei contenuti illegali.
La lettera di intenti del 13 settembre 2017 del presidente della Commissione europea, indirizzata al presidente del Parlamento europeo e al presidente del Consiglio dell'Unione europea, al fine di garantire uno spazio per la giustizia e i diritti fondamentali basato sulla reciproca fiducia, annunciava ulteriori misure volte a garantire l'individuazione e la rimozione rapide e proattive di contenuti illegali che incitano all'odio, alla violenza e al terrorismo. La presente comunicazione costituisce un primo elemento di tali misure. La Commissione confida che nei prossimi mesi le piattaforme online intraprenderanno azioni rapide, anche nel contesto dei pertinenti dialoghi, in particolare nel settore del terrorismo e dell'incitamento all'odio.
La Commissione proseguirà gli scambi e i dialoghi con le piattaforme online e con altri portatori di interessi. Monitorerà i progressi e valuterà la necessità di misure aggiuntive, al fine di garantire l'individuazione e la rimozione rapide e proattive dei contenuti illegali online, comprese possibili misure legislative volte a integrare il quadro normativo esistente. Tale lavoro sarà completato entro maggio 2018.