EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52017DC0555

COMUNICARE A COMISIEI CĂTRE PARLAMENTUL EUROPEAN, CONSILIU, COMITETUL ECONOMIC ȘI SOCIAL EUROPEAN ȘI COMITETUL REGIUNILOR Combaterea conținutului ilegal online Către o responsabilitate sporită a platformelor online

COM/2017/0555 final

Bruxelles, 28.9.2017

COM(2017) 555 final

COMUNICARE A COMISIEI CĂTRE PARLAMENTUL EUROPEAN, CONSILIU, COMITETUL ECONOMIC ȘI SOCIAL EUROPEAN ȘI COMITETUL REGIUNILOR

Combaterea conținutului ilegal online

Către o responsabilitate sporită a platformelor online


1.Introducere

1 Platformele online reprezintă motoare importante ale inovării și creșterii în economia digitală. Acestea au permis un acces fără precedent la informații și schimburi, precum și noi oportunități de piață, în special pentru întreprinderile mici și mijlocii (IMM-uri). Platformele online reprezintă, de asemenea, principalul punct de acces la informații și alte tipuri de conținut pentru majoritatea celor care utilizează în prezent internetul, fie prin intermediul motoarelor de căutare, fie prin rețelele de socializare, site-urile de micro-blogging sau platformele de partajare a materialelor video. Modelele de afaceri ale platformelor au evoluat și ele recent către o legătură mai strânsă între utilizatori și conținut – în special în scopul publicității direcționate. Aceste platforme conectează miliarde de utilizatori la cantități enorme de conținut și informații și oferă servicii inovatoare cetățenilor și întreprinderilor.

2 Cu toate acestea, răspândirea considerabilă a conținutului ilegal care poate fi încărcat și, prin urmare, accesat online generează motive serioase de îngrijorare care necesită răspunsuri ferme și eficace. Ce este ilegal offline este ilegal și online. Incitarea la terorism, discursul xenofob și rasist care incită public la ură și violență, precum și materialele care conțin abuzuri sexuale asupra copiilor sunt ilegale în Uniunea Europeană. Disponibilitatea din ce în ce mai mare a materialelor cu caracter terorist în mediul online și răspândirea acestui tip de conținut reprezintă o amenințare gravă la adresa securității și siguranței, precum și la adresa demnității victimelor. Uniunea Europeană a răspuns acestor preocupări prin mai multe măsuri. Totuși, abordarea detectării și eliminării conținutului online ilegal reprezintă o provocare urgentă pentru societatea digitală de astăzi.

3 4 Preocupat de seria de atacuri teroriste din Uniunea Europeană și de proliferarea propagandei teroriste online, Consiliul European din 22-23 iunie 2017 a declarat că „se așteaptă din partea industriei să […] dezvolte tehnologii și instrumente noi care să îmbunătățească detectarea automată și eliminarea conținutului care incită la acte teroriste. Acest lucru ar trebui completat prin măsuri legislative relevante la nivelul UE, dacă este necesar”. Aceste apeluri au fost reflectate în declarațiile emise de liderii G7 și G20 la summiturile recente ale acestora. În mod similar, Parlamentul European, în Rezoluția sa referitoare la platformele online din iunie 2017, îndemna platformele online „să adopte măsuri mai stricte pentru a combate conținutul ilegal și dăunător”, adresând în același timp un apel Comisiei Europene să prezinte propuneri pentru abordarea acestor aspecte.

Platformele online care mediază accesul la conținut pentru majoritatea utilizatorilor internetului au o responsabilitate socială semnificativă în ceea ce privește protejarea utilizatorilor și a societății în general și prevenirea exploatării serviciilor pe care le oferă de către infractori și alte persoane implicate în activități online ilegale. Spațiile digitale deschise pe care acestea le pun la dispoziție nu trebuie să devină un teren fertil pentru, de exemplu, teroare, discursuri ilegale de incitare la ură, abuzuri asupra copiilor sau trafic de ființe umane ori spații care eludează statul de drept. În mod clar, răspândirea conținutului online ilegal poate diminua încrederea cetățenilor în mediul digital, dar în același timp ar putea amenința viitoarea dezvoltare economică a ecosistemelor platformelor și piața unică digitală. Platformele online ar trebui să își intensifice în mod hotărât acțiunile pentru abordarea acestei probleme, ca parte a responsabilității care decurge din rolul lor central în societate.

Lupta împotriva conținutului online ilegal trebuie să fie însoțită de garanții adecvate și solide care să asigure protecția diferitelor drepturi fundamentale care ar putea fi afectate. Având în vedere rolul lor din ce în ce mai important în ceea ce privește oferirea de acces la informație, platformele online au de asemenea un rol esențial în realizarea acestui echilibru. Combaterea conținutului online ilegal în Uniunea Europeană ar trebui să se bazeze pe acțiunile Uniunii la nivel global și să țină seama de acestea.

Prezenta comunicare stabilește un set de orientări și principii adresate platformelor online în vederea intensificării luptei împotriva conținutului online ilegal 5 în cooperare cu autoritățile naționale, statele membre și alte părți interesate relevante. Comunicarea are ca scop facilitarea și intensificarea punerii în aplicare a bunelor practici pentru prevenirea, detectarea, eliminarea și blocarea accesului la conținutul ilegal, astfel încât să se asigure eliminarea efectivă a conținutului ilegal, creșterea transparenței și protecția drepturilor fundamentale online. De asemenea, comunicarea urmărește să ofere o serie de clarificări platformelor cu privire la răspunderea lor atunci când iau măsuri proactive pentru detectarea și eliminarea conținutului ilegal sau blocarea accesului la acesta (așa-numitele acțiuni de tip „bunul samaritean”).

2.Context

6 7 8 9 Uniunea Europeană a răspuns deja provocării reprezentate de conținutul online ilegal prin măsuri atât obligatorii, cât și neobligatorii. Printre aceste răspunsuri politice se numără Directiva privind combaterea abuzului sexual asupra copiilor, a exploatării sexuale a copiilor și a pornografiei infantile, Directiva privind combaterea terorismului, măsurile propuse în contextul reformei drepturilor de autor și Directiva serviciilor mass-media audiovizuale (DSMAV).

10 11 12 13 14 15 16 17 Aceste măsuri legislative existente și propuse au fost completate de o serie de măsuri fără caracter legislativ, precum Codul de conduită privind combaterea discursului ilegal de incitare la ură din mediul online, lucrările Forumului UE pentru internet în ceea ce privește propaganda teroristă, Memorandumul de înțelegere privind vânzarea mărfurilor contrafăcute, Comunicarea Comisiei privind supravegherea pieței în cazul produselor vândute online, vânzarea online a produselor din cadrul lanțului alimentar, Planul de acțiune al UE în materie de combatere a traficului cu specii sălbatice de faună și floră, Orientările referitoare la Directiva privind practicile comerciale neloiale sau acțiunile comune ale autorităților naționale în cadrul Rețelei de cooperare pentru protecția consumatorilor. Strategia europeană pentru un internet mai bun pentru copii este o inițiativă de autoreglementare care are ca scop îmbunătățirea mediului online pentru copii și tineri, având în vedere riscul de expunere la materiale precum cele cu conținut violent sau care vizează exploatarea sexuală ori la hărțuirea pe internet.

18 În comunicările sale din 2016 și 2017, Comisia a subliniat importanța ca platformele online să acționeze cu o mai mare responsabilitate și să își intensifice eforturile de autoreglementare pe întregul teritoriu al Uniunii pentru a elimina conținutul ilegal. În plus, Comisia s-a angajat să îmbunătățească coordonarea diferitelor dialoguri specifice la nivel de sector cu platformele și să analizeze necesitatea unor orientări cu privire la procedurile oficiale de notificare și de acțiune. Acest lucru ar trebui să aibă loc în sinergie cu dialogurile deja în curs și activitățile inițiate în alte domenii, precum cele în baza Agendei europene privind securitatea sau în domeniul combaterii discursului ilegal de incitare la ură, și fără să le aducă atingere.

19 20 21 22 Rapoartele recente cu privire la unele dintre aceste inițiative specifice la nivel de sector au indicat unele progrese. În ceea ce privește discursul ilegal de incitare la ură, rapoartele din iunie 2017 au indicat o creștere a eliminării acestui tip de discurs de la 28 % la 59 % dintr-un eșantion de conținut notificat în unele țări ale Uniunii Europene pe o perioadă de șase luni, însă cu mențiunea unor diferențe importante între platforme. În aceeași perioadă s-au înregistrat, de asemenea, unele îmbunătățiri în ceea ce privește viteza eliminării , în timp ce 28 % dintre eliminări au continuat să aibă loc doar după o săptămână. Aceasta indică faptul că o abordare nelegislativă poate genera unele rezultate, în special atunci când este însoțită de măsuri care asigură facilitarea cooperării între toți operatorii vizați. În cadrul combaterii conținutului cu caracter terorist prin Forumul UE pentru internet, aproximativ 80-90 % din conținutul semnalat de Europol a fost eliminat de la instituirea acestuia. În contextul materialelor care conțin abuzuri sexuale asupra copiilor, sistemul INHOPE de linii de asistență a raportat deja, în 2015, o rată de eficiență a eliminării de 91 % în 72 de ore, 1 din 3 elemente de conținut fiind eliminate în 24 de ore.

Diferitele dialoguri în curs la nivel de sector au arătat, de asemenea, o similitudine semnificativă în ceea ce privește procedurile care guvernează detectarea, identificarea, eliminarea și prevenirea reîncărcării în diferitele sectoare. Aceste constatări au fost utilizate la elaborarea prezentei comunicări.

23 La nivelul UE, cadrul juridic general pentru eliminarea conținutului ilegal este Directiva privind comerțul electronic care, inter alia, armonizează condițiile în care anumite platforme online pot beneficia de derogare în materie de răspundere pentru conținutul ilegal pe care îl găzduiesc în cadrul pieței unice digitale.

24 25 26 Conținutul ilegal de pe platformele online se poate dezvolta și răspândi în special prin serviciile online care permit încărcarea de conținut aparținând unor terți. Aceste servicii de „găzduire” (hosting) intră, în anumite condiții, sub incidența articolului 14 din Directiva privind comerțul electronic. Acest articol stabilește că furnizorii de servicii nu pot fi ținuți răspunzători pentru informațiile stocate la cererea unor terți, cu condiția ca (a) aceștia să nu aibă cunoștință despre activitatea sau informația ilicită, iar în ceea ce privește acțiunile în daune, să nu aibă cunoștință de fapte sau circumstanțe din care să rezulte că activitatea sau informația este vădit ilicită sau (b), din momentul în care iau cunoștință despre acestea, să acționeze prompt pentru a elimina informațiile sau pentru a bloca accesul la acestea. În același timp, directiva ar trebui să „constituie baza adecvată pentru elaborarea unor mecanisme rapide și fiabile care să permită înlăturarea informațiilor ilicite și blocarea accesului la acestea.

În plus, articolul 15 prevede că statele membre nu trebuie să impună „furnizorilor obligația generală de supraveghere a informațiilor pe care le transmit sau le stochează atunci când furnizează serviciile prevăzute la [articolul 14] și nici obligația generală de a căuta în mod activ fapte sau circumstanțe din care să rezulte că activitățile sunt ilicite." În același timp, considerentul 47 al directivei reamintește că această interdicție vizează doar obligațiile de natură generală și „nu privește obligațiile de supraveghere aplicabile într-un caz specific și, mai ales, nu afectează deciziile autorităților naționale luate în conformitate cu legislația internă”.

În acest context, în Comunicarea sa din 2016 privind platformele online, Comisia s-a angajat să mențină un regim echilibrat și predictibil al răspunderii platformelor online drept cadru de reglementare principal pentru susținerea inovării digitale în întreaga piață unică digitală.

Orientările din prezenta comunicare nu aduc atingere acquis-ului UE, sunt legate de activitățile platformelor online, în special serviciile de găzduire furnizate de aceste platforme 27 în sensul articolului 14 din Directiva privind comerțul electronic, și vizează toate categoriile de conținut ilegal, ținând seama în același timp de faptul că diferitele tipuri de conținut pot necesita un tratament diferit.

În acest moment, în Uniunea Europeană nu există o abordare armonizată și coerentă în ceea ce privește eliminarea conținutului ilegal. Există într-adevăr diferite abordări în funcție de statele membre, de categoria de conținut sau de tipul de platformă online. O abordare mai armonizată ar permite combaterea mai eficace a conținutului ilegal. De asemenea, ar fi benefică pentru dezvoltarea pieței unice digitale și ar reduce costurile de asigurare a conformității cu o multitudine de norme pentru platformele online, inclusiv pentru actorii nou-intrați pe piață.

28 Este important de subliniat că acest cadru juridic nu definește, și cu atât mai puțin armonizează, ceea ce constituie conținut „ilegal”. Ceea ce este ilegal este stabilit de legislația specifică de la nivelul UE, precum și de dreptul național. Deși, de exemplu, natura, caracteristicile și prejudiciile asociate materialelor cu caracter terorist, discursului ilegal de incitare la ură sau materialelor care conțin abuzuri sexuale asupra copiilor ori legate de traficul de ființe umane sunt foarte diferite de cele asociate încălcării drepturilor de proprietate intelectuală, normelor privind siguranța produselor, practicilor comerciale online ilicite sau activităților online cu caracter defăimător, toate aceste tipuri diferite de conținut ilegal intră sub incidența aceluiași cadru-juridic general stabilit de Directiva privind comerțul electronic. În plus, având în vedere similitudinile semnificative în ceea ce privește procesul de eliminare pentru aceste tipuri diferite de conținut, prezenta comunicare se referă la întreaga gamă de conținuturi online ilegale, permițând în același timp diferențe la nivel de sector, atunci când acestea sunt adecvate și justificate.

În Uniunea Europeană, instanțele judecătorești și autoritățile naționale competente, inclusiv autoritățile de aplicare a legii, dețin competența de a urmări penal infracțiunile și de a impune sancțiuni penale – cu respectarea garanțiilor procedurale – în legătură cu ilegalitatea unei anumite activități sau anumitor informații din mediul online. În același timp, platformele online sunt îndreptățite să împiedice utilizarea infrastructurii și activității lor economice în scopul comiterii de infracțiuni, au responsabilitatea de a-și proteja utilizatorii și de a preveni publicarea de conținut ilegal pe platformele lor și, în general, au în posesie mijloace tehnice de identificare și eliminare a acestui conținut. Acest lucru este cu atât mai important cu cât platformele online au investit masiv în dezvoltarea de tehnologii complexe pentru colectarea proactivă de informații referitoare la conținutul care circulă în mediile pe care le pun la dispoziție și cu privire la comportamentul utilizatorilor. Deciziile rapide privind eliminarea conținutului ilegal sunt importante, dar este necesar și să se aplice garanții adecvate. În acest sens, este necesar și un echilibru între rolul organismelor publice și rolul organismelor private.

Prin urmare, orientările și principiile stabilite în prezenta comunicare nu vizează doar detectarea și eliminarea conținutului ilegal, ci urmăresc în egală măsură abordarea preocupărilor legate de eliminarea conținutului legal, numită uneori „eliminare în exces”, care la rândul său afectează libertatea de exprimare și pluralismul mijloacelor de comunicare în masă. Prin urmare, trebuie să se prevadă garanții adecvate, adaptate la tipul specific de conținut ilegal vizat.

29 Există, fără îndoială, preocupări de interes public referitoare la conținutul care nu este neapărat ilegal, dar este potențial dăunător, precum știrile false sau conținutul dăunător pentru minori. Cu toate acestea, obiectivul prezentei comunicări este detectarea și eliminarea conținutului ilegal.

3.Detectarea și notificarea conținutului ilegal 

Obiectivul acestei secțiuni este stabilirea acțiunilor pe care ar trebui să le întreprindă platformele online, autoritățile competente și utilizatorii pentru a detecta conținutul ilegal în mod rapid și eficient.

Platformele online pot lua cunoștință de existența conținutului ilegal în mai multe moduri, prin diferite canale. Aceste canale de notificare includ (i) hotărârile judecătorești sau deciziile administrative; (ii) notificările transmise de autoritățile competente (de exemplu, organismele de aplicare a legii), notificatorii de încredere (trusted flaggers) specializați, titularii de drepturi de proprietate intelectuală sau utilizatorii obișnuiți ori (iii) propriile investigații sau cunoștințe ale platformelor.

Pe lângă obligațiile legale care derivă din legislația UE și legislația națională și „obligația de diligență”, ca parte a responsabilităților care le revin, platformele online trebuie să asigure un mediu online sigur pentru utilizatori, care nu permite exploatarea infracțională sau în alt mod ilegală și care descurajează activitățile infracționale sau alte activități online care încalcă normele.

4.Instanțele judecătorești și autoritățile competente

30 În conformitate cu legislația UE și legislația națională, instanțele judecătorești naționale și, în unele cazuri, autoritățile competente, pot emite hotărâri sau decizii administrative obligatorii adresate platformelor online, prin care acestora din urmă li se cere să elimine sau să blocheze accesul la conținutul ilegal.

Având în vedere că eliminarea rapidă a materialelor ilegale este de multe ori esențială în vederea limitării prejudiciilor și a răspândirii la scară largă, platformele online ar trebui să poată, de asemenea, să ia decizii rapide cu privire la posibilele acțiuni în legătură cu conținutul ilegal online fără să fie obligate să facă acest lucru pe baza unei hotărâri judecătorești sau a unei decizii administrative, în special atunci când presupusul conținut ilegal a fost identificat și le-a fost semnalat de o autoritate de aplicare a legii. În același timp, platformele online ar trebui să instituie garanții adecvate atunci când își exercită responsabilitățile în acest sens, pentru a asigura dreptul utilizatorilor la o cale de atac efectivă.

31 Prin urmare, platformele online ar trebui să dispună de resursele necesare pentru a înțelege cadrele juridice în care operează. De asemenea, acestea ar trebui să coopereze strâns cu autoritățile de aplicare a legii și alte autorități competente, după caz, asigurându-se în special că pot fi contactate rapid și eficient în legătură cu cererile de îndepărtare rapidă a conținutului ilegal, precum și că pot alerta autoritățile de aplicare a legii atunci când este necesar, cu privire la indiciile unei activități infracționale online. Pentru a evita duplicarea eforturilor și comunicărilor și pentru a spori astfel eficiența și eficacitatea procesului de eliminare, autoritățile de aplicare a legii și alte autorități competente ar trebui să depună, de asemenea, toate eforturile pentru a coopera reciproc în vederea definirii unor interfețe digitale care să faciliteze transmiterea rapidă și sigură a notificărilor și pentru a asigura identificarea și raportarea eficientă a conținutului ilegal. Stabilirea de către platforme și autorități a unor puncte de contact este esențială pentru funcționarea adecvată a acestei cooperări.

32 În ceea ce privește conținutul cu caracter terorist, a fost instituită în cadrul Europol o Unitate a UE de semnalare a conținutului online (IRU), prin intermediul căreia experți în domeniul securității evaluează și semnalează platformelor online conținutul cu caracter terorist (unele state membre au propriile IRU naționale).

Platformele online ar trebui să își intensifice sistematic cooperarea cu autoritățile competente din statele membre, iar statele membre ar trebui să se asigure că instanțele judecătorești sunt în măsură să reacționeze cu eficacitate împotriva conținutului ilegal online și să asigure în același timp o cooperare (transfrontalieră) mai puternică între autorități.

Platformele online și autoritățile de aplicare a legii sau alte autorități competente ar trebui să numească puncte efective de contact în UE și, după caz, să definească interfețe digitale eficace pentru facilitarea interacțiunii acestora.

Platformele și autoritățile de aplicare a legii sunt, de asemenea, încurajate să dezvolte interfețe tehnice care să le permită să coopereze mai eficace în cadrul întregului ciclu de guvernanță a conținutului. De asemenea, cooperarea cu comunitatea tehnică poate fi benefică pentru obținerea unor soluții eficace și solide din punct de vedere tehnic care să răspundă acestei provocări.

5.Notificările

6.Notificatorii de încredere (trusted flaggers)

Eliminarea conținutului ilegal online are loc mai rapid și mai sigur atunci când platformele online instituie mecanisme pentru facilitarea unui canal prioritar pentru acei notificatori care oferă o expertiză specifică în semnalarea prezenței potențialului conținut ilegal pe site-urile lor. Aceștia sunt așa-numiții „notificatori de încredere”, respectiv entități specializate, cu expertiză specifică în identificarea conținutului ilegal și cu structuri dedicate pentru detectarea și identificarea acestui tip de conținut online.

Comparativ cu utilizatorii obișnuiți, este de așteptat ca notificatorii de încredere să prezinte avantajul expertizei și să opereze la standarde de înaltă calitate, ceea ce ar trebui să determine o creștere a calității notificărilor și o mai mare rapiditate în eliminarea conținutului. Platformele online sunt încurajate să apeleze la rețelele existente de notificatori de încredere. De exemplu, în ceea ce privește conținutul cu caracter terorist, Unitatea de semnalare a conținutului online din cadrul Europol dispune de expertiza necesară pentru a evalua dacă un anumit conținut este un conținut online extremist cu caracter violent și terorist și utilizează această expertiză pentru a acționa ca notificator de încredere, în plus față de rolul său de aplicare a legii. Rețeaua INHOPE de linii de asistență pentru raportarea materialelor care conțin abuzuri sexuale asupra copiilor este un alt exemplu de notificator de încredere; în ceea ce privește conținutul care constituie discurs ilegal de incitare la ură, organizațiile societății civile sau organismele semipublice sunt specializate în identificarea și raportarea conținutului online ilegal cu caracter rasist sau xenofob.

Pentru a asigura o înaltă calitate a notificărilor și eliminarea mai rapidă a conținutului ilegal, industria ar putea conveni, la nivelul UE, criterii bazate în special pe respectarea drepturilor fundamentale și a valorilor democratice. Aceasta se poate realiza prin mecanisme de autoreglementare sau în contextul cadrului de standardizare al UE, în conformitate cu care o anumită entitate poate fi considerată notificator de încredere, permițând suficientă flexibilitate pentru a ține seama de caracteristicile specifice conținutului și de rolul notificatorului de încredere. Alte astfel de criterii ar putea include standarde interne de formare, standarde ale proceselor și asigurarea calității, precum și garanții juridice în ceea ce privește independența, conflictele de interese, protejarea confidențialității și a datelor cu caracter personal, fără ca această enumerare să fie exhaustivă. Aceste garanții sunt deosebit de importante în numărul limitat de situații în care platformele ar putea elimina un anumit conținut în urma notificării primite de la un notificator de încredere, fără a mai verifica ele însele legalitatea conținutului respectiv. În aceste situații limitate, notificatorii de încredere ar putea fi supuși și unor proceduri de audit pe baza acestor criterii, iar un program de certificare ar putea atesta statutul lor de notificatori de încredere. În toate celelalte cazuri, ar trebui să fie disponibile garanții suficiente pentru a preveni utilizarea abuzivă a sistemului, astfel cum se prevede la punctul 4.3.

Autorităților competente ar trebui să li se dea posibilitatea de a participa la mecanismele de raportare ale notificatorilor de încredere, atunci când este cazul.

Trebuie să se obțină un echilibru rezonabil între asigurarea unei înalte calități a notificărilor primite de la notificatorii de încredere, sfera măsurilor suplimentare pe care societățile le-ar putea lua în legătură cu notificatorii de încredere și sarcina de a asigura aceste standarde de calitate. În cazul în care există abuzuri ale mecanismelor notificatorilor de încredere în raport cu standardele stabilite, statutul de notificator de încredere ar trebui să înceteze.

Comisia încurajează cooperarea strânsă între platformele online și notificatorii de încredere. Platformele ar trebui să dea curs cu rapiditate informărilor primite de la notificatorii de încredere. Această cooperare ar trebui să permită schimbul reciproc de informații, astfel încât procesul de eliminare să poată fi evaluat și îmbunătățit în timp.

Comisia va analiza în continuare, în special în cadrul dialogurilor cu părțile interesate relevante, potențialul de a conveni asupra unor criterii generale la nivelul UE pentru notificatorii de încredere.

7.Notificările transmise de utilizatori

În cadrul luptei efective împotriva conținutului online ilegal, utilizatorii obișnuiți ar trebui să aibă posibilitatea de a semnala platformelor online conținutul ilegal, având încredere că notificările justificate vor fi luate în considerare și că li se va da curs cu rapiditate.

Platformele online ar trebui să instituie un mecanism ușor de accesat și de utilizat care să le permită utilizatorilor să notifice conținutul considerat a fi ilegal găzduit de platformă.

Atunci când conținutul este disponibil public, aceste mecanisme de raportare ar trebui să fie disponibile publicului general, fără a fi necesară autentificarea ca utilizator. Pentru îmbunătățirea eficienței și exactității evaluării unui potențial conținut ilegal, acest mecanism ar trebui să permită notificarea facilă, prin mijloace electronice.

Propunerea Comisiei de revizuire a Directivei serviciilor mass-media audiovizuale vizează crearea unei obligații a furnizorilor de platforme de partajare a materialelor video de a institui și a opera mecanisme prin care utilizatorii să raporteze sau să semnaleze conținuturile audiovizuale care ar putea afecta dezvoltarea fizică, mentală sau morală a minorilor, precum și conținuturile care incită la violență sau la ură.

8.Asigurarea calității ridicate a notificărilor

Platformele online ar trebui să instituie mecanisme eficace care să faciliteze transmiterea de notificări suficient de exacte și motivate adecvat pentru a le permite platformelor să ia o decizie rapidă și în cunoștință de cauză asupra acțiunilor necesare. Acestea ar trebui să faciliteze transmiterea de notificări care conțin o explicație cu privire la motivele pentru care persoana care transmite notificarea consideră că respectivul conținut este ilegal, precum și indicarea clară a locației potențialului conținut ilegal (de exemplu, adresa URL).

Aceste mecanisme de raportare trebuie să fie vizibile, ușor accesibile, ușor de utilizat și contextuale. De asemenea, ar trebui să permită raportarea cu ușurință a diferitelor tipuri de conținut, de exemplu prin selectarea dintr-o listă de categorii a motivelor pentru care conținutul este ilegal. Atunci când este fezabil din punct de vedere tehnic, se pot utiliza elemente precum posibilitatea de a transmite notificările imediat în contextul în care se întâlnește pentru prima dată materialul sau posibilitatea de a reutiliza datele de autentificare.

O astfel de notificare motivată și detaliată permite platformei să găsească rapid conținutul potențial ilegal, să realizeze o evaluare riguroasă a ilegalității conținutului și să acționeze cu rapiditate dacă este cazul. Nivelul exact de detaliere pe care platformele îl solicită pentru a putea lua rapid decizii în cunoștință de cauză poate varia considerabil de la un tip de conținut la altul.

În mod normal, utilizatorii nu ar trebui să fie obligați să se identifice atunci când raportează ceea ce ei consideră a fi conținut ilegal, în afara cazului în care aceste informații sunt necesare pentru a stabili legalitatea conținutului [de exemplu, declararea calității de titular al drepturilor de proprietate intelectuală (DPI)]. Această situație este în mod special valabilă în cazul în care siguranța lor ar putea fi periclitată sau atunci când divulgarea identității personale ar putea avea implicații juridice. Utilizatorii ar trebui să fie încurajați să își prezinte notificările prin intermediul notificatorilor de încredere, atunci când aceștia există, ori de câte ori doresc să își mențină anonimitatea față de platforme.

Cu toate acestea, persoanele care transmit notificări ar trebui să aibă posibilitatea de a-și furniza în mod voluntar datele de contact în cadrul unei notificări, pentru a permite platformei online să solicite informații suplimentare sau să informeze persoana care face notificarea cu privire la orice acțiuni subsecvente preconizate. În acest caz, persoana care face notificarea ar trebui să primească o confirmare de primire și o comunicare în care sunt indicate acțiunile subsecvente întreprinse ca urmare a notificării.

O confirmare de primire nu doar elimină necesitatea ca persoana care face notificarea să verifice dacă s-a dat sau nu curs cererii sale, ci servește și ca probă în cadrul procedurilor judiciare sau extrajudiciare, în conformitate cu normele aplicabile procedurilor respective.

9.Măsuri proactive luate de platformele online

10.Măsurile proactive și derogările în materie de răspundere

Platformele online ar trebui, având în vedere capacitățile lor și rolul central pe care îl joacă, precum și responsabilitățile asociate, să adopte măsuri proactive eficace pentru detectarea și eliminarea conținutului online ilegal și nu doar să se limiteze la a reacționa la notificările pe care le primesc. În plus, în ceea ce privește anumite categorii de conținut ilegal, este posibil ca obiectivul de reducere a riscului de prejudicii majore să nu poată fi atins pe deplin fără ca platformele să ia astfel de măsuri proactive.

Comisia consideră că luarea unor astfel de măsuri voluntare proactive nu conduce automat la pierderea de către platformele online a beneficiului derogării în materie de răspundere prevăzute la articolul 14 din Directiva privind comerțul electronic.

În primul rând, de această derogare în materie de răspundere pot beneficia doar furnizorii de servicii de găzduire (hosting) care îndeplinesc condițiile stabilite la articolul 14 din directiva respectivă; acești furnizori de servicii sunt cei ale căror activități constau în stocarea informațiilor la solicitarea terților și care nu joacă un rol activ de natură a le aduce la cunoștință sau a le permite controlul cu privire la informațiile respective 33 . 

Considerentul 38 al Propunerii Comisiei de directivă privind dreptul de autor pe piața unică digitală din 14 septembrie 2016 specifică în această privință: „În ceea ce privește articolul 14 [din Directiva privind comerțul electronic], este necesar să se verifice dacă furnizorul de servicii joacă un rol activ, cum ar fi prin optimizarea prezentării operelor sau a altor obiecte protejate încărcate ori prin promovarea acestora, indiferent de natura mijloacelor utilizate în acest scop”.

În special în ceea ce privește articolul 14 din Directiva privind comerțul electronic, în cauza L'Oréal/eBay, Curtea de Justiție a clarificat că „simplul fapt că [o platformă online] stochează pe serverul său ofertele de vânzare, stabilește modalitatea de prestare a serviciului său, este remunerat[ă] pentru acesta și acordă clienților săi informații de ordin general nu poate avea ca efect să [o] priveze de derogările în materie de răspundere prevăzute de [articolul 14 din Directiva privind comerțul electronic]” 34 . Cu toate acestea, conform hotărârii Curții există un asemenea efect „[î]n cazul în care, în schimb, [platforma online] a acordat asistență care constă în special în optimizarea prezentării ofertelor de vânzare în cauză sau în promovarea acestor oferte” 35 .

Aceasta sugerează că simplul fapt că o platformă online ia anumite măsuri în legătură cu furnizarea serviciilor sale de manieră generală nu înseamnă în mod necesar că aceasta joacă un rol activ în ceea ce privește elementele individuale de conținut pe care le stochează și că platforma online nu poate beneficia de derogările în materie de răspundere din acest motiv. În opinia Comisiei, astfel de măsuri pot și, într-adevăr, ar trebui să includă și măsuri proactive de detectare și eliminare a conținutului ilegal online, în special atunci când aceste măsuri sunt luate ca parte a aplicării condițiilor pentru furnizarea serviciilor ale platformei online. Aceasta ar fi o strategie conformă cu echilibrul dintre diferitele interese pe care urmărește să îl asigure Directiva privind comerțul electronic 36 . Într-adevăr, în directivă se amintește că este în interesul tuturor părților implicate să adopte și să aplice proceduri rapide și fiabile pentru înlăturarea informațiilor ilicite și blocarea accesului la acestea 37 . Deși directiva nu permite obligarea platformelor la implicarea în activități generale active de monitorizare, 38 aceasta recunoaște în același timp importanța măsurilor voluntare. 39  

În al doilea rând, în conformitate cu articolul 14 din Directiva privind comerțul electronic, furnizorii de servicii care intră sub incidența acestei dispoziții pot beneficia de derogarea în materie de răspundere doar cu două condiții, și anume: (a) să nu aibă cunoștință despre activitatea sau informația ilicită, iar în ceea ce privește acțiunile în daune, să nu aibă cunoștință de fapte sau circumstanțe din care să rezulte că activitatea sau informația este vădit ilicită sau (b) din momentul în care iau cunoștință despre acestea, acționează prompt pentru a elimina informațiile sau pentru a bloca accesul la acestea.

Curtea de Justiție a clarificat că aceste condiții se referă la „orice situație în care [platforma online] în cauză ia cunoștință, indiferent în ce mod, de [faptele sau împrejurările pe baza cărora un operator economic diligent ar fi trebuit să constate nelegalitatea în cauză]” și aceasta include – pe lângă notificarea primită de la un terț – situația în care platforma „descoperă existența unei activități sau a unei informații ilicite în urma unei examinări efectuate din proprie inițiativă” 40 .

Reiese astfel că măsurile proactive luate de o platformă online pentru detectarea și eliminarea conținutului ilegal ar putea avea ca rezultat faptul că platforma ia cunoștință de activitățile ilegale sau informațiile ilegale, ceea ce ar putea să atragă pierderea derogării în materie de răspundere în conformitate cu articolul 14 alineatul (1) litera (a) din Directiva privind comerțul electronic. Cu toate acestea, în astfel de situații, platforma online continuă să aibă posibilitatea de a acționa prompt pentru eliminarea informațiilor în cauză sau blocarea accesului la acestea imediat ce ia cunoștință de ele. Atunci când procedează astfel, platforma online continuă să beneficieze de derogarea în materie de răspundere în temeiul articolului 14 alineatul (1) litera (b). Prin urmare, preocupările legate de pierderea îndreptățirii la derogarea în materie de răspundere nu ar trebui să descurajeze sau să împiedice aplicarea măsurilor voluntare proactive și eficace pe care prezenta comunicare urmărește să le încurajeze.

11.Utilizarea tehnologiei pentru detectarea conținutului ilegal

Având în vedere volumul de materiale intermediate de platformele online, precum și progresul tehnologic în ceea ce privește prelucrarea informațiilor și inteligența artificială, utilizarea tehnologiilor de detectare și filtrare automată devine un instrument din ce în ce mai important în lupta împotriva conținutului online ilegal. Numeroase platforme online de dimensiuni mari utilizează în prezent o anumită formă de algoritmi de corelare, pe baza unei varietăți de tehnologii, de la simpla filtrare în funcție de metadate la hashing și amprentarea conținutului.

Directiva privind comerțul electronic clarifică faptul că dispozițiile referitoare la derogarea în materie de răspundere nu împiedică elaborarea și funcționarea eficientă a sistemelor tehnice de protecție și identificare, precum și a instrumentelor tehnice de supraveghere, devenită posibilă prin tehnologii digitale 41 . La fel cum, de asemenea, se clarifică în directivă, funcționarea respectivă trebuie totuși să aibă loc în limitele normelor aplicabile ale legislației UE și ale legislației naționale, în special cu privire la protecția confidențialității și protecția datelor cu caracter personal și interdicția ca statele membre să impună obligații generale de supraveghere 42 .

Legislația specifică la nivel de sector poate stabili norme obligatorii privind luarea de măsuri de către platformele online, de exemplu în legătură cu drepturile de autor, pentru a contribui la asigurarea detectării și eliminării conținutului ilegal, inclusiv atunci când sunt eligibile pentru derogarea în materie de răspundere prevăzută la articolul 14 din Directiva privind comerțul electronic.

În termeni mai generali, utilizarea și dezvoltarea continuă a acestor tehnologii este încurajată în special atunci când există posibilitatea unor prejudicii grave, astfel cum se arată în apelul adresat în Concluziile Consiliului European din 22 iunie 2017 43 . Se pot utiliza instrumente și filtre automate pentru identificarea potențialelor conținuturi care încalcă normele, iar cercetarea, atât privată, cât și publică, înregistrează progrese în dezvoltarea unor astfel de instrumente. De exemplu, în domeniul drepturilor de autor, recunoașterea automată a conținutului se dovedește de mai mulți ani un instrument eficace.

Comisia susține continuarea cercetărilor și abordările inovatoare care depășesc nivelul tehnologic actual în scopul îmbunătățirii preciziei mijloacelor tehnice de identificare a conținutului ilegal 44 . De asemenea, Comisia încurajează industria să asigure adoptarea efectivă a inovațiilor care ar putea contribui la creșterea eficienței și eficacității procedurilor de detectare automată.

În majoritatea cazurilor, cele mai bune practici actuale de la nivelul industriei constau în utilizarea de instrumente automate menite să identifice conținutul problematic, pentru ca acesta să fie supus controlului unor experți umani, care apoi ar putea fie nevoiți să evalueze caracterul ilegal al conținutului. Acest principiu al prezenței umane în ciclul de evaluare este, în general, un element important al procedurilor automate care urmăresc să stabilească dacă un anumit conținut este ilegal sau nu, în special în domeniile în care ratele de eroare sunt ridicate sau atunci când este necesară contextualizarea. 

Comisia este de părere că măsurile proactive luate de platformele online care intră sub incidența articolului 14 din Directiva privind comerțul electronic pentru a detecta și a elimina conținutul ilegal pe care îl găzduiesc – inclusiv utilizarea de instrumente automate și instrumente menite să asigure că un conținut deja eliminat anterior nu este reîncărcat – nu conduc, în sine, la pierderea derogării în materie de răspundere.

În special, luarea unor astfel de măsuri nu implică neapărat că platforma online în cauză joacă un rol activ care nu i-ar mai permite să beneficieze de derogarea respectivă. Ori de câte ori, ca urmare a luării unor astfel de măsuri, platforma online ia cunoștință de activități sau informații ilegale, aceasta trebuie să acționeze cu promptitudine pentru a elimina sau a bloca accesul la informațiile ilegale în cauză pentru a îndeplini condiția care îi permite să beneficieze în continuare de derogare.

Platformele online trebuie să depună toate eforturile pentru a detecta, a identifica și a elimina conținutul online ilegal. Comisia încurajează ferm platformele online să utilizeze măsuri proactive voluntare având ca scop detectarea și eliminarea conținutului ilegal și să își intensifice cooperarea, precum și să sporească investițiile în tehnologiile de detectare automată și utilizarea acestora.

12.Eliminarea conținutului ilegal

45 Este în interesul întregii societăți ca platformele să elimine conținutul ilegal cât mai repede posibil. În același timp, eliminarea acestui conținut nu ar trebui să împiedice urmărirea penală sau alte măsuri subsecvente în legătură cu orice încălcare subiacentă a legii. Schimbul de elemente de probă între autoritățile publice și platformele online reprezintă o politică importantă în acest sens. Accesul transfrontalier la elementele de probă ar trebui să fie facilitat de viitoarea inițiativă legislativă cu privire la acest aspect. Eliminarea conținutului ilegal de către platforme nu ar trebui să afecteze investigarea sau urmărirea penală a infracțiunilor în temeiul legislației Uniunii sau al legislației naționale.

Ar trebui să fie, de asemenea, disponibile garanții solide pentru limitarea riscului de eliminare a conținutului legal, susținute de un set de obligații semnificative privind transparența, pentru a spori responsabilizarea în ceea ce privește procesele de eliminare.

13.Asigurarea eliminării prompte și raportarea infracțiunilor la autoritățile de aplicare a legii

Directiva privind comerțul electronic impune platformelor online să acționeze „prompt” pentru eliminarea conținutului ilegal după ce iau cunoștință de acesta, dacă doresc să beneficieze în continuare de derogarea în materie de răspundere. Ce înseamnă acest lucru în practică depinde de caracteristicile specifice ale cazului în discuție, în special de tipul de conținut ilegal, de exactitatea notificării și de potențialul prejudiciu cauzat.

În practică, diferitele tipuri de conținut necesită un volum diferit de informații contextuale pentru a se putea stabili legalitatea sau ilegalitatea unui anumit element de conținut. De exemplu, este mai ușor să se stabilească natura ilegală a materialelor care conțin abuzuri sexuale asupra copiilor, în timp ce stabilirea ilegalității declarațiilor defăimătoare necesită în general o analiză atentă a contextului în care acestea au fost făcute.

Atunci când există posibilitatea unor prejudicii grave, de exemplu în cazul incitării la comiterea de acte teroriste, eliminarea rapidă este deosebit de importantă și poate face obiectul unor limite de timp specifice. 

Unele procese voluntare, precum Codul de conduită privind combaterea discursurilor ilegale de incitare la ură în mediul online, au oferit obiective orientative privind timpul de eliminare, respectiv – în cazul acestui cod –, 24 de ore pentru majoritatea situațiilor.

Ștergerea sau suspendarea complet automată a conținutului poate fi deosebit de eficace și ar trebui să fie aplicată atunci când circumstanțele nu lasă loc unor dubii semnificative privind ilegalitatea materialului, de exemplu în cazul unui material a cărui eliminare este notificată de autoritățile de aplicare a legii sau în cazul unui conținut cunoscut ca fiind ilegal care a fost eliminat anterior, sub rezerva garanțiilor menționate la punctul 4.3.

Ca regulă generală, eliminarea ca urmare a notificărilor primite de la notificatori de încredere ar trebui să fie abordată mai rapid, datorită calității și exactității informațiilor furnizate în notificare și statutului de notificatori de încredere al acestora.

În cazurile în care există pericolul unor pagube economice din cauza încălcării drepturilor de proprietate intelectuală, potențiala pagubă provocată de încălcare poate fi strâns legată de viteza eliminării.

Raportarea clară de către platforme a timpului necesar prelucrării solicitărilor de eliminare în funcție de tipul de conținut va facilita evaluarea promptitudinii măsurii luate și va crește responsabilizarea generală a platformelor. 

În anumite cazuri, în special atunci când platformele online au dificultăți în evaluarea legalității unui anumit element de conținut și este vorba despre o decizie potențial problematică, acestea ar putea trimite respectivele cazuri în care există îndoieli unui terț pentru a obține recomandări. Organismele de autoreglementare sau autoritățile competente joacă acest rol în diferite state membre. Ca parte a cooperării consolidate între platformele online și autoritățile competente, această cooperare este puternic încurajată.

46 În fine, platformele online ar trebui să raporteze autorităților de aplicare a legii ori de câte ori li se aduc la cunoștință sau descoperă dovezi privind infracțiuni sau alte delicte, pentru a alerta și a permite autorităților relevante să investigheze și să urmărească penal persoanele care generează conținutul respectiv sau utilizarea abuzivă a serviciilor de către grupuri teroriste sau de criminalitate organizată. Acționând astfel, acestea trebuie să respecte cerințele legale aplicabile, inclusiv Regulamentul (UE) nr. 2016/679 privind protecția datelor cu caracter personal. Astfel de măsuri ar putea fi adecvate și în cazul ofertelor sau vânzărilor de produse și al practicilor comerciale neconforme cu legislația UE.

Datorită necesității de a coopera cu autoritățile de aplicare a legii în ceea ce privește investigarea și urmărirea penală a infracțiunilor, poate fi necesar în unele cazuri ca platformele să nu elimine imediat conținutul ilegal, atunci când acest lucru se impune în cadrul unei investigații specifice în curs, sub stricta supraveghere a autorităților naționale și în deplină conformitate cu normele naționale privind procedurile penale.

47 48 49 Autoritățile de aplicare a legii ar trebui să își consolideze capacitățile necesare pentru a lua măsuri adecvate în legătură cu astfel de raportări. Un exemplu de bune practici în legătură cu punctele de contact este portalul SIRIUS, înființat de Europol pentru a sprijini statele membre în cadrul investigațiilor de combatere a terorismului online, inclusiv prin facilitarea cooperării între platformele online și autoritățile europene de aplicare a legii.

În conformitate cu articolul 14 din Directiva privind comerțul electronic, platformele online trebuie să elimine prompt conținutul ilegal imediat ce iau cunoștință de existența acestuia dacă doresc să beneficieze de derogarea în materie de răspundere. Eliminarea deosebit de rapidă este importantă în cazul conținutului ilegal atunci când sunt posibile prejudicii grave, de exemplu în cazurile de incitare la comiterea de acte teroriste. Timpul și procedura de eliminare pentru diferitele forme de conținut ilegal ar trebui să fie raportate cu claritate în rapoartele de transparență.

Aspectul limitelor fixe de timp pentru eliminare va fi analizat în mai mare detaliu de către Comisie.

Dovezile privind infracțiunile obținute în contextul eliminării conținutului ilegal ar trebui să fie transmise autorităților de aplicare a legii, cu condiția ca această măsură să fie conformă în special cu cerințele stabilite în Regulamentul (UE) 2016/679, în special în ceea ce privește temeiurile juridice pentru prelucrarea datelor cu caracter personal.

14.Creșterea transparenței 

15.Transparența privind politica platformei online referitoare la conținut

Chestiunea legalității sau ilegalității conținutului este reglementată de legislația UE și de legislația națională. În același timp, anumite tipuri de conținut pot fi considerate dăunătoare sau controversate chiar în condițiile pentru furnizarea serviciilor ale platformelor online.

50 Platformele online ar trebui să își divulge politicile detaliate referitoare la conținut în cadrul condițiilor pentru furnizarea serviciilor și să comunice clar acest lucru utilizatorilor. Condițiile pentru furnizarea serviciilor nu ar trebui doar să definească politica privind eliminarea sau blocarea accesului la conținut, ci și să specifice în detaliu garanțiile care asigură că măsurile legate de conținut nu conduc la eliminări în exces. În special, condițiile platformelor online pentru furnizarea serviciilor ar trebui să specifice clar orice posibilitate a utilizatorilor de a contesta deciziile de eliminare a conținutului, ca parte a transparenței sporite a politicilor generale de eliminare a conținutului implementate de platforme. Aceasta ar trebui să contribuie la reducerea potențialului efect negativ asupra dreptului fundamental al utilizatorilor la libertatea de exprimare și de informare.

Platformele online ar trebui să furnizeze explicații clare, ușor de înțeles și suficient de detaliate cu privire la politica lor referitoare la conținut în cadrul condițiilor pentru furnizarea serviciilor. Acestea trebuie să precizeze atât tratamentul aplicat conținutului ilegal, cât și conținutul care nu respectă condițiile platformei pentru furnizarea serviciilor. Toate restricțiile cu privire la tipul de conținut permis pe o anumită platformă trebuie să fie specificate și comunicate în mod clar utilizatorilor. Aceste explicații ar trebui să cuprindă și procedurile instituite pentru contestarea deciziilor de eliminare, inclusiv a celor determinate de notificatorii de încredere.

16.Transparența privind procedurile de notificare și de acțiune

Raportarea transparentă trebuie să includă și rezultatul aplicării politicilor platformei privind gestionarea conținutului.

Platformele online ar trebui să publice rapoarte de transparență care să conțină informații suficient de detaliate privind numărul și tipul notificărilor primite și măsurilor luate, precum și timpul necesar prelucrării și sursa notificării 51 . Aceste rapoarte ar trebui să includă informații și în legătură cu contestațiile, dacă există, și răspunsurile date acestora. Comisia încurajează publicarea regulată a acestor informații, cel puțin o dată pe an.

Ținând seama în mod corespunzător de diferențele specifice conținutului, aceste rapoarte de transparență ar putea fi îmbunătățite printr-o anumită standardizare la nivelul de ansamblu al pieței unice digitale. Aceasta ar permite o mai bună monitorizare, ar facilita agregarea electronică a acestor informații și ar putea contribui la evitarea barierelor inutile în calea furnizării transfrontaliere a serviciilor de găzduire.

Ar trebui să se acorde atenție specială abilitării platformelor online de dimensiuni mai mici și IMM­urilor în ceea ce privește furnizarea de astfel de date de transparență și orice activitate de asistență, precum standardizarea, ar trebui să asigure menținerea la un nivel minim a sarcinilor administrative.

Comisia va analiza în continuare, în cadrul unor dialoguri structurate cu industria, potențialul standardizării în ceea ce privește procedurile de notificare, raportarea transparentă în legătură cu sistemele de eliminare a conținutului și rezultatele acestora.

17.Garanții împotriva eliminării în exces și utilizării abuzive a sistemului

Acțiunea expeditivă, incluzând măsurile de filtrare a materialelor încărcate sau detectarea automată având ca scop eliminarea rapidă a conținutului ilegal, în special atunci când nu există „o prezență umană în ciclul de evaluare”, poate afecta justețea deciziei și implica riscul eliminării unui conținut legal. Prin urmare, este important să se instituie garanții suficiente, astfel încât conținutul eliminat în mod eronat să poată fi restabilit.

18.Contestarea unei notificări

În general, persoanele care au furnizat conținutul trebuie să beneficieze de posibilitatea de a ataca această decizie prin intermediul unei contestații. Această măsură este valabilă și atunci când conținutul a fost eliminat automat.

De exemplu, în conformitate cu articolul 28a din propunerea de modificare a DSMAV, statele membre trebuie să se asigure că există mecanisme pentru introducerea plângerilor și exercitarea căilor de atac în vederea soluționării litigiilor dintre utilizatori și furnizorii de platforme de partajare a materialelor video referitoare la aplicarea măsurilor corespunzătoare care pot fi luate de aceste platforme.

În cazul în care în contestație se prezintă motive rezonabile pentru care se poate considera că activitatea sau informațiile care fac obiectul notificării nu sunt ilegale, furnizorul platformei trebuie să restabilească fără întârziere conținutul care a fost eliminat sau să permită reîncărcarea acestuia de către utilizator, fără a aduce atingere condițiilor platformei privind furnizarea serviciilor.

Posibilitatea de a contesta deciziile ar trebui să conducă la o scădere a numărului de eliminări nejustificate de conținut legal și ar putea, de asemenea, să furnizeze dovezi documentare pentru mecanismele de soluționare extrajudiciară a litigiilor sau pentru procedurile judiciare de apel.

În anumite circumstanțe, informarea furnizorului de conținut și/sau permiterea contestațiilor pot să nu fie adecvate – în special în cazurile în care acest lucru ar afecta competențele de investigare ale autorităților statelor membre, necesare pentru prevenirea, detectarea și urmărirea penală a infracțiunilor, precum în cazul materialelor care conțin abuzuri sexuale asupra copiilor.

Platformele online ar trebui să pună la dispoziție proceduri de contestație online simple. Atunci când se depune o contestație, platformele online trebuie să ofere un răspuns și, în cazul unei decizii negative, să specifice motivele. Atunci când în statul membru în cauză există organisme de soluționare extrajudiciară a litigiilor, platformele sunt încurajate să permită utilizarea acestora pentru soluționarea litigiilor referitoare la contestații.

19.Măsurile luate împotriva notificărilor și contestațiilor introduse cu rea-credință

52 În același timp, procedurile de notificare și de acțiune pot face obiectul unor abuzuri, fie din motivul practicilor necorespunzătoare, fie din rea-credință. Aceste practici trebuie să fie descurajate ferm, de exemplu prin reducerea statutului prioritar al notificărilor provenind de la un notificator care trimite un număr mare de notificări nevalide sau care primește un număr mare de contestații ori prin revocarea statutului de notificator de încredere conform unor criterii bine stabilite și transparente. Aceste politici ar trebui să fie, de asemenea, descrise clar în condițiile pentru furnizarea serviciilor ale platformei online și să facă parte din raportarea generală de transparență a platformelor online, pentru a spori răspunderea publică. Ar trebui să se instituie măsuri similare și în cazul contestațiilor abuzive.

20.Prevenirea reapariției conținutului ilegal

Conținutul ilegal, odată șters și eliminat, nu ar trebui să reapară online. Prevenirea eficientă și eficace a reapariției pe baza bunelor practici existente, precum și pe baza unor garanții adecvate este esențială pentru a asigura buna funcționare a sistemului. Prevenirea diseminării între platforme a materialelor cunoscute ca ilegale necesită o cooperare mai strânsă între furnizorii de servicii online, cu respectarea deplină a normelor aplicabile ale dreptului concurenței. Este importantă, de asemenea, și creșterea cooperării între autoritățile de aplicare a legii și societățile mici, mai puțin rezistente, care, dacă sunt considerate mai vulnerabile decât altele, ar putea deveni platforme preferate de infractori și alte persoane implicate în activități online de încălcare a normelor.

21.Măsuri împotriva persoanelor care încalcă normele în mod repetat

53 Pentru a evita republicarea de conținut ilegal de către utilizatori care postează în mod repetat conținut de aceeași natură, care încalcă normele, numeroase platforme au instituit deja măsuri împotriva acestor persoane, de exemplu suspendarea sau închiderea conturilor sau măsuri de blocare a utilizatorilor de tip shadow-banning.

Platformele online ar trebui să ia măsuri prin care utilizatorii să fie descurajați să încarce în mod repetat conținut ilegal de aceeași natură și care să vizeze întreruperea efectivă a diseminării conținutului ilegal în cauză.

Aceste măsuri ar trebui să fie aplicabile și atunci când persoana care încalcă normele este aceeași, iar esența conținutului în cauză este de aceeași natură și, în cazurile justificate, utilizatorul a fost notificat cu promptitudine în legătură cu notificarea (notificările) primită(e) împotriva sa și cu privire la iminenta suspendare sau închidere a contului. Aceasta i-ar permite utilizatorului să conteste decizia și ar facilita accesul la căile de atac judiciare împotriva măsurii, eventual în baza contractului dintre utilizator și platformă și în conformitate cu legislația aplicabilă. Și în astfel de cazuri, orice prelucrare a datelor cu caracter personal trebuie să respecte pe deplin normele relevante privind protecția datelor.

Încă o dată, furnizorului de conținut nu ar trebui să i se transmită nicio informare sau notificare dacă acest lucru ar afecta competențele de investigare ale statelor membre necesare pentru prevenirea, detectarea și urmărirea penală a infracțiunilor, atunci când este furnizat temeiul juridic necesar.

22.Filtrele automate pentru prevenirea reîncărcării

Pe lângă tehnologiile utilizate pentru identificarea conținutului potențial ilegal menționate la punctul 3.3, există instrumente tehnologice care pot fi utilizate cu un grad mai mare de fiabilitate pentru amprentarea și filtrarea (eliminarea și menținerea eliminării) conținutului care a fost deja identificat și evaluat ca ilegal. Prin urmare, Comisia încurajează ferm utilizarea în mai mare măsură a acestor instrumente, sub rezerva unor garanții precum reversibilitatea și excepțiile, astfel cum sunt prezentate mai jos.

Acest lucru se întâmplă în prezent cu baza de date a amprentelor electronice (Database of Hashes) dezvoltată în cadrul Forumului UE pentru internet și utilizată în legătură cu conținutul cu caracter terorist, în domeniul drepturilor de autor sau în legătură cu materialele care conțin abuzuri sexuale asupra copiilor, dar și cu produsele care au fost semnalate de autoritățile de aplicare a legii ca fiind neconforme cu legislația relevantă. Aceste practici au avut rezultate bune, dar eficacitatea lor depinde de continuarea îmbunătățirilor cu scopul de a limita identificarea eronată a conținutului și de a facilita luarea deciziilor ținând seama de context, precum și de garanțiile necesare în materie de reversibilitate.

De exemplu, bazându-se pe practicile din domeniul drepturilor de autor în ceea ce privește recunoașterea automată a conținutului, propunerea Comisiei privind drepturile de autor în cadrul pieței unice digitale recunoaște aceste tehnologii – în măsura în care sunt adecvate și proporționale – ca un posibil mijloc, inter alia, de prevenire a publicării conținutului fără licență în cadrul serviciilor online relevante.

Procedurile automate de menținere a eliminării ar trebui să permită excepții bazate pe context și pe posibilitatea ca un conținut care a fost eliminat să fie modificat și să devină astfel conform cu cerințele legale sau de altă natură. Domeniul de aplicare și momentul în care sunt aplicate excepțiile bazate pe context ar trebui să țină seama de natura specifică a conținutului și de orice amenințări asociate la adresa securității, precum și de posibilitatea suspendării temporare a conținutului respectiv, în așteptarea unei evaluări mai aprofundate.

Comisia încurajează ferm utilizarea în mai mare măsură și dezvoltarea tehnologiilor automate pentru a preveni reapariția online a conținutului ilegal.

Atunci când se utilizează instrumente automate pentru prevenirea reapariției conținutului ilegal, ar trebui să fie disponibilă o garanție de reversibilitate în cazul deciziilor eronate, iar utilizarea și rezultatele acestor tehnologii ar trebui să fie prezentate transparent în condițiile platformei pentru furnizarea serviciilor.

Toate platformele online ar trebui să aibă acces la bazele de date utilizate pentru corelarea și identificarea automată a conținutului ilegal republicat, sub rezerva conformității oricăror operațiuni de prelucrare cu legislația aplicabilă privind protecția datelor cu caracter personal și cu dreptul concurenței. Politicile de confidențialitate ale societăților ar trebui să includă informații transparente privind prelucrarea datelor cu caracter personal în cazul acestor baze de date.

Platformele online ar trebui, de asemenea, să își actualizeze permanent instrumentele, pentru a se asigura că întregul conținut ilegal este depistat, ținând seama de comportamentul și tacticile în continuă schimbare ale infractorilor și ale altor persoane implicate în activități online care încalcă normele. În cazul instrumentelor utilizate în legătură cu conținutul cu caracter terorist, acestea ar trebui să fie adaptate pentru a depista atât conținutul nou, cât și conținutul mai vechi și pentru a asigura analizarea și eliminarea rapidă a acestuia. Acest conținut ar trebui să fie adăugat în bazele de date ale instrumentelor care acționează la nivelul tuturor platformelor, precum sus-menționata bază de date a amprentelor electronice (utilizată în prezent în legătură cu conținutul cu caracter terorist). Aceste dezvoltări tehnologice ar trebui să aibă loc în contextul cooperării între platformele online, autoritățile competente și alte părți interesate, inclusiv societatea civilă.

23.Concluzii

Creșterea volumului de conținut ilegal găzduit de platformele online cauzează prejudicii reale în cadrul societății, inclusiv riscuri la adresa integrității, demnității și sănătății cetățenilor; dacă nu sunt abordate în mod corespunzător, aceste prejudicii vor conduce inclusiv la diminuarea încrederii în serviciile digitale, în sens larg, și, în ultimă instanță, în piața unică digitală – un motor esențial al inovării, al creșterii și al creării de locuri de muncă. Chiar dacă acest conținut este creat și încărcat de terți, influența în continuă creștere a platformelor online în societate, care decurge din rolul lor de controlori ai conținutului și informațiilor, le crește responsabilitățile față de utilizatorii lor și față de societate în ansamblu. Prin urmare, platformele online ar trebui să se implice proactiv în filtrarea și eliminarea conținutului ilegal și în prevenirea reapariției acestuia, ar trebui să instituie proceduri eficace de notificare și de acțiune, să stabilească interfețe pe deplin funcționale cu terți (precum notificatorii de încredere) și să acorde o prioritate deosebită notificărilor din partea autorităților naționale de aplicare a legii. În situațiile în care platformele online sunt cele care decid ce conținut ar trebui să fie considerat ilegal, în conformitate cu legea, ar trebui să se instituie sisteme adecvate de control și echilibru.

Prezenta comunicare oferă un set de orientări și, ca atare, nu aduce modificări cadrului juridic aplicabil și nu conține norme obligatorii din punct de vedere juridic; scopul său principal este de a îndruma platformele online în ceea ce privește modalitățile în care acestea își pot îndeplini responsabilitatea în legătură cu conținutul ilegal pe care îl găzduiesc. De asemenea, prezenta comunicare vizează răspândirea bunelor practici procedurale în ceea ce privește diferitele forme de conținut ilegal și promovarea cooperării mai strânse între platforme și autoritățile competente. Ca atare, comunicarea prezintă o abordare la nivel european pe care platformele online o pot adopta pentru combaterea conținutului ilegal, combinând necesitatea măsurilor rapide și eficace de eliminare a conținutului ilegal și a prevenirii și urmăririi penale a infracțiunilor cu garanțiile privind dreptul la libera exprimare online. Aceste orientări vor completa și vor consolida dialogurile în curs la nivel de sector.

Trebuie să se acorde o atenție specială asigurării faptului că platformele online de dimensiuni mai mici pot pune în aplicare astfel de proceduri și multe dintre elementele prezentei comunicări au fost concepute ținând seama de nevoile specifice ale acestora. Cu toate acestea, Comisia va analiza și alte modalități de a susține adoptarea orientărilor de către platformele de dimensiuni mai mici.

Piața unică digitală are nevoie de o mai mare coerență a răspunsurilor de politică publică la nivel transfrontalier. Prin prezenta comunicare, Comisia furnizează, așadar, ca un prim pas, instrumente comune pentru abordarea provocării comune a eliminării conținutului ilegal.

Scrisoarea de intenție din 13 septembrie 2017 a președintelui Comisiei Europene adresată președintelui Parlamentului European și președintelui Consiliului Uniunii Europene în legătură cu asigurarea unui spațiu al justiției și drepturilor fundamentale bazat pe încredere reciprocă anunța măsuri suplimentare pentru asigurarea detectării și eliminării rapide și proactive a conținutului ilegal de incitare la ură, violență și terorism. Prezenta comunicare constituie un prim element al acestor măsuri. Comisia se așteaptă ca platformele online să ia măsuri rapide în lunile următoare, inclusiv în contextul dialogurilor relevante, în special în domeniul terorismului și al discursului ilegal de incitare la ură.

Comisia va continua schimburile și dialogurile cu platformele online și alte părți interesate relevante. De asemenea, va monitoriza progresele și va analiza dacă sunt necesare măsuri suplimentare pentru a asigura detectarea și eliminarea rapidă și proactivă a conținutului online ilegal, inclusiv eventuale măsuri legislative care să completeze cadrul de reglementare existent. Aceste lucrări vor fi finalizate până în luna mai 2018.

(1)

În prezent, în fiecare secundă, aproximativ 8 000 de mesaje sunt postate pe Twitter, 1 000 de fotografii sunt postate pe Instagram, 60 000 de căutări sunt efectuate pe Google și 70 000 de materiale video sunt vizualizate pe YouTube. A se vedea http://www.internetlivestats.com/

(2)

A se vedea punctul 2.

(3)

Concluziile Consiliului European, ST 8 2017 INIT, 22 și 23 iunie 2017, Declarația G7 de la Taormina, 26 mai 2017, și Declarația liderilor G20, 8 iulie 2017.

(4)

Rezoluția Parlamentului European din 15 iunie 2017 referitoare la platformele online [2016/2274(INI)].

(5)

La baza elementelor prezentate în comunicare stau informații care provin dintr-o amplă serie de consultări, atât publice, cât și specifice, precum și din atelierele organizate cu părțile interesate.

(6)

A se vedea recentul Raport al Comisiei către Parlamentul European și Consiliu de evaluare a punerii în aplicare a măsurilor menționate la articolul 25 din Directiva 2011/93/UE din 13 decembrie 2011 privind combaterea abuzului sexual asupra copiilor, a exploatării sexuale a copiilor și a pornografiei infantile.

(7)

Directiva (UE) 2017/541 privind combaterea terorismului obligă statele membre să ia măsurile necesare pentru a asigura eliminarea promptă a conținutului online care constituie o instigare la comiterea de acte teroriste (articolul 21). În acest domeniu, în contextul Forumului UE pentru internet, platformele elimină în mod voluntar conținutul cu caracter terorist pe baza sesizărilor trimise de Unitatea de semnalare a conținutului online a Europol (Internet Referral Unit - IRU).

(8)

COM(2016) 593.

(9)

COM(2016) 287.

(10)

http://ec.europa.eu/justice/fundamental-rights/files/hate_speech_code_of_conduct_en.pdf

(11)

http://europa.eu/rapid/press-release_IP-15-6243_en.htm

(12)

http://ec.europa.eu/transparency/regdoc/rep/3/2016/EN/3-2016-3724-EN-F1-1.PDF

(13)

JO C 250, 1.8.2017.

(14)

  http://ec.europa.eu/environment/cites/pdf/WAP_EN_WEB.pdf  

(15)

SWD(2016)163 din 25.5.2016.

(16)

http://ec.europa.eu/internal_market/scoreboard/performance_by_governance_tool/consumer_protection_cooperation_network/index_en.htm

(17)

Comunicarea COM(2012) 196 final (Un internet mai bun pentru copii): https://ec.europa.eu/digital-single-market/en/alliance-better-protect-minors-online  

(18)

COM(2016)288 și COM(2017)228.

(19)

  http://europa.eu/rapid/press-release_IP-17-1471_ro.htm  

(20)

http://ec.europa.eu/newsroom/just/item-detail.cfm?item_id=71674

(21)

http://europa.eu/rapid/press-release_IP-17-544_en.htm

(22)

http://www.inhope.org/Libraries/Annual_reports/INHOPE_Annual_Report_2015.sflb.ashx?download=true

(23)

Directiva 2000/31/CE din 8 iunie 2000 privind comerțul electronic.

(24)

Trebuie remarcat că, în conformitate cu Directiva privind comerțul electronic, beneficiază de derogarea în materie de răspundere prevăzută la articolele 12-14 doar acei furnizori de servicii ale societății informaționale care se califică drept furnizori intermediari de servicii [și anume care furnizează servicii de simplă transmitere, stocare („caching”) sau, respectiv, găzduire]. Considerentul 42 clarifică faptul că, pentru a fi acoperite de derogarea în materie de răspundere, activitățile trebuie să aibă „caracter pur tehnic, automat și pasiv, ceea ce implică faptul că furnizorul de servicii ale societății informaționale nu cunoaște și nici nu controlează informațiile transmise sau stocate”.

(25)

Cele mai multe platforme online oferă servicii de găzduire a conținutului încărcat de utilizatorii lor.

(26)

Considerentul 40 al Directivei privind comerțul electronic. Trebuie menționat că prezenta comunicare se referă în principal la furnizorii de servicii de găzduire, mai degrabă decât la furnizorii de servicii de simplă transmitere (articolul 12) sau furnizorii de servicii de stocare („caching”) (articolul 13).

(27)

Un serviciu de găzduire este un serviciu al societății informaționale care constă în stocarea de informații furnizate de un destinatar al serviciului. Această categorie poate cuprinde o varietate de actori, de la piețele online, platformele de partajare a materialelor video, rețelele de socializare, site-urile de blogging sau de recenzii, la secțiunile dedicate comentariilor utilizatorilor din paginile de știri.

(28)

Exemplele de domenii care sunt vizate (sau propuse) de legislația UE includ incitarea la acte de terorism, discursul ilegal de incitare la ură, abuzul sexual asupra copiilor, drepturile de proprietate intelectuală, siguranța produselor, ofertele și vânzările de produse alimentare sau din tutun și de medicamente contrafăcute, normele de protecție a consumatorilor sau măsurile pentru siguranța produselor etc. În 2016, Comisia a clarificat și obligațiile de transparență și diligență profesională ale platformelor online prevăzute în Directiva 2005/29/CE privind practicile comerciale neloiale atunci când platformele acționează în calitate de comercianți față de consumatori.

(29)

Propunerea de revizuire a Directivei serviciilor mass-media audiovizuale abordează acest aspect în legătură cu conținutul audiovizual.

(30)

Articolul 14 alineatul (3) din Directiva privind comerțul electronic clarifică faptul că articolul 14 „nu afectează posibilitatea ca o instanță judecătorească sau o autoritate administrativă să impună furnizorului de servicii, în conformitate cu cadrul legislativ din statele membre, să pună capăt unei încălcări sau să o prevină”. De exemplu, Directiva 2004/48/CE privind respectarea drepturilor de proprietate intelectuală stipulează la articolul 11 că „statele membre asigură de asemenea ca titularii drepturilor să poată solicita pronunțarea unui ordin judecătoresc împotriva intermediarilor ale căror servicii sunt utilizate de un terț pentru a încălca un drept de proprietate intelectuală, fără a aduce atingere articolului 8 alineatul (3) din Directiva 2001/29/CE”.

(31)

Articolul 15 alineatul (2) din Directiva privind comerțul electronic prevede că „[s]tatele membre pot institui obligația furnizorilor de servicii ale societății informaționale de a informa prompt autoritățile publice competente despre presupuse activități ilicite pe care le-ar desfășura destinatarii serviciilor lor ori despre presupuse informații ilicite pe care aceștia le-ar furniza sau obligația de a comunica autorităților competente, la cererea acestora, informații care să permită identificarea destinatarilor serviciilor cu care au încheiat un acord de stocare – hosting”.

(32)

În sensul articolului 5 din Directiva (UE) 2017/541 privind combaterea terorismului.

(33)

Considerentul 42 al Directivei privind comerțul electronic. A se vedea Google France, punctele 114 și 120; hotărârea din 12 iulie 2011, L'Oréal/eBay, C324/09, punctul 113.

(34)

eBay 115.

(35)

eBay 116.

(36)

Considerentul 41 al Directivei privind comerțul electronic.

(37)

Considerentul 40 al Directivei privind comerțul electronic.

(38)

Articolul 15 alineatul (1) din Directiva privind comerțul electronic.

(39)

Considerentul 40 al Directivei privind comerțul electronic.

(40)

eBay 120-121.

(41)

Considerentul 40 al Directivei privind comerțul electronic.

(42)

Considerentul 40 și articolul 15 alineatul (1) din Directiva privind comerțul electronic.

(43)

http://www.consilium.europa.eu/en/press/press-releases/2017/06/22-euco-security-defence/

(44)

Actualele eforturi de cercetare și inovare ale industriei sunt îndreptate către dezvoltarea de instrumente analitice pentru o mai bună înțelegere a limbajului natural, a cascadelor de informații în rețelele de socializare, pentru identificarea surselor de informații, a tiparelor de distribuție și a identităților false. Și Comisia a sprijinit cercetarea și inovarea în acest domeniu, prin finanțarea de proiecte având ca scop dezvoltarea unor instrumente de detectare automată pentru verificarea veridicității conținutului generat de utilizatori în rețelele de socializare. Aceste instrumente ar putea contribui la identificarea potențialelor informații false în texte, imagini sau materiale video și ar putea susține detectarea știrilor false. Cu toate acestea, stabilirea caracterului ilegal al acestui conținut depășește actualele capacități funcționale ale acestor instrumente.

(45)

Pentru mai multe informații, a se vedea https://ec.europa.eu/info/law/better-regulation/initiatives/ares-2017-3896097_en și https://ec.europa.eu/home-affairs/what-we-do/policies/organized-crime-and-human-trafficking/e-evidence_en.

(46)

Articolul 6 alineatul (1) litera (c) coroborat cu articolul 6 alineatul (4).

(47)

În conformitate cu articolul 15 alineatul (2) din Directiva privind comerțul electronic, „[s]tatele membre pot institui obligația furnizorilor de servicii ale societății informaționale de a informa prompt autoritățile publice competente despre presupuse activități ilicite pe care le-ar desfășura destinatarii serviciilor lor ori despre presupuse informații ilicite pe care aceștia le-ar furniza sau obligația de a comunica autorităților competente, la cererea acestora, informații care să permită identificarea destinatarilor serviciilor cu care au încheiat un acord de stocare – hosting”.

(48)

 Shaping Internet Research Investigations Unified System.

(49)

Europol va continua să faciliteze crearea de puncte unice de contact, oferind cursuri de formare relevantă pentru autoritățile de aplicare a legii din țările unde încă nu s-au înființat astfel de puncte.

(50)

În cazul în care se prelucrează date cu caracter personal, platformele trebuie să asigure politici transparente de confidențialitate în conformitate cu articolul 12 din Regulamentul general privind protecția datelor.

(51)

Rapoarte referitoare la propriile investigații, la notificările utilizatorilor generali, la notificările transmise de autoritățile de aplicare a legii etc.

(52)

Dovezile sugerează că aceste informații sunt utilizate de concurenți (Notice and Takedown in Everyday Practice, J Urban et al., UC Berkeley, 2016) și că practica de creare automată a notificărilor a fost utilizată abuziv, ducând la crearea de linkuri către conținuturi create artificial (Raportul de transparență al Google).

(53)

 Shadow banning înseamnă blocarea accesului unui utilizator la o comunitate online în așa fel încât acesta să nu își dea seama că a fost blocat.

Top