Bruxelas, 28.9.2017

COM(2017) 555 final

COMUNICAÇÃO DA COMISSÃO AO PARLAMENTO EUROPEU, AO CONSELHO, AO COMITÉ ECONÓMICO E SOCIAL EUROPEU E AO COMITÉ DAS REGIÕES

Combater os conteúdos ilegais em linha

Rumo a uma responsabilidade reforçada das plataformas em linha


1.Introdução

1 As plataformas em linha são importantes vetores de inovação e de crescimento da economia digital. Oferecem um universo de possibilidades de acesso à informação e de intercâmbios, bem como novas oportunidades de mercado, em especial para as pequenas e médias empresas (PME). As plataformas em linha constituem também, atualmente, para a maioria das pessoas, o principal ponto de acesso à informação e a outros conteúdos na Internet, seja através dos motores de pesquisa, redes sociais, sítios de microblogues ou plataformas de partilha de vídeos. Recentemente, os modelos de negócio das plataformas também evoluíram no sentido de uma relação mais estreita entre utilizadores e conteúdos, nomeadamente no caso da publicidade direcionada. As plataformas permitem o acesso de milhares de milhões de utilizadores a grandes volumes de conteúdos e de informações e prestam serviços inovadores aos cidadãos e às empresas.

2 No entanto, a grande quantidade de conteúdos ilegais que podem ser carregados e, por conseguinte, consultados em linha suscita sérias preocupações, que necessitam de respostas resolutas e eficazes. O que é ilegal fora de linha é-o também em linha. O incitamento ao terrorismo, os discursos racistas e xenófobos, que instigam publicamente ao ódio e à violência, assim como o material pedopornográfico, são ilegais na UE. A crescente presença de material terrorista em linha e a propagação desse tipo de conteúdos constituem uma séria ameaça à segurança e à dignidade das vítimas. A União Europeia respondeu a estas preocupações adotando um conjunto de medidas. No entanto, a deteção e remoção dos conteúdos ilegais em linha representa um desafio urgente para a atual sociedade digital.

3 4 Dada a preocupação suscitada pela série de atentados terroristas perpetrados na UE e pela proliferação da propaganda terrorista em linha, o Conselho Europeu de 22 e 23 de junho de 2017 declarou que «espera que o setor [...] desenvolva novas tecnologias e novos instrumentos a fim de melhorar a deteção automática e a supressão de conteúdos que incitem a atos terroristas». Tal deverá ser complementado pelas medidas legislativas pertinentes à escala da UE, se necessário». Estes apelos foram reiterados nas declarações proferidas pelos líderes do G7 e do G20 por ocasião das suas recentes cimeiras. Do mesmo modo, o Parlamento Europeu, na sua resolução de junho de 2017 relativa às plataformas em linha, instou-as a «reforçarem as medidas destinadas a combater os conteúdos ilegais e lesivos» e convidou a Comissão a apresentar propostas para abordar estas questões.

As plataformas em linha, a que a maioria dos utilizadores da Internet recorrem para aceder a conteúdos, arcam com uma grande responsabilidade social no que toca a proteger os utilizadores e a sociedade em geral e a impedir que criminosos e outras pessoas envolvidas em atividades ilícitas em linha tirem proveito dos seus serviços. Os espaços digitais abertos criados por estas plataformas não podem tornar-se locais de promoção, por exemplo, do terrorismo, dos discursos ilegais de incitação ao ódio, da pedopornografia ou do tráfico de seres humanos, nem espaços que escapam à alçada do Estado de direito. É claro que a propagação de conteúdos ilegais em linha pode comprometer a confiança dos cidadãos no ambiente digital, além de ameaçar o desenvolvimento económico futuro dos ecossistemas das plataformas e do Mercado Único Digital. Dada a responsabilidade decorrente do papel central que desempenham na sociedade, as plataformas em linha deverão intensificar de forma decisiva as suas ações para resolver este problema.

A luta contra os conteúdos ilegais em linha deverá ser travada com salvaguardas sólidas e adequadas, de modo a garantir a proteção dos diferentes direitos fundamentais em jogo. Atendendo ao papel cada vez mais importante que assumem na garantia do acesso à informação, as plataformas em linha desempenham também uma função crucial na criação desse equilíbrio. A luta contra os conteúdos ilegais em linha à escala da União deverá assentar e ter igualmente em conta as ações da UE ao nível mundial.

A presente comunicação define um conjunto de orientações e de princípios para as plataformas, de modo a intensificar a luta contra os conteúdos ilegais em linha 5 , em cooperação com as autoridades nacionais, os Estados-Membros e demais partes interessadas. O objetivo é facilitar e acelerar a aplicação de boas práticas em matéria de prevenção, deteção, remoção e bloqueio do acesso a conteúdos ilegais, de modo a garantir a remoção efetiva desses conteúdos, uma maior transparência e a proteção dos direitos fundamentais em linha. Esta comunicação visa igualmente clarificar as responsabilidades das plataformas quando tomam medidas proativas para detetar, remover ou impossibilitar o acesso a conteúdos ilegais (as chamadas medidas do «Bom Samaritano»).

2.Contexto

6 7 8 9 A União Europeia já respondeu ao desafio dos conteúdos ilegais em linha através de medidas vinculativas e não vinculativas. Estas respostas políticas incluem a Diretiva relativa à luta contra o abuso sexual e a exploração sexual de crianças e a pornografia infantil, a Diretiva relativa à luta contra o terrorismo, as medidas propostas no âmbito das reformas dos direitos de autor e a Diretiva relativa aos Serviços de Comunicação Social Audiovisual (SCSA).

10 11 12 13 14 15 16 17 Estas medidas legislativas, em vigor e a nível de proposta, foram complementadas com uma série de medidas não legislativas, como o código de conduta sobre discursos ilegais de incitação ao ódio em linha, os trabalhos do Fórum da UE sobre a Internet no que diz respeito à propaganda terrorista, o memorando de entendimento sobre a venda de mercadorias de contrafação, a Comunicação da Comissão sobre a fiscalização do mercado dos produtos vendidos em linha, a venda em linha de produtos da cadeia alimentar, o Plano de Ação da UE contra o tráfico de animais selvagens, as orientações sobre a Diretiva relativa às práticas comerciais desleais ou as ações conjuntas das autoridades nacionais no âmbito da Rede de Cooperação no domínio da Defesa do Consumidor. A Estratégia europeia para uma Internet melhor para as crianças é uma iniciativa de autorregulação destinada a melhorar o ambiente em linha para as crianças e os jovens, tendo em conta os riscos de exposição a materiais como os conteúdos com cenas de violência ou de abuso sexual ou o ciberassédio.

18 Nas suas comunicações de 2016 e 2017, a Comissão sublinhou a necessidade de as plataformas em linha atuarem de forma mais responsável e intensificarem os esforços de autorregulação à escala da UE, com vista à remoção dos conteúdos ilegais. Além disso, a Comissão comprometeu-se a reforçar a coordenação dos diferentes diálogos setoriais com as plataformas e a ponderar a necessidade de orientações para os procedimentos formais de notificação e ação. Essa coordenação deverá ser assegurada em sinergia, e sem prejuízo dos diálogos já em curso e dos trabalhos iniciados noutras áreas, nomeadamente no âmbito da Agenda Europeia para a Segurança, ou no domínio dos discursos ilegais de incitação ao ódio.

19 20 21 22 Os relatórios recentes sobre algumas destas iniciativas setoriais específicas apontam para alguns progressos. No caso dos discursos ilegais de incitação ao ódio, os relatórios de junho de 2017 indicavam um aumento das remoções de conteúdos de 28 % para 59 % de uma amostra de conteúdos notificados nalguns países da UE num período de seis meses, registando contudo diferenças significativas entre plataformas. No mesmo período, verificaram-se também algumas melhorias no que respeita à rapidez com que os conteúdos foram removidos, apesar de, ainda em 28 % dos casos, essas remoções só terem acontecido ao fim de uma semana. Significa isto que a abordagem não regulamentar pode produzir resultados, em especial quando conjugada com medidas destinadas a facilitar a cooperação entre todos os operadores interessados. Desde a criação do Fórum da UE sobre a Internet para combater os conteúdos terroristas, cerca de 80 % a 90 % dos conteúdos sinalizados pela Europol foram removidos. Relativamente ao material pedopornográfico, o sistema de linhas diretas INHOPE registou, já em 2015, uma taxa de remoção de 91 % num período de 72 horas, sendo que 1 em cada 3 conteúdos é removido num período de 24 horas.

Os vários diálogos setoriais em curso revelaram também a existência de uma grande semelhança de procedimentos entre os diversos setores no que se refere à deteção, identificação, remoção e prevenção do recarregamento, conclusões que contribuíram para fundamentar a presente comunicação.

23 A nível da UE, o quadro jurídico geral aplicável à remoção de conteúdos ilegais é a Diretiva sobre o comércio eletrónico, a qual, inter alia, harmoniza as condições ao abrigo das quais algumas plataformas em linha podem beneficiar da isenção de responsabilidade em relação aos conteúdos ilegais que armazenam a nível de Mercado Único Digital.

24 25 26 Os conteúdos ilegais existentes nas plataformas em linha podem proliferar, sobretudo através dos serviços em linha que permitem carregar conteúdos de terceiros. Esses serviços de «armazenagem em servidor» são, em determinadas condições, abrangidos pelo artigo 14.º da Diretiva sobre o comércio eletrónico. Este artigo estabelece que os prestadores de serviços de armazenagem em servidor não podem ser responsabilizados pela informação armazenada a pedido de terceiros, desde que: a) não tenham conhecimento efetivo da atividade ou informação ilegal e, no que se refere a uma ação de indemnização por perdas e danos, não tenham conhecimento de factos ou de circunstâncias que evidenciam a atividade ou informação ilegal, ou b) a partir do momento em que tomem conhecimento da ilicitude, atuem com diligência no sentido de remover ou impossibilitar o acesso às informações. Ao mesmo tempo, a diretiva deverá «constituir a base adequada para a criação de mecanismos rápidos e fiáveis para remover as informações ilícitas e impossibilitar o acesso a estas».

Além disso, o artigo 15.º da Diretiva sobre o comércio eletrónico proíbe os Estados-Membros de imporem «aos prestadores, para o fornecimento dos serviços mencionados nos artigos [...] e 14.º, uma obrigação geral de vigilância sobre as informações que estes transmitam ou armazenem, ou uma obrigação geral de procurar ativamente factos ou circunstâncias que indiciem ilicitudes». De igual modo, no considerando 47 da diretiva, recorda-se que esta regra apenas se aplica às obrigações gerais de vigilância e «não diz respeito a obrigações de vigilância em casos específicos e, em especial, não afeta as decisões das autoridades nacionais nos termos das legislações nacionais».

Neste contexto, na sua Comunicação de 2016 sobre as plataformas em linha, a Comissão comprometeu-se a manter um regime de responsabilidade equilibrado e previsível para estas plataformas, enquanto quadro regulamentar fundamental de apoio à inovação ao nível do Mercado Único Digital.

As orientações constantes da presente comunicação são sem prejuízo do acervo da UE e incidem nas atividades das plataformas em linha, nomeadamente os serviços de armazenagem em servidor prestados por essas plataformas 27 , na aceção do artigo 14.º da Diretiva sobre o comércio eletrónico, e abrangem todas as categorias de conteúdos ilegais, tendo devidamente em conta o facto de os diferentes tipos de conteúdos poderem obrigar a tratamentos diferentes.

Atualmente, não existe na UE uma abordagem harmonizada e coerente para a remoção de conteúdos ilegais. Na verdade, registam-se diferentes abordagens em função dos Estados-Membros, das categorias de conteúdos ou do tipo de plataforma em linha. Com uma abordagem mais harmonizada, a luta contra os conteúdos ilegais seria mais eficaz. Além disso, contribuir-se-ia para o desenvolvimento do Mercado Único Digital e reduziria o custo da conformidade com uma multitude de regras imposto às plataformas em linha, incluindo os novos operadores.

28 Importa sublinhar que este quadro jurídico não define, e ainda menos harmoniza, o conceito de «conteúdos ilegais». O que é ilegal é determinado pela legislação específica a nível da UE, bem como pelas legislações nacionais. Por exemplo, embora a natureza, as características e os prejuízos causados pelo material ligado ao terrorismo, os discursos ilegais de incitação ao ódio ou o material pedopornográfico ou relacionado com o tráfico de seres humanos sejam muito diferentes das violações dos direitos de propriedade intelectual ou das regras de segurança dos produtos, das práticas comerciais ilegais em linha ou das atividades em linha de caráter difamatório, todos estes diferentes tipos de conteúdos ilegais são abrangidos pelo mesmo quadro jurídico geral instituído pela Diretiva sobre o comércio eletrónico. Além disso, tendo em conta as grandes semelhanças existentes a nível de processo de remoção destes diferentes tipos de conteúdos, a presente comunicação abrange toda a gama de conteúdos ilegais em linha, embora admita diferenças setoriais específicas, desde que adequadas e justificadas.

Na UE, os tribunais e as autoridades nacionais competentes, nomeadamente as autoridades de aplicação da lei, têm competência para julgar os crimes e impor sanções penais, no âmbito de um processo equitativo quanto à ilegalidade de determinadas atividades ou informações em linha. Paralelamente, as plataformas em linha podem legitimamente impedir que as suas infraestruturas e atividade sejam utilizadas para cometer crimes, tendo a responsabilidade de proteger os seus utilizadores e de impedir os conteúdos ilegais, dispondo habitualmente de meios técnicos para identificar e remover esses conteúdos. Este aspeto é de tal modo importante que as plataformas em linha realizaram investimentos de grande envergadura no sentido do desenvolvimento de tecnologias aperfeiçoadas destinadas a recolher, de forma proativa, informações sobre os conteúdos difundidos nos seus espaços e sobre o comportamento dos utilizadores. Pese embora a importância de uma tomada rápida de decisões relativamente à remoção de conteúdos ilegais, é igualmente necessário aplicar salvaguardas adequadas. Tal obriga também a uma repartição equilibrada dos papéis desempenhados pelos organismos públicos e privados.

Por conseguinte, as orientações e os princípios estabelecidos na presente comunicação não incidem apenas na deteção e remoção de conteúdos ilegais, procurando também dar resposta às questões levantadas pela remoção dos conteúdos legais, por vezes denominada «remoção abusiva» que, por sua vez, influi na liberdade de expressão e no pluralismo dos meios de comunicação social. Deverão, por conseguinte, prever-se salvaguardas adequadas, que devem ser adaptadas ao tipo específico de conteúdos ilegais em causa.

29 Os conteúdos que não sejam necessariamente ilegais mas potencialmente prejudiciais, suscitam indubitavelmente preocupações de interesse público, como é o caso das falsas notícias ou dos conteúdos nocivos para os menores. Contudo, a presente comunicação incide na deteção e remoção dos conteúdos ilegais.

3.Detetar e notificar os conteúdos ilegais 

Esta secção tem como objetivo definir o que as plataformas em linha, as autoridades competentes e os utilizadores deverão fazer para detetar os conteúdos ilegais, de forma rápida e eficaz.

As plataformas em linha podem tomar conhecimento da existência de conteúdos ilegais de várias formas e através de diferentes canais. Esses canais de notificação incluem i) as decisões judiciais ou administrativas; ii) as notificações de autoridades competentes (por exemplo, organismos responsáveis pela aplicação da lei), os «sinalizadores de confiança de conteúdos» especializados, os titulares de direitos de propriedade intelectual ou os utilizadores habituais, ou iii) as investigações desenvolvidas ou o conhecimento detido pelas próprias plataformas.

Para além das obrigações legais, decorrentes do direito nacional e da UE, e do seu «dever de diligência» no âmbito das suas responsabilidades, as plataformas em linha deverão garantir aos utilizadores um ambiente em linha seguro, hostil à utilização criminosa e a outras formas de utilização ilegal, e suscetível de dissuadir e impedir atividades criminosas e outras atividades ilícitas em linha.

4.Tribunais e autoridades competentes

30 Em conformidade com o direito da UE e/ou o direito nacional, os tribunais nacionais e, em certos casos, as autoridades competentes, podem submeter as plataformas em linha a ordens ou decisões administrativas vinculativas, obrigando-as a remover ou bloquear o acesso a conteúdos ilegais.

Uma vez que a rápida remoção do material ilegal é muitas vezes essencial para conter uma difusão mais ampla e limitar os prejuízos, as plataformas em linha deverão ter também a possibilidade de tomar decisões rápidas no que diz respeito a eventuais medidas relativas a conteúdos ilegais em linha, sem serem obrigadas a fazê-lo com base numa decisão judicial ou administrativa, sobretudo quando é uma autoridade de aplicação da lei que identifica os conteúdos alegadamente ilegais e as informa a esse respeito. Ao mesmo tempo, ao assumirem as suas responsabilidades nesta matéria, as plataformas em linha deverão criar as salvaguardas adequadas, a fim de garantirem aos utilizadores um direito de recurso efetivo.

31 As plataformas em linha deverão, por conseguinte, dispor dos recursos necessários para conhecerem os enquadramentos jurídicos em que operam. Deverão também colaborar estreitamente com as autoridades de aplicação da lei e outras autoridades competentes, se necessário, nomeadamente para garantir que estas possam ser rápida e eficazmente contactadas no caso de pedidos de remoção imediata de conteúdos ilegais, assim como para alertar as autoridades de aplicação da lei, se necessário, a respeito de indícios de atividades criminosas em linha. A fim de evitar a duplicação de esforços e de notificações e, assim, reduzir a eficiência e a eficácia do processo de remoção, as autoridades de aplicação da lei e outras autoridades competentes deverão igualmente envidar todos os esforços no sentido de cooperarem na definição de interfaces digitais eficazes, que facilitem a apresentação rápida e fiável de notificações, e assegurarem, de forma eficiente, a identificação e a denúncia de conteúdos ilegais. O estabelecimento de pontos de contacto entre as plataformas e as autoridades é fundamental para o bom funcionamento dessa cooperação.

32 No que diz respeito aos conteúdos terroristas, foi criada na Europol uma Unidade da UE de Sinalização de Conteúdos na Internet (IRU), através da qual os peritos em matéria de segurança avaliam os conteúdos terroristas e os sinalizam à plataforma em linha (embora alguns Estados-Membros disponham da sua própria IRU nacional).

As plataformas em linha deverão reforçar sistematicamente a sua cooperação com as autoridades competentes dos Estados-Membros, cabendo a estes últimos assegurar que os tribunais podem reagir de forma eficaz contra os conteúdos ilegais em linha, assim como manter uma cooperação (transfronteiras) mais estreita entre autoridades.

As plataformas em linha e as autoridades de aplicação da lei ou outras autoridades competentes deverão designar pontos de contacto efetivos na UE e, se for caso disso, definir interfaces digitais eficazes para facilitar a sua interação.

As plataformas e as autoridades de aplicação da lei são igualmente encorajadas a desenvolver interfaces técnicas que lhes permitam colaborar de forma mais eficaz durante todo o ciclo de gestão de conteúdos. A cooperação, incluindo com a comunidade técnica, pode contribuir positivamente para encontrar soluções eficazes e tecnicamente sólidas em resposta a este desafio.

5.Notificações

6.Sinalizadores de confiança

O processo de remoção de conteúdos ilegais é mais rápido e fiável quando as plataformas em linha criam mecanismos para facultar um canal privilegiado aos notificantes com competências especializadas na notificação da presença de conteúdos potencialmente ilegais no seu sítio Web. Trata-se dos chamados «sinalizadores de confiança», ou seja, de entidades especializadas, com competências específicas em matéria de identificação de conteúdos ilegais, e estruturas dedicadas à deteção e identificação desses conteúdos em linha.

Em comparação com os utilizadores comuns, os sinalizadores de confiança deverão contribuir com as suas competências especializadas e trabalhar segundo normas de qualidade elevadas, o que resultará em notificações de melhor qualidade e em processos de retirada definitiva mais rápidos. As plataformas em linha são incentivadas a recorrer às redes existentes de sinalizadores de confiança. Por exemplo, para os conteúdos terroristas, a Unidade de Sinalização de Conteúdos na Internet da Europol dispõe dos conhecimentos especializados necessários para avaliar se determinados conteúdos em linha são de cariz terrorista e extremista violento, e utiliza essas competências para atuar como sinalizador de confiança, para além da sua função de responsável pela aplicação da lei. A rede de linhas diretas INHOPE para denúncia de material pedopornográfico é outro exemplo de sinalizador de confiança. Em relação aos discursos ilegais de incitação ao ódio, existem organizações da sociedade civil ou organismos semipúblicos especializados na identificação e na denúncia de conteúdos ilegais racistas e xenófobos em linha.

Para garantir a qualidade das notificações e a remoção mais rápida dos conteúdos ilegais, o setor poderá acordar, a nível da UE, critérios baseados, nomeadamente, no respeito dos direitos fundamentais e dos valores democráticos. Esses critérios poderão ser definidos através de mecanismos de autorregulação ou no quadro da normalização à escala da UE, de acordo com o qual determinada entidade pode ser considerada um sinalizador de confiança, permitindo um grau de flexibilidade suficiente para ter em conta as características específicas dos conteúdos e o papel do sinalizador de confiança. Na lista não exaustiva desses outros critérios poderão figurar as normas internas de formação, as normas de processo e a garantia da qualidade, bem como as salvaguardas jurídicas em matéria de independência, de conflitos de interesses e de proteção da privacidade e dos dados pessoais. Estas salvaguardas são particularmente importantes no número reduzido de casos em que as plataformas podem remover conteúdos notificados por sinalizadores de confiança sem reverificação da legalidade desses mesmos conteúdos. Nestes casos limitados, os sinalizadores de confiança poderão igualmente ser sujeitos a controlos segundo os mesmos critérios, podendo o seu estatuto de confiança ser atestado através de um sistema de certificação. Em qualquer dos casos, deverão existir salvaguardas suficientes para impedir a utilização abusiva do sistema, tal como descrito no ponto 4.3.

As autoridades competentes deverão ter a possibilidade de participar, se pertinente, nos mecanismos de denúncia dos sinalizadores de confiança.

Importa encontrar um equilíbrio razoável entre a necessidade de garantir a qualidade das notificações provenientes dos sinalizadores de confiança, o âmbito de aplicação das medidas adicionais que as empresas terão de adotar em relação aos sinalizadores de confiança e os encargos decorrentes do cumprimento dessas normas de qualidade. Se os mecanismos implantados pelos sinalizadores de confiança violarem as normas estabelecidas, deverá ser-lhes retirado o privilégio que lhes confere esse estatuto.

A Comissão incentiva a uma colaboração estreita entre as plataformas em linha e os sinalizadores de confiança, em que as notificações dos sinalizadores de confiança possam ser objeto de um procedimento acelerado por parte da plataforma. Esta cooperação deverá prever o intercâmbio de informações por forma a avaliar e melhorar progressivamente o processo de remoção.

A Comissão continuará a estudar, nomeadamente no âmbito dos diálogos com as partes interessadas em causa, a possibilidade de acordo, à escala da UE, sobre os critérios aplicáveis aos sinalizadores de confiança.

7.Notificações dos utilizadores

No âmbito do combate efetivo contra os conteúdos ilegais em linha, os utilizadores comuns deverão dispor de poderes para sinalizar conteúdos ilegais às plataformas em linha e confiar em que as notificações justificadas sejam tidas em conta e rapidamente tomadas medidas.

As plataformas em linha deverão instituir um mecanismo facilmente acessível e de fácil utilização que permita aos seus utilizadores notificar conteúdos considerados ilegais armazenados nessas plataformas.

Quando os conteúdos são do domínio público, esses mecanismos de denúncia deverão também ser acessíveis ao público em geral, sem que seja necessário registar-se como utilizador. Para melhorar a eficiência e a precisão da avaliação dos conteúdos potencialmente ilegais, esse mecanismo deverá permitir uma notificação fácil por meios eletrónicos.

A proposta da Comissão de revisão da Diretiva «Serviços de Comunicação Social Audiovisual» visa obrigar os fornecedores de plataformas de partilha de vídeos a criarem e operarem mecanismos que permitam aos utilizadores denunciar ou sinalizar os conteúdos audiovisuais que possam prejudicar o desenvolvimento físico, mental ou moral de menores, bem como os conteúdos de incitação à violência ou ao ódio.

8.Garantir a qualidade das notificações

As plataformas em linha deverão implantar mecanismos eficazes para facilitar a apresentação de notificações suficientemente precisas e devidamente fundamentadas, que lhes permitam tomar decisões rápidas e informadas em termos de seguimento. Tal deverá facilitar a apresentação de notificações que contenham uma explicação das razões que conduzem o notificante a considerar os conteúdos ilegais e uma indicação clara da localização dos conteúdos em causa (por exemplo, o seu endereço URL).

Esses mecanismos de denúncia deverão ser visíveis, facilmente acessíveis, de fácil utilização e contextuais. Além disso, deverão permitir comunicar facilmente os diferentes tipos de conteúdos, por exemplo, selecionar numa lista de categorias as razões pelas quais os conteúdos são considerado ilegais. Quando tal for tecnicamente possível, poderão ser utilizados elementos como os que permitem efetuar notificações logo após a primeira ocorrência do material ou a reutilização das credenciais de início de sessão.

A apresentação de notificações suficientemente fundamentadas e pormenorizadas permite à plataforma encontrar rapidamente os conteúdos potencialmente ilegais, efetuar uma avaliação sólida da ilegalidade desses conteúdos e tomar medidas com a diligência necessária, se for caso disso. O nível exato de pormenor exigido pelas plataformas para tomar decisões informadas com a diligência necessária pode variar consideravelmente, em função do tipo de conteúdos.

Em princípio, os utilizadores não deverão ser obrigados a identificar-se quando comunicam o que consideram ser conteúdos ilegais, salvo se essa informação for necessária para determinar a legalidade desses conteúdos [por exemplo, para fazer valer direitos de propriedade intelectual (DPI)]. Trata-se especialmente dos casos em que a sua segurança possa ficar comprometida ou em que a revelação da respetiva identidade possa ter implicações legais. Os utilizadores deverão ser incentivados a enviar as suas notificações através de sinalizadores de confiança, caso existam, sempre que pretendam manter o anonimato face às plataformas.

No entanto, os notificantes devem ter a possibilidade de apresentar voluntariamente os seus dados de contacto na notificação, para que a plataforma em linha possa solicitar informações adicionais ou informar o notificante do seguimento eventualmente previsto. Neste caso, o notificante deverá receber um aviso de receção e uma mensagem a indicar o seguimento dado à notificação.

O aviso de receção não só evita que o notificante tenha de verificar se o seu pedido foi objeto de seguimento como poderá também servir de prova em processos judiciais ou extrajudiciais, em conformidade com as regras aplicáveis.

9.Medidas proativas das plataformas em linha

10.Medidas proativas e isenção de responsabilidade

As plataformas em linha deverão, tendo em conta o seu papel central e capacidades e as responsabilidades que lhes estão associadas, adotar medidas proativas eficazes para detetar e remover os conteúdos ilegais em linha, não se limitando a reagir às notificações recebidas. Além disso, para certas categorias de conteúdos ilegais, poderá não ser possível alcançar plenamente o objetivo de reduzir o risco de prejuízos graves sem que as plataformas tomem medidas proativas.

A Comissão considera que a adoção dessas medidas proativas voluntárias não implica automaticamente para a plataforma em linha a perda do benefício da isenção de responsabilidade prevista no artigo 14.º da Diretiva sobre o comércio eletrónico.

Em primeiro lugar, esta isenção de responsabilidade só se aplica aos prestadores de serviços de «armazenagem em servidor» que preenchem as condições previstas no artigo 14.º da diretiva. Trata-se dos prestadores de serviços cujas atividades consistem na armazenagem de informações a pedido de terceiros e que não desempenham um papel ativo que lhes permita ter conhecimento da informação ou deter o seu controlo 33 . 

O considerando 38 da proposta de Diretiva relativa aos direitos de autor no Mercado Único Digital, da Comissão, de 14 de setembro de 2016, prevê o seguinte: «No que diz respeito ao artigo 14.º [da Diretiva sobre o comércio eletrónico], é necessário verificar se o prestador de serviços desempenha um papel ativo, incluindo através da otimização da apresentação das obras ou materiais carregados ou da sua promoção, independentemente da natureza dos meios utilizados para esse efeito».

Especificamente no que diz respeito ao artigo 14.º da Diretiva sobre o comércio eletrónico, no processo L'Oréal vs eBay, o Tribunal de Justiça clarificou que «o simples facto de um operador [/plataforma em linha] armazenar no seu servidor as propostas de venda, fixar as modalidades do seu serviço, ser remunerado por este e prestar informações de ordem geral aos seus clientes não pode ter por efeito privá-lo das derrogações em matéria de responsabilidade previstas [no artigo 14.º da Diretiva sobre o comércio eletrónico]» 34 . Contudo, o Tribunal de Justiça decidiu que existe tal efeito «[quando], em contrapartida, [a plataforma em linha] prestou assistência para otimizar a apresentação das propostas de venda em causa ou para promover estas propostas» 35 . 

Tal sugere que o simples facto de uma plataforma em linha tomar determinadas medidas relacionadas com a prestação dos seus serviços em geral não significa necessariamente que esta desempenha um papel ativo no que respeita a cada um dos conteúdos armazenados e que, por esse motivo, a plataforma em causa não pode beneficiar da isenção de responsabilidade. Na opinião da Comissão, essas medidas podem e deverão incluir medidas proativas para detetar e remover os conteúdos ilegais em linha, em especial nos casos em que são tomadas no âmbito da aplicação das condições de utilização da plataforma. Tal estará em linha com o equilíbrio entre os diferentes interesses em jogo, que a Diretiva sobre o comércio eletrónico pretende estabelecer 36 . Com efeito, a Comissão recorda que é do interesse de todas as partes envolvidas adotar e aplicar procedimentos rápidos e fiáveis para remover as informações ilícitas e impedir o acesso às mesmas 37 . Embora a diretiva se oponha a que as plataformas em linha tenham a obrigação geral de procurar ativamente factos 38 , também reconhece a importância das medidas voluntárias 39 .

Em segundo lugar, em conformidade com o artigo 14.º da Diretiva sobre o comércio eletrónico, os prestadores de serviços abrangidos pelo âmbito de aplicação desta disposição apenas podem beneficiar da isenção de responsabilidade nas duas condições a seguir, a saber quando: a) não tenham conhecimento efetivo da atividade ou informação ilegal e, no que se refere a uma ação de indemnização por perdas e danos, não tenham conhecimento de factos ou de circunstâncias que evidenciam a atividade ou informação ilegal, ou b) a partir do momento em que tomem conhecimento da ilicitude, atuem com diligência no sentido de remover ou impossibilitar o acesso às informações.

O Tribunal de Justiça esclareceu que estas condições abrangem «qualquer situação na qual [a plataforma em linha] em causa toma conhecimento, por qualquer forma, [...] de factos ou de circunstâncias com base nos quais um operador económico diligente devesse constatar a ilicitude em causa» e que tal inclui, para além da notificação por um terceiro, as situações em que a plataforma «toma conhecimento da existência de uma atividade ou de uma informação ilegais na sequência de um exame efetuado por sua própria iniciativa» 40 . 

Significa isto que as medidas proativas tomadas por uma plataforma em linha para detetar e remover conteúdos ilegais podem resultar numa tomada de conhecimento ou de consciência, por parte dessa plataforma, da ilicitude dessas atividades ou informações, o que poderá acarretar a perda da isenção de responsabilidade em conformidade com o artigo 14.º, n.º 1, alínea a), da Diretiva sobre o comércio eletrónico. No entanto, em tais casos, a plataforma em linha continua a ter a possibilidade de atuar de forma diligente no sentido de remover ou de impossibilitar o acesso às informações em causa a partir do momento em que tome conhecimento ou consciência da ilicitude. Se o fizer, a plataforma em linha pode continuar a beneficiar da isenção de responsabilidade prevista no artigo 14.º, n.º 1, alínea b). Por conseguinte, as preocupações relacionadas com a perda do benefício da isenção de responsabilidade não deverão impedir ou impossibilitar a aplicação efetiva das medidas proativas voluntárias que a presente comunicação visa promover.

11.Utilização da tecnologia para detetar conteúdos ilegais

Tendo em conta o volume de material processado por intermédio das plataformas em linha, bem como os progressos tecnológicos realizados em domínios como o tratamento da informação e a inteligência artificial, a utilização de tecnologias de deteção automática e de filtragem tem vindo a tornar-se uma ferramenta cada vez mais importante na luta contra os conteúdos ilegais em linha. Muitas das grandes plataformas estão atualmente a utilizar determinado tipo de algoritmos de concordância, com base numa série de tecnologias, que vão da simples filtragem de metadados, passando pela dispersão e identificação de conteúdos.

De acordo com a Diretiva sobre o comércio eletrónico, as disposições relativas à responsabilidade não devem constituir um obstáculo ao desenvolvimento e à aplicação efetiva de sistemas técnicos de proteção e identificação e dos instrumentos de controlo técnico tornados possíveis pela tecnologia digital 41 . Tal como a diretiva deixa igualmente claro, essas operações devem, no entanto, ocorrer dentro dos limites das regras da UE aplicáveis e do direito nacional, nomeadamente no que se refere à proteção da privacidade e dos dados pessoais e à proibição imposta aos Estados-Membros de criarem obrigações gerais em matéria de vigilância 42 .

A legislação setorial específica pode estabelecer regras de cumprimento obrigatório para que as plataformas em linha tomem medidas, nomeadamente em matéria de direitos de autor, para ajudar na deteção e remoção de conteúdos ilegais, também quando são elegíveis para isenção da responsabilidade prevista no artigo 14.º da Diretiva sobre o comércio eletrónico.

A utilização e o desenvolvimento desta tecnologia são, de uma forma geral, incentivados, em especial quando estão em causa prejuízos graves, tal como exigido pelo Conselho Europeu nas suas conclusões de 22 de junho de 2017 43 . As ferramentas automáticas e os filtros permitem identificar os conteúdos potencialmente ilícitos e a investigação privada e pública tem registado avanços no desenvolvimento destas ferramentas. A título de exemplo, o reconhecimento automático de conteúdos tem-se revelado, ao longo dos anos, um instrumento eficaz no domínio dos direitos de autor.

A Comissão apoia a investigação e as abordagens inovadoras que vão além do atual estado das técnicas, de modo a reforçar a precisão dos meios técnicos de deteção de conteúdos ilegais 44 . Além disso, incentiva o setor a assegurar uma utilização efetiva das inovações que possam contribuir para reforçar a eficiência e a eficácia dos procedimentos de deteção automática. 

Na maior parte dos casos, as boas práticas atualmente aplicadas pelo setor consistem na utilização de ferramentas automáticas para reduzir o conjunto de conteúdos litigiosos a submeter à apreciação de peritos humanos, que podem ter de avaliar o caráter ilegal desses conteúdos. O princípio da intervenção humana é, em geral, um elemento importante dos procedimentos automáticos adotados para determinar a ilegalidade de determinados conteúdos, sobretudo em domínios caracterizados por taxas de erro elevadas ou que necessitam de contextualização. 

A Comissão considera que as medidas proativas tomadas pelas plataformas em linha, abrangidas pelo artigo 14.º da Diretiva sobre o comércio eletrónico, para detetar e remover os conteúdos ilegais por si armazenados, nomeadamente a utilização de ferramentas automáticas e outras destinadas a impedir o recarregamento de conteúdos anteriormente removidos, não conduzem, por si sós, a uma perda da isenção de responsabilidade. 

Em especial, a adoção de tais medidas não implica necessariamente que a plataforma em causa desempenha um papel ativo, o que poderia retirar-lhe o benefício da isenção. Nos casos em que a adoção dessas medidas conduz a plataforma em linha a tomar conhecimento efetivo ou consciência da existência de atividades ou de informações ilícitas, esta deverá atuar de forma diligente no sentido de remover ou de impossibilitar o acesso às informações em causa, de modo a satisfazer a condição que lhe permite continuar a beneficiar da referida isenção.

As plataformas em linha deverão envidar todos os esforços para, de forma proativa, detetar, identificar e remover os conteúdos ilegais em linha. A Comissão encoraja vivamente as plataformas em linha a adotarem medidas proativas voluntárias no sentido da deteção e da remoção dos conteúdos ilegais e a intensificarem a cooperação, o investimento e a utilização das tecnologias de deteção automática.

12.Remoção de conteúdos ilegais 

45 É do interesse de toda a sociedade que as plataformas removam os conteúdos ilegais o mais rapidamente possível. Ao mesmo tempo, a remoção destes conteúdos não deverá impedir as ações penais ou outras medidas de seguimento das infrações que lhe possam estar associadas. A partilha de provas entre as autoridades públicas e as plataformas em linha constitui um aspeto importante nesta matéria. A próxima iniciativa legislativa neste domínio deverá facilitar o acesso transfronteiras aos elementos de prova. A remoção dos conteúdos ilegais pelas plataformas não deverá afetar as investigações nem as ações penais ao abrigo do direito da União ou nacional.

Convém igualmente prever salvaguardas eficazes para reduzir o risco de remoção de conteúdos legais, que se deverão apoiar num conjunto de obrigações de transparência substantivas, de modo a reforçar a responsabilização a nível de processos de remoção.

13.Garantir uma remoção expedita e a denúncia dos crimes às autoridades de aplicação da lei

Nos termos da Diretiva sobre o comércio eletrónico, caso pretendam continuar a beneficiar da isenção de responsabilidade, as plataformas em linha devem atuar com diligência no sentido da remoção dos conteúdos ilegais, logo que deles tomem conhecimento. As implicações práticas desta exigência dependem das circunstâncias específicas do caso concreto, nomeadamente o tipo de conteúdos ilegais, a exatidão da notificação e o prejuízo potencialmente causado.

Na prática, os diferentes tipos de conteúdos requerem diferentes volumes de informação contextual para determinar a legalidade de determinado elemento desses conteúdos. Revela-se, por exemplo, mais fácil decidir do caráter ilegal de determinado material pedopornográfico, que da ilegalidade de declarações de natureza difamatória, que geralmente exigem uma análise atenta do contexto em que foram proferidas.

Quando estão em causa prejuízos graves como, por exemplo, no caso de incitamento à prática de atos de terrorismo, é particularmente importante uma remoção rápida, que pode estar sujeita a prazos específicos. 

Alguns processos voluntários, como o código de conduta sobre discursos ilegais de incitação ao ódio em linha, estabeleceram objetivos indicativos em matéria de prazos de remoção, no caso deste código de conduta, 24 horas para a maioria dos casos.

A eliminação ou suspensão totalmente automatizada de conteúdos pode revelar-se particularmente eficaz, devendo esta medida ser aplicada quando as circunstâncias não deixam dúvidas quanto à ilegalidade do material, nomeadamente nos casos em que a remoção é notificada pelas autoridades de aplicação da lei, ou de conteúdos ilegais conhecidos anteriormente removidos, sob reserva das salvaguardas a que se refere o ponto 4.3.

Regra geral, a remoção decorrente das notificações dos sinalizadores de confiança deverá ser objeto de uma intervenção mais rápida, devido à qualidade e à exatidão das informações prestadas na notificação e ao estatuto de confiança dos sinalizadores.

Quando estão em causa prejuízos económicos decorrentes da violação de direitos de propriedade intelectual, o prejuízo económico potencial de uma tal infração pode estar estreitamente relacionado com a rapidez da remoção.

Uma comunicação clara, por parte das plataformas, sobre os prazos de tratamento dos pedidos de retirada, de acordo com o tipo de conteúdos, facilitará a avaliação da celeridade das medidas tomadas e aumentará o nível de responsabilização das plataformas. 

Em determinados casos, especialmente quando as plataformas em linha têm dificuldade em avaliar a legalidade de determinado elemento dos conteúdos e que diga respeito a uma decisão eventualmente litigiosa, estas podem ter vantagem, em caso de dúvida, em consultar um terceiro para obter aconselhamento. Este papel é desempenhado pelos organismos de autorregulação ou pelas autoridades competentes dos diversos Estados-Membros. Esta colaboração é fortemente incentivada no âmbito da cooperação reforçada entre plataformas em linha e autoridades competentes.

46 Por último, sempre que tomem conhecimento ou se deparem com elementos comprovativos da prática de infrações penais ou outras, as plataformas em linha deverão comunicar tal facto às autoridades de aplicação da lei, de modo a permitir-lhes investigar e perseguir criminalmente os autores desses conteúdos ou os grupos terroristas ou criminosos organizados que utilizaram os seus serviços de forma abusiva. Para tal, devem cumprir os requisitos legais aplicáveis, em especial o Regulamento (UE) 2016/679 relativo à proteção dos dados pessoais.Esta atuação pode também ser adequada nos casos de oferta e de venda de produtos e de práticas comerciais não conformes com a legislação da UE.

Nalguns casos, a necessidade de cooperar com as autoridades de aplicação da lei na investigação e julgamento de crimes pode também conduzir as plataformas a absterem-se de remover os conteúdos ilegais em questão, se determinado inquérito em curso assim o exigir, sob a estrita supervisão das autoridades nacionais e no pleno respeito do direito interno em matéria de processo penal.

47 48 49 As autoridades de aplicação da lei devem dotar-se dos meios necessários para tomarem as medidas adequadas em relação às informações comunicadas. Entre os exemplos de boas práticas no que respeita aos pontos de contacto conta-se o portal SIRIUS, criado pela Europol para assistir os Estados-Membros nas investigações para combater o terrorismo em linha, o qual facilita, nomeadamente, a cooperação entre as plataformas e as autoridades de aplicação da lei da UE.

Em conformidade com o disposto no artigo 14.º da Diretiva sobre o comércio eletrónico, caso pretendam beneficiar da isenção de responsabilidade, as plataformas em linha devem retirar os conteúdos ilegais de forma expedita, a partir do momento em que deles tomem conhecimento ou sejam alertadas para a sua existência. A celeridade da remoção é particularmente importante quando se trata de conteúdos ilegais que implicam prejuízos graves, como nos casos de incitamento à prática de atos terroristas. Os prazos e procedimentos de remoção aplicáveis às diferentes formas de conteúdos ilegais devem ser claramente comunicados nos relatórios de transparência.

A Comissão irá analisar mais aprofundadamente a questão dos prazos fixados para remoção.

Os elementos de prova de infrações penais obtidos no contexto da remoção de conteúdos ilegais deverão ser transmitidos às autoridades de aplicação da lei, sob reserva do cumprimento, nomeadamente, dos requisitos estabelecidos no Regulamento (UE) 2016/679, em especial no que toca aos fundamentos da licitude do tratamento dos dados pessoais.

14.Reforçar a transparência 

15.Transparência da política das plataformas em linha em matéria de conteúdos

A questão de saber se os conteúdos são legais ou ilegais rege-se pela legislação da UE e nacional. Ao mesmo tempo, as condições gerais de utilização das plataformas em linha podem ter em consideração tipos específicos de conteúdos indesejáveis ou inadmissíveis.

50 As plataformas em linha deverão expor em detalhe as suas políticas em matéria de conteúdos nas respetivas condições de utilização e comunicá-las de forma clara aos seus utilizadores. Estas condições devem não só definir a política de remoção e de bloqueio do acesso aos conteúdos, mas também indicar claramente as salvaguardas que asseguram que as medidas relacionadas com conteúdos não conduzem a casos de remoção abusiva. Em especial, as condições de utilização das plataformas em linha devem indicar claramente, no âmbito de uma maior transparência das políticas gerais das plataformas em matéria de remoção de conteúdos, a possibilidade de os utilizadores contestarem as decisões de remoção. Tal deverá contribuir para reduzir o risco de efeitos negativos em relação ao direito fundamental dos utilizadores à liberdade de expressão e de informação.

As plataformas em linha deverão prever, nas suas condições de utilização, explicações claras, facilmente compreensíveis e suficientemente pormenorizadas sobre a sua política de conteúdos. Essas explicações deverão abranger, não só, o tratamento dos conteúdos ilegais, mas também os conteúdos que não respeitem as condições de utilização da plataforma. As restrições relacionadas com o tipo de conteúdos autorizados numa determinada plataforma deverão ser claramente definidas e comunicadas aos utilizadores. Essas explicações deverão abranger também os procedimentos em vigor para contestar as decisões de remoção, nomeadamente as desencadeadas por sinalizadores de confiança.

16.Transparência dos procedimentos de notificação e ação

Os relatórios de transparência deverão também incluir os resultados da aplicação das políticas das plataformas em matéria de gestão de conteúdos.

As plataformas em linha deverão publicar relatórios de transparência com informações suficientemente pormenorizadas sobre o número e tipo de notificações recebidas e as medidas tomadas, assim como os prazos de tratamento e as fontes das notificações 51 . Esses relatórios devem também incluir informações sobre contra-notificações, se for caso disso, e o seguimento dado às mesmas. A Comissão encoraja a publicação destas informações com uma frequência regular, pelo menos uma vez por ano.

Tendo devidamente em conta as diferenças específicas dos conteúdos em causa, estes relatórios de transparência beneficiariam com a normalização à escala do Mercado Único Digital. Tal permitiria uma melhor vigilância e facilitaria a agregação eletrónica das informações, podendo contribuir para evitar os entraves desnecessários à prestação transfronteiras de serviços de armazenagem em servidor.

Importa criar condições para que as plataformas em linha de menor dimensão e as PME possam fornecer esses dados de transparência e as atividades conexas, como é o caso da normalização, deverão velar por que os encargos administrativos sejam reduzidos ao mínimo.

A Comissão continuará a estudar, no âmbito dos diálogos estruturados com o setor, o potencial de normalização no que respeita aos procedimentos de notificação e aos relatórios de transparência sobre os sistemas de remoção e os resultados obtidos.

17.Salvaguardas contra a remoção e a utilização abusivas do sistema

As ações rápidas, incluindo as medidas de filtragem durante os carregamentos ou a deteção automatizada, destinadas a garantir a rápida remoção dos conteúdos ilegais, nomeadamente na ausência de «intervenção humana», podem afetar o rigor da decisão, incluindo o risco de remoção de conteúdos legais. Por conseguinte, importa assegurar a existência de salvaguardas suficientes para que os conteúdos indevidamente removidos possam ser recarregados.

18.Contestar uma notificação

Em geral, os fornecedores de conteúdos devem ter a possibilidade de contestar essa decisão através de uma contra-notificação. Este princípio aplica-se também quando a remoção dos conteúdos é automatizada.

Por exemplo, de acordo com o artigo 28.º-A da proposta de alteração da Diretiva «Serviços de Comunicação Social Audiovisual», compete aos Estados-Membros assegurar a disponibilização de mecanismos de reclamação e de recurso para a resolução de litígios entre os utilizadores e as plataformas de partilha de vídeos relacionados com a aplicação das medidas adequadas a tomar por essas plataformas.

Se a contra-notificação contiver motivos razoáveis para se considerar que a atividade ou informação notificada não é ilícita, compete ao fornecedor da plataforma repor o mais rapidamente possível os conteúdos removidos ou permitir que o utilizador recarregue esses conteúdos, sem prejuízo do cumprimento das condições de utilização da plataforma.

A possibilidade de contestar decisões deverá conduzir a uma diminuição do número de remoções injustificadas de conteúdos legais, permitindo igualmente produzir provas documentais no âmbito dos mecanismos de resolução extrajudicial de litígios ou dos procedimentos de recurso judicial.

Em determinadas circunstâncias, convirá não informar o fornecedor dos conteúdos e/ou dar seguimento a uma contra-notificação, nomeadamente nos casos em que tal possa interferir com os poderes de investigação das autoridades dos Estados-Membros necessários para a prevenção, deteção e repressão de infrações penais, como para o material pedopornográfico.

As plataformas em linha devem prever procedimentos simples de contra-notificação em linha. Se for apresentada uma contra-notificação, as plataformas em linha deverão responder e, em caso de decisão negativa, especificar as razões para tal. Quando disponível no Estado-Membro em causa, as plataformas são incentivadas a autorizar o recurso a organismos de resolução extrajudicial de litígios em matéria de contra-notificações.

19.Medidas contra as notificações de má-fé e as contra-notificações

52 Ao mesmo tempo, pode acontecer que os procedimentos de notificação e ação sejam utilizados de forma abusiva mediante práticas irregulares ou casos de má-fé. Convém desencorajar firmemente tais práticas, deixando, por exemplo, de dar prioridade às notificações de notificantes que apresentem um grande número de notificações inválidas ou que recebam um grande número de contra-notificações, ou retirando o estatuto de sinalizador de confiança, de acordo com critérios bem definidos e transparentes. Estas políticas devem também ser claramente descritas nas condições de utilização da plataforma em linha e figurar nos seus relatórios de transparência gerais, a fim de aumentar o nível de responsabilização pública. As contra-notificações abusivas devem ser objeto de medidas semelhantes.

20.Prevenir o reaparecimento dos conteúdos ilegais

Uma vez detetados e removidos, os conteúdos ilegais não deverão reaparecer em linha. Para o bom funcionamento do sistema é essencial implantar medidas eficientes e eficazes de prevenção do reaparecimento dos conteúdos ilegais, com base nas boas práticas existentes e nas salvaguardas adequadas. Prevenir a difusão do material ilícito conhecido através das plataformas requer uma cooperação mais estreita entre os fornecedores de serviços em linha, no estrito respeito das regras aplicáveis do direito da concorrência. Importa igualmente reforçar a cooperação entre as autoridades de aplicação da lei e as pequenas empresas, menos resilientes, que, se forem consideradas mais vulneráveis do que as outras, poderão passar a ser o alvo preferencial dos criminosos e outras pessoas envolvidas em atividades ilícitas em linha.

21.Medidas contra os infratores reincidentes

53 Para evitar o reaparecimento dos conteúdos ilegais de utilizadores que, reiteradamente, publicam conteúdos ilícitos da mesma natureza, muitas plataformas em linha já adotaram medidas contra os infratores reincidentes, nomeadamente a suspensão, o encerramento das contas ou o bloqueamento oculto.

As plataformas em linha deverão tomar medidas para dissuadir os utilizadores de carregarem repetidamente conteúdos ilegais da mesma natureza e impedir efetivamente a difusão desses mesmos conteúdos.

Tal deverá igualmente aplicar-se quando se trata do mesmo infrator e quando a substância dos conteúdos em causa é da mesma natureza e, se justificado, quando o utilizador tiver sido prontamente informado das notificações recebidas contra si e da suspensão ou encerramento da sua conta. Tal permitirá ao utilizador contestar a decisão, facilitando o acesso às vias de recurso judiciais contra a medida, quando aplicável, ao abrigo do contrato entre o utilizador e a plataforma e do direito aplicável. Também neste tipo de casos, o tratamento dos dados pessoais deverá respeitar plenamente as regras em matéria de proteção de dados.

Mais uma vez, se tal interferir com os poderes de investigação dos Estados-Membros necessários à prevenção, deteção e repressão das infrações penais, e sob reserva da existência da base jurídica necessária, não deverá ser apresentada qualquer informação ou notificação do fornecedor de conteúdos.

22.Filtros de recarregamento automático

Para além das tecnologias utilizadas para identificar conteúdos potencialmente ilegais, mencionadas no ponto 3.3, podem ser utilizadas ferramentas tecnológicas com um maior grau de fiabilidade para identificar e filtrar (retirar e conservar) conteúdos que tenham já sido reconhecidos e considerados ilegais. Por conseguinte, a Comissão incentiva fortemente a uma maior utilização dessas ferramentas, sujeito a salvaguardas como a reversibilidade e a exceções, conforme descrito a seguir.

É o que ocorre atualmente com a «base de valores de dispersão», criada no âmbito do Fórum da UE sobre a Internet, utilizada não só em relação aos conteúdos terroristas ou em domínios como os direitos de autor ou para sinalizar material pedopornográfico, mas também em relação a produtos assinalados pelas autoridades de aplicação da lei como não conformes com a legislação aplicável. Estas práticas mostraram bons resultados. No entanto, a sua eficácia depende de novos desenvolvimentos para reduzir os erros de identificação de conteúdos e facilitar a tomada de decisões em função do contexto, assim como a adoção das salvaguardas necessárias em matéria de reversibilidade.

Por exemplo, ao basear-se nas práticas em matéria de reconhecimento automático de conteúdos no domínio dos direitos de autor, a proposta da Comissão sobre direitos de autor no Mercado Único Digital reconhece estas tecnologias, desde que sejam adequadas e proporcionadas, como um meio, entre outros, de evitar a existência de conteúdos não licenciados nos serviços em linha correspondentes.

Os procedimentos automáticos de retirada definitiva deverão permitir exceções em função do contexto e sempre que os conteúdos retirados sejam alterados e passem a estar em conformidade com as disposições legais ou outros requisitos. O âmbito e o calendário das exceções em função do contexto deverão ter em conta a natureza específica dos conteúdos e qualquer outra ameaça conexa para a segurança, bem como a possibilidade de suspensão temporária desses conteúdos na pendência de uma apreciação mais aprofundada.

A Comissão incentiva vivamente a uma maior utilização e ao desenvolvimento das tecnologias automáticas para impedir o reaparecimento de conteúdos ilegais em linha.

Se forem usadas ferramentas automáticas para impedir o reaparecimento de conteúdos ilegais, além de dever ficar prevista uma salvaguarda de reversibilidade em caso de decisões erradas, a utilização e o desempenho dessa tecnologia deverão constar de forma clara das condições de utilização da plataforma.

As plataformas em linha devem ter acesso às bases de dados utilizadas para fazer corresponder e identificar automaticamente conteúdos ilegais recarregados, sob reserva de as operações de tratamento cumprirem o disposto na legislação aplicável no domínio da proteção de dados pessoais e da concorrência. As políticas de proteção da vida privada aplicadas pelas empresas devem incluir informações transparentes sobre o tratamento dos dados pessoais no âmbito dessas bases de dados.

As plataformas em linha deverão também garantir a atualização contínua das suas ferramentas, de modo a capturar todos os conteúdos ilegais, de acordo com a evolução das estratégias e dos comportamentos dos criminosos e outras pessoas implicadas em atividades ilícitas em linha. No caso das ferramentas usadas para tratar os conteúdos terroristas, estas deverão ser adaptadas de modo a capturar os conteúdos recentes e históricos e assegurar a sua análise e remoção rápidas. Esses conteúdos deverão ser acrescentados às ferramentas multiplataformas, como a já referida base de valores de dispersão (atualmente utilizada no caso dos conteúdos terroristas). Estes desenvolvimentos tecnológicos deverão ser realizados num espírito de cooperação entre as plataformas em linha, as autoridades competentes e outras partes interessadas, nomeadamente a sociedade civil.

23.Conclusões

O aumento dos conteúdos ilegais armazenados pelas plataformas em linha causa prejuízos reais na sociedade, nomeadamente riscos para a integridade, dignidade e saúde da população. Se não for dada uma resposta adequada, esses prejuízos irão também minar a confiança nos serviços digitais, em termos mais gerais e, em última análise, no Mercado Único Digital, motor fundamental da inovação, crescimento e emprego. Mesmo que esses conteúdos sejam criados e carregados por terceiros, a crescente influência das plataformas em linha na sociedade, que decorre da sua qualidade de depositárias dos conteúdos e da informação, aumenta a sua responsabilidade perante os utilizadores e a sociedade no seu conjunto. As plataformas devem, por isso, assumir uma atitude proativa na limpeza dos conteúdos ilegais, impedindo o seu reaparecimento, estabelecer procedimentos eficazes de notificação e ação, assim como assegurar o bom funcionamento das interfaces com terceiros (por exemplo, sinalizadores de confiança) e dar uma prioridade especial às notificações das autoridades nacionais de aplicação da lei. Ao decidir sobre o caráter ilícito de determinados conteúdos, em conformidade com o direito aplicável, as plataformas devem dispor de um sistema de pesos e contrapesos adequado.

A presente comunicação formula apenas orientações e, enquanto tal, não altera o quadro jurídico aplicável nem contém normas juridicamente vinculativas. O principal objetivo é formular orientações para as plataformas em linha sobre os meios de que dispõem para assumirem as suas responsabilidades no que se refere à luta contra os conteúdos ilegais por estas armazenados. A presente comunicação tem também como objetivo integrar as boas práticas processuais nas diferentes formas de luta contra os conteúdos ilegais e promover uma cooperação mais estreita entre as plataformas e as autoridades competentes. Como tal, define uma abordagem europeia para lutar contra os conteúdos ilegais nas plataformas em linha, combinando a necessidade de remoção rápida e eficaz desses conteúdos e a prevenção e repressão da criminalidade com salvaguardas do direito à liberdade de expressão em linha. Estas orientações deverão complementar e reforçar os diálogos setoriais em curso.

Importa, em particular, criar condições para que as plataformas em linha de menor dimensão possam implantar estes procedimentos. Por essa razão, muitos elementos da presente comunicação foram concebidos tendo em conta as suas necessidades específicas. Não obstante, a Comissão irá estudar novas formas de ajudar as pequenas plataformas a implantarem também estas orientações.

O Mercado Único Digital obriga a uma maior coerência das políticas públicas adotadas para além das fronteiras geográficas. Com a presente comunicação, a Comissão propõe, por conseguinte, como primeira etapa, ferramentas comuns para dar resposta ao desafio partilhado da remoção de conteúdos ilegais.

A carta de intenções, de 13 de setembro de 2017, que o Presidente da Comissão Europeia dirigiu ao Presidente do Parlamento Europeu e ao Presidente do Conselho da União Europeia, a fim de assegurar um espaço de justiça e de direitos fundamentais baseado na confiança mútua, anunciava novas medidas para garantir uma deteção e remoção, rápidas e proativas, dos conteúdos ilegais de instigação ao ódio, à violência e ao terrorismo. A presente comunicação constitui um primeiro elemento dessas iniciativas. A Comissão espera que as plataformas em linha tomem rapidamente medidas nos próximos meses, incluindo no âmbito dos competentes diálogos, nomeadamente no domínio do terrorismo e dos discursos ilegais de incitação ao ódio.

A Comissão dará continuidade aos intercâmbios e diálogos com as plataformas em linha e outras partes interessadas. Acompanhará os progressos realizados e avaliará se é necessário tomar medidas adicionais, de modo a assegurar a deteção e remoção, rápidas e proativas, dos conteúdos ilegais em linha, incluindo a adoção de eventuais medidas legislativas para complementar o quadro regulamentar em vigor. Este trabalho ficará concluído em maio de 2018.

(1)

Neste preciso momento, a cada segundo que passa, são publicados cerca de 8 000 tuites no Twitter, colocadas 1 000 fotografias no Instagram, efetuadas 60 000 pesquisas no Google e visionados 70 000 vídeos no YouTube. Ver http://www.internetlivestats.com/.    

(2)

Ver ponto 2.

(3)

Conclusões do Conselho Europeu de 22 e 23 de junho de 2017 (ST 8 2017 INIT), Declaração de Taormina, cimeira do G7 de 26 de maio de 2017, e Declaração dos líderes do G20 na cimeira de 8 de julho de 2017.

(4)

Resolução do Parlamento Europeu, de 15 de junho de 2017, sobre as plataformas em linha [2016/2274(INI)].

(5)

Os elementos apresentados na presente comunicação assentam numa série de consultas públicas, de consultas específicas e de seminários com as partes interessadas.

(6)

Ver recente Relatório da Comissão ao Parlamento Europeu e ao Conselho sobre a avaliação da aplicação das medidas a que se refere o artigo 25.º da Diretiva 2011/93/UE, de 13 de dezembro de 2011, relativa à luta contra o abuso sexual e a exploração sexual de crianças e a pornografia infantil.

(7)

Nos termos da Diretiva (UE) 2017/541 relativa à luta contra o terrorismo, os Estados-Membros devem tomar as medidas necessárias para garantir a remoção imediata dos conteúdos em linha que incitam à prática de atos terroristas (artigo 21.º). Neste domínio e no contexto do Fórum da UE sobre a Internet, as plataformas removem voluntariamente os conteúdos terroristas sinalizados pela Unidade de Sinalização de Conteúdos na Internet (IRU) da Europol.

(8)

COM(2016) 593 final.

(9)

COM(2016) 287 final.

(10)

http://ec.europa.eu/justice/fundamental-rights/files/hate_speech_code_of_conduct_en.pdf

(11)

http://europa.eu/rapid/press-release_IP-15-6243_en.htm

(12)

http://ec.europa.eu/transparency/regdoc/rep/3/2016/EN/3-2016-3724-EN-F1-1.PDF

(13)

JO C 250 de 1.8.2017.

(14)

  http://ec.europa.eu/environment/cites/pdf/WAP_EN_WEB.pdf  

(15)

SWD(2016)163 de 25.5.2016

(16)

http://ec.europa.eu/internal_market/scoreboard/performance_by_governance_tool/consumer_protection_cooperation_network/index_en.htm

(17)

Comunicação COM(2012) 196 final [Internet melhor para as crianças (BIK)]: https://ec.europa.eu/digital-single-market/en/alliance-better-protect-minors-online  

(18)

COM(2016) 288 e COM(2017) 228.

(19)

  http://europa.eu/rapid/press-release_IP-17-1471_pt.htm  

(20)

http://ec.europa.eu/newsroom/just/item-detail.cfm?item_id=71674

(21)

http://europa.eu/rapid/press-release_IP-17-544_en.htm.

(22)

http://www.inhope.org/Libraries/Annual_reports/INHOPE_Annual_Report_2015.sflb.ashx?download=true

(23)

Diretiva 2000/31/CE sobre o comércio eletrónico, de 8 de junho de 2000.

(24)

De notar que, nos termos da Diretiva sobre o comércio eletrónico, apenas beneficiam da isenção de responsabilidade prevista nos artigos 12.º a 14.º os prestadores de serviços da sociedade da informação que sejam considerados prestadores intermediários de serviços (ou seja, que prestem serviços de simples transporte, armazenagem temporária ou armazenagem em servidor, respetivamente). No considerando 42 especifica-se que, em relação às atividades que dão lugar à isenção de responsabilidade, estas devem revestir um caráter puramente técnico, automático e passivo, o que implica que o prestador de serviços da sociedade da informação não tem conhecimento da informação transmitida ou armazenada, nem controla essa informação.

(25)

A maior parte das plataformas em linha oferecem serviços de armazenagem de conteúdos carregados pelos utilizadores.

(26)

Considerando 40 da Diretiva sobre o comércio eletrónico. Note-se que a presente comunicação incide principalmente nos prestadores de serviços de armazenagem em servidor e não nos prestadores de serviços de simples transporte (artigo 12.º) ou de armazenagem temporária (artigo 13.º).

(27)

Um serviço de armazenagem em servidor é um serviço da sociedade da informação que consiste na armazenagem de informações fornecidas por um destinatário do serviço. Esta categoria pode abranger uma grande variedade de intervenientes, que vão desde os mercados em linha, passando pelas plataformas de partilha de vídeos, pelas redes sociais, pelos sítios Web de blogues ou de opinião, até às secções de «comentários» dos utilizadores, nas páginas de notícias.

(28)

Entre os exemplos de domínios abrangidos (ou propostos para o efeito) pelo direito da UE, inclui-se o incitamento ao terrorismo, os discursos ilegais de incitação ao ódio, o abuso sexual de crianças, os direitos de propriedade intelectual, a segurança dos produtos, a oferta e as vendas de produtos alimentares ou de tabaco e de medicamentos de contrafação, as regras de proteção dos consumidores ou as medidas de segurança dos produtos, etc.. Em 2016, a Comissão clarificou também as obrigações de transparência e de diligência profissional das plataformas em linha, ao abrigo da Diretiva 2005/29/CE relativa às práticas comerciais desleais, nos casos em que essas plataformas atuam como comerciantes perante os consumidores.

(29)

A proposta de revisão da Diretiva «Serviços de Comunicação Social Audiovisual» aborda esta questão no contexto dos conteúdos audiovisuais.

(30)

O artigo 14.º, n.º 3, da Diretiva sobre o comércio eletrónico especifica que o disposto no mesmo artigo «não afeta a faculdade de um tribunal ou autoridade administrativa, de acordo com os sistemas legais dos Estados-Membros, exigir do prestador que previna ou ponha termo a uma infração». Por exemplo, a Diretiva 2004/48/CE relativa ao respeito dos direitos de propriedade intelectual estipula, no artigo 11.º, que «os Estados-Membros devem garantir igualmente que os titulares dos direitos possam requerer uma medida inibitória contra intermediários cujos serviços sejam utilizados por terceiros para violar direitos de propriedade intelectual, sem prejuízo do n.º 3 do artigo 8.° da Diretiva 2001/29/CE».

(31)

O artigo 15.º, n.º 2, da Diretiva sobre comércio eletrónico dispõe que «os Estados-Membros podem estabelecer a obrigação, relativamente aos prestadores de serviços da sociedade da informação, de que informem prontamente as autoridades públicas competentes sobre as atividades empreendidas ou informações ilícitas prestadas pelos autores aos destinatários dos serviços por eles prestados, bem como a obrigação de comunicar às autoridades competentes, a pedido destas, informações que permitam a identificação dos destinatários dos serviços com quem possuam acordos de armazenagem».

(32)

Na aceção do artigo 5.º da Diretiva (UE) 2017/541, relativa à luta contra o terrorismo.

(33)

Considerando 42 da Diretiva sobre o comércio eletrónico. Ver Google France, 114 e 120; Acórdão de 12 de julho de 2011, no processo C-324/09, L’Oréal vs eBay, ponto 113.

(34)

Processo C-324/09, L'Oréal vs eBay, ponto 115.

(35)

Processo C-324/09, L'Oréal vs eBay, ponto 116.

(36)

Considerando 41 da Diretiva sobre o comércio eletrónico.

(37)

Considerando 40 da Diretiva sobre o comércio eletrónico.

(38)

Artigo 15.º, n.º 1, da Diretiva sobre o comércio eletrónico.

(39)

Considerando 40 da Diretiva sobre o comércio eletrónico.

(40)

Processo C-324/09, L'Oréal vs eBay, pontos 120 e 121.

(41)

Considerando 40 da Diretiva sobre o comércio eletrónico.

(42)

Considerando 40 e artigo 15.º, n.º 1, da Diretiva sobre o comércio eletrónico.

(43)

http://www.consilium.europa.eu/en/press/press-releases/2017/06/22-euco-security-defence/.

(44)

Os esforços realizados pelas empresas em matéria de investigação e de inovação estão orientados para o desenvolvimento de ferramentas analíticas concebidas para melhor apreender a linguagem natural, as informações em cascata publicadas nas redes sociais, a identificação das fontes de informação, os padrões de difusão e as falsas identidades. A Comissão apoia também a investigação e a inovação neste domínio, mediante o financiamento de projetos destinados a desenvolver ferramentas de verificação automática para controlar a veracidade dos conteúdos gerados pelos utilizadores ao nível das redes sociais. Essas ferramentas podem ajudar na deteção de potenciais informações falsas em textos, imagens ou vídeos e contribuir para a deteção de notícias falsas. No entanto, as suas capacidades funcionais atuais não lhes permitem estabelecer o caráter ilegal desses conteúdos.

(45)

Para mais informações, consultar: https://ec.europa.eu/info/law/better-regulation/initiatives/ares-2017-3896097_en e https://ec.europa.eu/home-affairs/what-we-do/policies/organized-crime-and-human-trafficking/e-evidence_en.

(46)

Artigo 6.º, n.º 1, alínea c), em conjugação com o artigo 6.º, n.º 4.

(47)

De acordo com o artigo 15.º, n.º 2, da Diretiva sobre o comércio eletrónico «os Estados-Membros podem estabelecer a obrigação, relativamente aos prestadores de serviços da sociedade da informação, de que informem prontamente as autoridades públicas competentes sobre as atividades empreendidas ou informações ilícitas prestadas pelos autores aos destinatários dos serviços por eles prestados, bem como a obrigação de comunicar às autoridades competentes, a pedido destas, informações que permitam a identificação dos destinatários dos serviços com quem possuam acordos de armazenagem».

(48)

«Shaping Internet Research Investigations Unified System».

(49)

A Europol continuará a favorecer a criação de novos pontos de contacto únicos, facultando formação apropriada às autoridades de aplicação da lei dos países que deles ainda não dispõem.

(50)

Caso sejam tratados dados pessoais, as plataformas devem assegurar políticas transparentes em matéria de proteção da vida privada, de acordo com o artigo 12.º do Regulamento Geral sobre a Proteção de Dados.

(51)

Relatórios sobre inquéritos por iniciativa própria, notificações provenientes de utilizadores gerais, notificações provenientes das autoridades da aplicação da lei, etc.

(52)

Elementos de prova sugerem que a concorrência usa essas informações (Notice and Takedown in Everyday Practice, J Urban et al., UC Berkeley, 2016) e que a criação automatizada de notificações constitui uma prática que foi usada de forma abusiva para remeter para conteúdos criados artificialmente (Relatório de transparência da Google).

(53)

Por «bloqueamento oculto» entende-se o ato de bloquear um utilizador de uma comunidade em linha, de tal modo que este não se apercebe de que foi banido.