Help Print this page 

Document 52017DC0555

Title and reference
COMUNICACIÓN DE LA COMISIÓN AL PARLAMENTO EUROPEO, AL CONSEJO, AL COMITÉ ECONÓMICO Y SOCIAL EUROPEO Y AL COMITÉ DE LAS REGIONES Lucha contra el contenido ilícito en línea Hacia una mayor responsabilización de las plataformas en línea

COM/2017/0555 final
Multilingual display
Text

Bruselas, 28.9.2017

COM(2017) 555 final

COMUNICACIÓN DE LA COMISIÓN AL PARLAMENTO EUROPEO, AL CONSEJO, AL COMITÉ ECONÓMICO Y SOCIAL EUROPEO Y AL COMITÉ DE LAS REGIONES

Lucha contra el contenido ilícito en línea

Hacia una mayor responsabilización de las plataformas en línea


1.Introducción

1 Las plataformas en línea son importantes motores de innovación y crecimiento en la economía digital. Ellas han hecho posible un acceso a la información sin precedentes y un gran auge de los intercambios, así como nuevas oportunidades de mercado, en particular en beneficio de las pequeñas y medianas empresas (pymes). Las plataformas en línea constituyen también hoy en día, para la mayoría de la gente, el principal punto de acceso a la información y a otros contenidos, ya sea a través de motores de búsqueda, de las redes sociales, de páginas de microblogs o de plataformas de distribución de vídeos. Recientemente el modelo económico de las plataformas ha evolucionado también hacia unas relaciones más estrechas entre los usuarios y el contenido, buscando, en particular, una publicidad dirigida certeramente al receptor. Estas plataformas ponen en contacto miles de millones de usuarios con ingentes cantidades de información y de contenidos, y ofertan servicios innovadores a los ciudadanos y las empresas.

2 Sin embargo, resulta preocupante pensar la enorme cantidad de contenidos ilícitos que puede publicarse y difundirse en línea; es este un temor que requiere una respuesta enérgica y eficaz. Lo que es ilegal en el mundo real lo es también en el virtual. La incitación al terrorismo, los discursos xenófobos y racistas que inciten públicamente al odio y la violencia, y el material de abuso sexual infantil, son ilegales en la UE. La creciente disponibilidad de contenidos terroristas en línea y su difusión constituyen una amenaza para la seguridad y atenta contra la dignidad de las víctimas. La Unión Europea ha respondido a estos retos a través de una serie de medidas. Con todo, resolver la cuestión de la detección y retirada de contenidos ilícitos en línea representa un urgente desafío para la sociedad digital de nuestros días.

3 4 Ante la multiplicación de atentados terroristas en la UE y la proliferación de propaganda terrorista en línea, el Consejo Europeo de los días 22 y 23 de junio de 2017 declaró que «espera que el sector (...) desarrolle nuevas tecnologías y herramientas para mejorar la detección automática de contenidos y retirar aquellos que inciten a perpetrar actos de terrorismo. Esto deberá completarse, en caso necesario, con las correspondientes medidas legislativas a escala de la UE». Estos llamamientos fueron coreados por las declaraciones emitidas por los dirigentes del G7 y G20 en sus últimas cumbres. Del mismo modo el Parlamento Europeo, en su Resolución sobre las plataformas en línea de junio de 2017, instó a estas plataformas «a que refuercen las medidas para luchar contra los contenidos ilícitos y nocivos en línea», al tiempo que animó a la Comisión a presentar propuestas para abordar estos problemas.

Las plataformas en línea, que sirven de intermediarias para el acceso a los contenidos de la mayoría de usuarios de Internet, tienen una importante responsabilidad social a la hora de proteger a los usuarios y la sociedad en general y de impedir que los delincuentes y otras personas que practican actividades ilícitas en línea, hagan uso de estos servicios. Los espacios digitales abiertos que proporcionan las plataformas no deben convertirse en caldo de cultivo de, por ejemplo, actividades terroristas, incitación al odio, abuso infantil o tráfico de seres humanos, ni convertirse en espacios situados fuera del imperio de la ley. No cabe duda de que la difusión de contenidos ilícitos en línea puede socavar la confianza de los ciudadanos en el entorno digital y puede poner en peligro la continuidad del desarrollo económico de los ecosistemas que rodean las plataformas y del mercado único digital. Como parte de la responsabilidad que se deriva del papel central que ostentan en la sociedad actual, las plataformas en línea deben redoblar su empeño por dar solución a este problema.

La lucha contra los contenidos ilícitos en línea debe desarrollarse estableciendo al mismo tiempo unas sólidas garantías que velen por la protección de los derechos fundamentales. Dada la función esencial que cumplen como garantes del acceso a la información, las plataformas son también imprescindibles para la obtención de este equilibrio. La lucha dentro de la UE contra los contenidos ilícitos en línea debe tener en cuenta y reforzar las acciones de la UE a nivel mundial.

La presente Comunicación recoge una serie de principios y directrices para que las plataformas en línea intensifiquen su lucha contra los contenidos ilícitos en línea 5 en cooperación con las autoridades nacionales, los Estados miembros y otras partes interesadas. Su objetivo es facilitar e intensificar la aplicación de buenas prácticas en la prevención, detección, retirada o inhabilitación del acceso a contenidos ilícitos con el fin de garantizar su supresión efectiva y de fomentar la transparencia y la protección de los derechos fundamentales en línea. Se propone también aclarar lo relativo a las responsabilidades de las plataformas cuando adoptan medidas efectivas para detectar o retirar contenidos ilícitos, o para inhabilitar el acceso a ellos (acciones denominadas «de buen samaritano»).

2.Contexto

6 7 8 9 La Unión Europea ha reaccionado ya al reto que representan los contenidos ilícitos en línea, y ello a través de medidas tanto obligatorias como no obligatorias. Entre estas medidas está la Directiva de lucha contra los abusos sexuales y la explotación sexual de menores y la pornografía infantil, la Directiva en materia de terrorismo, las propuestas de medidas en el contexto de la reforma de los derechos de autor y la Directiva de servicios de comunicación audiovisual.

10 11 12 13 14 15 16 17 Las medidas legislativas vigentes o propuestas se ven complementadas por otras medidas no legislativas, tales como el Código de conducta para combatir el delito de incitación al odio en línea, el trabajo del Foro de Internet de la UE en lo relativo a la propaganda terrorista, el Memorándum de acuerdo sobre la venta de mercancías falsificadas, la Comunicación de la Comisión sobre vigilancia del mercado de los productos vendidos en línea, el Plan de acción de la UE contra el tráfico de especies silvestres, la Directiva sobre prácticas comerciales desleales o las acciones conjuntas de las autoridades nacionales en el marco de la Red de cooperación para la protección de los consumidores. La Estrategia europea en favor de una Internet más adecuada para los niños es una iniciativa de autorregulación destinada a mejorar el entorno en línea en beneficio de niños y jóvenes, habida cuenta del peligro de exposición a contenidos sexuales abusivos o violentos, o a ciberacoso.

18 En sus Comunicaciones de 2016 y 2017, la Comisión subrayó la necesidad de que las plataformas en línea actúen de manera más responsable y redoblen sus esfuerzos de autorregulación para retirar contenidos ilícitos. Por otro lado, la Comisión se ha comprometido también a mejorar la coordinación de los diferentes diálogos sectoriales con las plataformas, así como a estudiar la conveniencia de establecer orientaciones sobre procedimientos oficiales de notificación y acción. Esto debería hacerse en sinergia con diálogos en curso y trabajos ya en marcha en otros ámbitos, tales como en la Agenda europea de seguridad o la lucha contra la incitación al odio.

19 20 21 22 Algunos reciente informes procedentes de algunas de estas iniciativas sectoriales han puesto de manifiesto ciertos avances. En el caso de la incitación al odio, los informes de junio de 2017 indicaban que el índice de aumento de las retiradas ha pasado del 28 % al 59 % en una muestra de contenidos notificados en algunos países de la UE a lo largo de un período de seis meses, aunque se observan diferencias notables entre plataformas. También se ha registrado en el mismo periodo una mejora en la celeridad de las retiradas durante el mismo período, aunque un 28 % de ellas tardaron una semana en producirse. Esto indica que los planteamientos no legislativos producen un resultado cuando van acompañados de medidas que facilitan la cooperación entre todos los agentes interesados. En el marco del Foro de Internet de la UE de lucha contra el contenido terrorista, un 80 %-90 % aproximadamente del contenido detectado por Europol ha sido suprimido desde su creación. En el contexto del abuso sexual infantil, el sistema de líneas directas INHOPE informaba ya en 2015 de una eficacia de retirada del 91 % en un plazo de 72 horas, con uno de cada tres elementos de contenido retirado en 24 horas.

Los distintos diálogos sectoriales pusieron también de manifiesto que los procedimientos de detección, identificación, retirada y prevención del restablecimiento del contenido eran relativamente similares en los diferentes sectores. Estas conclusiones se han tenido en cuenta en la presente Comunicación.

23 A nivel de la UE, el marco jurídico general para la supresión de contenidos ilícitos es la Directiva sobre el comercio electrónico, que, entre otras cosas, armoniza las condiciones en las que las plataformas en línea pueden acogerse en el mercado único digital a la exención de responsabilidad por los contenidos ilícitos a que pudieran dar cabida.

24 25 26 El contenido ilícito en plataformas en línea prolifera, en particular, cuando los servicios en línea permiten la publicación de contenidos de terceros. Estos servicios de alojamiento están cubiertos, en determinadas circunstancias, por el artículo 14 de la Directiva sobre comercio electrónico. Este artículo establece que los prestadores de servicios no sean considerados responsables de los datos almacenados a petición del destinatario, a condición de que: a) no tengan conocimiento efectivo de que la actividad a la información es ilícita y, en lo que se refiere a una acción por daños y perjuicios, no tengan conocimiento de hechos o circunstancias por los que la actividad o la información revele su carácter ilícito, o de que b), en cuanto tengan conocimiento de estos puntos, actúen con prontitud para retirar los datos o hagan que el acceso a ellos sea imposible. Al mismo tiempo, la Directiva «deberá constituir una base adecuada para elaborar mecanismos rápidos y fiables que permitan retirar información ilícita y hacer que sea imposible acceder a ella».

Por otro lado, el artículo 15 prohíbe que los Estados miembros impongan «a los prestadores de servicios una obligación general de supervisar los datos que transmitan o almacenen, ni una obligación general de realizar búsquedas activas de hechos o circunstancias que indiquen actividades ilícitas, respecto de los servicios contemplados en [el artículo 14]». Al mismo tiempo, el considerando 47 de la Directiva recuerda que lo que se contempla es la supervisión de obligaciones de carácter general y «no se refiere a las obligaciones de supervisión en casos específicos y, en particular, no afecta a las órdenes de las autoridades nacionales formuladas de conformidad con la legislación nacional».

En este contexto, en su Comunicación de 2016 sobre las plataformas en línea, la Comisión se comprometió a mantener un régimen de responsabilidad equilibrado y predecible para las plataformas en línea, ya que constituiría un marco de regulación clave que a su vez respaldaría la innovación digital en el mercado único digital.

Las directrices de la presente Comunicación se entienden sin perjuicio del acervo comunitario y se aplican a las actividades de las plataformas en línea y, en particular, a los servicios de alojamiento de tales plataformas 27 , según el sentido del artículo 14 de la Directiva sobre comercio electrónico, teniendo debidamente en cuenta el hecho de que diferentes tipos de contenidos pueden requerir un tratamiento diferente.

Por el momento no existe en la UE un enfoque armonizado y coherente para la supresión de contenidos ilícitos; coexisten diferentes enfoques diferentes en función de los Estados miembros, la categoría del contenido o el tipo de plataforma en línea. Ahora bien, un enfoque más armonizado permitiría que la lucha contra los contenidos ilícitos fuera más eficaz. Serviría también para desarrollar el mercado único digital y reducir los costes de conformidad con una multiplicidad de normas que han de cumplir las plataformas en línea, como las relativas a los nuevos participantes en el mercado.

28 Es importante subrayar que este marco jurídico no define ni, por supuesto, armoniza, lo que ha de entenderse por «contenido ilícito». Lo que ha de considerarse ilícito lo determina la legislación específica a escala de la UE, y también el Derecho nacional. Aunque la naturaleza, características y daños derivados del terrorismo, la incitación al odio, el abuso sexual infantil o el tráfico de seres humanos, por ejemplo, son muy diferentes de los derivados de la infracción de los derechos de propiedad intelectual, la seguridad de los productos, las prácticas comerciales ilegales en línea o las actividades de carácter difamatorio en línea, todos estos contenidos ilícitos entran dentro del mismo marco jurídico general establecido por la Directiva sobre comercio electrónico. Además, habida cuenta de la gran semejanza existente en el proceso de retirada de estos diferentes tipos de contenido, la presente Comunicación abarca toda la gama de contenidos ilícitos en línea, aunque permite diferencias por sectores cuando proceda y esté justificado.

En la UE, los tribunales y las autoridades nacionales competentes, incluidas las fuerzas de seguridad, tienen competencias para enjuiciar los delitos e imponer sanciones penales con arreglo al procedimiento oportuno en función de la actividad o información en línea considerada. Al mismo tiempo, las plataformas en línea tienen derecho a impedir que sus infraestructuras y sus actividades empresariales se utilicen para cometer delitos, tienen la responsabilidad de proteger a los usuarios y de impedir la entrada de contenidos ilícitos en su plataforma, y para ello suelen contar con medios técnicos para detectarlos y suprimirlos. Este es un hecho digno de mención en cuanto que las plataformas en línea han realizado grandes inversiones para desarrollar tecnologías avanzadas que les permitan recabar de forma proactiva información sobre los contenidos almacenados en sus memorias y sobre las actividades de los usuarios. Si bien para la retirada de los contenidos ilícitos son necesarias decisiones rápidas, es preciso también que se apliquen las salvaguardias adecuadas. Para ello es necesario llegar a un equilibrio entre las funciones de los organismos públicos y las entidades privadas.

Por ello, las directrices y principios establecidos en la presente Comunicación no se centran únicamente en la detección y retirada de contenidos ilícitos; también se aborda el problema de la retirada de contenidos lícitos, lo que a veces se denomina «retirada abusiva», que a su vez incide en la libertad de expresión y el pluralismo de los medios de comunicación. Por ello deben preverse unas garantías adecuadas en consonancia con el tipo específico de contenido ilícito considerado.

29 No cabe duda de que los contenidos despiertan inquietudes de interés público, no solo porque sean ilícitos, sino por el daño que puedan causar, como sería el caso de las noticias falsas o de contenidos perjudiciales para los menores. Ahora bien, la presente Comunicación se centra en la detección y retirada de contenidos ilícitos.

3.Detección y notificación de contenidos ilícitos 

El objetivo de esta sección es establecer qué han de hacer las plataformas en línea, las autoridades competentes y los usuarios para detectar contenidos ilícitos de manera rápida y eficiente.

Las plataformas en línea pueden tener conocimiento de la existencia de contenidos ilícitos de varias maneras, a través de distintos canales. Entre estos canales de notificación están los siguientes: i) mandamientos judiciales o decisiones administrativas; ii) comunicaciones de las autoridades competentes (por ejemplo, de las fuerzas de seguridad), de organismos especializados («alertadores fiables») de titulares de derechos de propiedad intelectual, o de usuarios corrientes, y iii) a través del conocimiento o la investigación de las propias plataformas.

Además de las obligaciones derivadas de la legislación nacional o de la UE y del «deber de diligencia» inherente a sus responsabilidades, las plataformas en línea deben garantizar un entorno en línea seguro para los usuarios, desfavorable para cualquier actividad delictiva o ilegal, y que disuada e impida actividades infractoras o ilícitas en línea.

4.Tribunales y autoridades competentes

30 De conformidad con la legislación nacional o de la UE, los órganos jurisdiccionales nacionales y, en determinados casos, las autoridades competentes, pueden emitir órdenes de cumplimiento obligatorio o decisiones administrativas dirigidas a las plataformas en línea para que retiren o bloqueen el acceso a contenidos ilícitos.

Dado que la retirada rápida de contenidos ilícitos es a menudo esencial para limitar una difusión más amplia con los daños que ello conlleva, las plataformas en línea deben estar asimismo en condiciones de tomar decisiones rápidas de ejecución contra contenidos ilícitos en línea sin que se lo haya exigido un mandamiento judicial o una decisión administrativa, especialmente cuando las fuerzas de seguridad identifican los contenidos supuestamente ilícitos y les informan de ello. Al mismo tiempo, cuando actúen en función de las responsabilidades asumidas en la materia, las plataformas en línea deben disponer de unas garantías adecuadas de modo que los usuarios dispongan de un derecho de recurso efectivo.

31 Las plataformas en línea deben contar con los recursos necesarios para comprender perfectamente el entorno jurídico en el que operan. Deben también, en su caso, cooperar estrechamente con las fuerzas de seguridad o con otras autoridades competentes velando, en particular, por que pueda tomarse contacto rápidamente con ellas en caso de solicitudes de retirada de contenidos ilícitos, así como por alertar las fuerzas de seguridad en caso de detección de actividades delictivas en línea. A fin de evitar la duplicación de esfuerzos y comunicaciones, reduciendo así la eficacia y eficiencia del proceso de retirada, las fuerzas de seguridad y otras autoridades competentes deben también hacer todo lo posible para cooperar entre sí en la determinación de interfaces digitales eficaces que faciliten la presentación rápida y fiable de notificaciones y garanticen la identificación y comunicación eficientes de los contenidos ilícitos. El establecimiento de puntos de contacto entre plataformas y autoridades es un factor clave para el buen funcionamiento de dicha cooperación.

32 En el caso de contenidos de carácter terrorista, se ha establecido en Europol una unidad de notificación de contenidos de Internet (IRU) de la UE que permite que expertos en materia de seguridad evalúen y señalen contenidos de carácter terrorista en línea (algunos Estados miembros disponen de sus propias IRU nacionales).

Las plataformas en línea deben, de forma sistemática, mejorar su cooperación con las autoridades competentes de los Estados miembros, y estos deben velar por que los órganos jurisdiccionales puedan reaccionar eficazmente contra los contenidos ilícitos en línea, así como reforzar la cooperación (transfronteriza) entre las autoridades.

Las plataformas en línea y las fuerzas de seguridad u otras autoridades competentes deben designar puntos de contacto eficaces en la UE y, en su caso, desarrollar interfaces digitales sólidas a fin de facilitar su interacción. 

Se invita a las plataformas y a las fuerzas de seguridad a desarrollar interfaces técnicas que les permitan cooperar más eficazmente en todo el ciclo de gobernanza de los contenidos. La cooperación, asimismo, en el ámbito tecnológico sería beneficiosa para avanzar hacia soluciones técnicamente sólidas y eficaces para hacer frente a este reto.

5.Comunicaciones

6.Alertadores fiables

La retirada de contenidos ilícitos en línea se produciría de forma más rápida y fiable si las plataformas en línea establecen mecanismos que proporcionen un canal fluido a los notificadores que se encuentran en mejor posición para señalar la presencia de contenidos potencialmente ilícitos en su sitio web. Estos son los denominados «alertadores fiables» porque son entidades especializadas en la identificación de contenidos ilícitos o estructuras específicas para la detección e identificación de tales contenidos en línea.

En comparación con los usuarios corrientes, los alertadores fiables aportan sus conocimientos y experiencia para trabajar con arreglo a normas muy exigentes, obteniendo como resultado una comunicación más fiable y una retirada más rápida. Se invita a las plataformas en línea a que hagan uso de las actuales redes de alertadores fiables. En el caso, por ejemplo, de los contenidos terroristas, la unidad de notificación de contenidos de Internet de Europol dispone de las cualificaciones necesarias para evaluar si un determinado contenido puede considerarse terrorista y extremista violento, y las utiliza para actuar como alertador fiable, aparte de sus funciones en materia de aplicación efectiva de la ley. La red INHOPE de líneas directas para la comunicación de material relacionado con el abuso sexual infantil, es otro ejemplo de alertador fiable; en el caso de la incitación ilegal al odio, existen organizaciones de la sociedad civil u organismos semipúblicos especializados en la identificación y comunicación de contenidos racistas y xenófobos en línea.

Para garantizar que las comunicaciones cumplan ciertos requisitos de calidad y acelerar la retirada del contenido ilegal, los criterios deberán ser acordados, sobre la base del respeto de los derechos fundamentales y los valores democráticos, por todo el sector a escala de la UE. Estos criterios pueden definirse a través de mecanismos de autorregulación o en el marco de la normalización a nivel de la UE, de forma que sea posible determinar si una entidad dada puede ser considerada alertador fiable; es preciso permitir la flexibilidad suficiente para tener en cuenta todas las características específicas del contenido y el papel desempeñado por el alertador fiable. Otros criterios a tener en cuenta podrían ser, sin ánimo de exhaustividad, las normas de formación interna, las normas aplicables a los procedimientos y las normas de calidad, así como determinadas garantías relativas a la independencia, los conflictos de intereses, la protección de la privacidad y los datos personales. Estas garantías son particularmente importantes en aquellos casos, limitados en número, en los que las plataformas retiren contenidos de resultas de una notificación del alertador fiable sin comprobar ellas mismas los contenidos en sí. En estos casos limitados, podría ser posible proceder a una auditoría de los alertadores fiables con arreglo a los criterios citados, y podría pensarse en un sistema de certificación que acredite la consideración de «fiable». En todos los casos, deben establecerse garantías suficientes para evitar el abuso del sistema, como se contempla en la sección 4.3.

Las autoridades competentes deberían tener la posibilidad de participar, si procede, en los mecanismos de comunicación de los alertadores fiables.

Es necesario alcanzar un equilibrio entre la necesidad de garantizar un alto nivel de calidad en las comunicaciones procedentes de los alertadores fiables, el campo de aplicación de las medidas adicionales que las empresas pudieran tomar en relación con ellos y la carga que representa el respeto de estas normas de calidad. En caso de que los mecanismos de un alertador fiable infrinjan las normas establecidas, debe retirárseles la confianza que se les había otorgado.

La Comisión alienta la cooperación estrecha entre las plataformas en línea y los alertadores fiables. Las comunicaciones de estos deberían ser tramitadas por la plataforma de forma acelerada. Esta cooperación debe incluir un intercambio recíproco de información a fin de evaluar y mejorar en el tiempo el proceso de retirada.

La Comisión examinará más a fondo, por ejemplo a través de diálogos con las partes interesadas, la posibilidad de acordar, a escala de la UE, unos criterios comunes aplicables a los alertadores fiables.

7.Comunicaciones de los usuarios

En la lucha efectiva contra los contenidos ilícitos en línea, debe facultarse a los usuarios corrientes para que llamen la atención de las plataformas sobre contenidos ilícitos en línea contando con que las comunicaciones justificadas serán tenidas en cuenta y tramitadas con rapidez.

Las plataformas en línea deben establecer un mecanismo fácilmente accesible y de fácil manejo que permita a sus usuarios notificar contenidos albergados por aquellas que consideren ilícitos .

Cuando el contenido sea accesible al público, estos mecanismos de comunicación deben ser igualmente accesibles, sin necesidad de inscribirse previamente como usuario. Para impulsar la eficiencia y precisión de la evaluación de posibles contenidos ilícitos, tales mecanismos debe contar con la posibilidad de notificar de forma sencilla por vía electrónica.

La propuesta de la Comisión sobre la revisión de la Directiva de servicios de comunicación audiovisual se propone que los proveedores de plataformas de distribución de vídeos tengan la obligación de establecer y operar unos mecanismos por los cuales los usuarios comuniquen o informen de contenidos audiovisuales que puedan perjudicar el desarrollo físico, mental o moral de los menores, así como contenidos que inciten al odio o la violencia.

8.Garantizar un alto nivel de calidad de las comunicaciones

Las plataformas en línea deben instaurar mecanismos eficaces que faciliten la presentación de comunicaciones de forma suficientemente precisa y motivada para que las plataformas puedan tomar una decisión informada y rápida sobre el camino a seguir. Esto permitiría facilitar el envío de comunicaciones que incluyan una exposición de las razones por las que su autor considera que el contenido es ilícito, así como la localización de los contenidos potencialmente ilícitos (por ejemplo, la dirección URL).

Estos mecanismos de comunicación deben ser visibles, fácilmente accesibles, fáciles de usar y contextuales. También deben permitir comunicar fácilmente distintos tipos de contenidos, por ejemplo seleccionando de una lista de motivos por los cuales se considera que el contenido es ilícito. Cuando sea técnicamente posible, podría recurrirse a elementos tales como permitir el lanzamiento inmediato de una notificación tras el descubrimiento del material, o la reutilización de identificadores para iniciar una sesión.

Estas comunicaciones suficientemente precisas y motivadas permiten que la plataforma encuentre rápidamente el contenido eventualmente ilícito, haga una evaluación seria de su ilicitud y actúe con prontitud, cuando proceda hacerlo. El nivel exacto de detalle que necesitan las plataformas para tomar sin demora decisiones informadas puede variar considerablemente de un tipo de contenido a otro.

Normalmente los usuarios no tendrían por qué estar obligados a identificarse al informar sobre lo que consideran contenidos ilícitos, a menos que dicha información sea necesaria para determinar la licitud de aquellos (p. ej., para reclamar la titularidad de derechos de propiedad intelectual). Este es especialmente el caso cuando la seguridad de estas personas pueda correr peligro o cuando la revelación de la identidad tenga consecuencias de orden jurídico. Cuando los usuarios deseen mantener el anonimato ante las plataformas, debe procurarse que hagan su notificación a través de los alertadores fiables, caso de existir.

No obstante, los autores de la comunicación deben tener la posibilidad de consignar voluntariamente sus datos de contacto en la notificación de modo que la plataforma en línea pueda pedirles información adicional o informarles del curso que piensa darse al asunto. En tal caso, el autor de la comunicación debe recibir un acuse de recibo y un comunicado que informe del curso dado a la notificación.

El acuse de recibo no solo sirve para que el autor de la comunicación pueda comprobar si esta ha sido atendida, sino también como prueba en procedimientos judiciales o extrajudiciales de acuerdo con las normas aplicables a dichos procedimientos.

9.Medidas proactivas de las plataformas en línea

10.Medidas proactivas y exención de responsabilidad

Dado el papel crucial que desempeñan, sus capacidades y las responsabilidades que de ello se derivan, las plataformas en línea deben adoptar medidas proactivas eficaces para detectar y retirar contenidos ilícitos en línea, es decir, no limitarse a responder a las comunicaciones recibidas. Además, en el caso de determinadas categorías de contenidos ilícitos, podría no ser posible reducir el riesgo de consecuencias graves si las plataformas no adoptan dichas medidas proactivas.

La Comisión considera que la adopción de este tipo de medidas proactivas voluntarias no lleva automáticamente a la pérdida, por la plataforma en línea, de la exención de responsabilidad prevista en el artículo 14 de la Directiva sobre comercio electrónico.

En primer lugar, solo gozan de esta exención los proveedores de servicios de alojamiento de datos que cumplan las condiciones establecidas en el artículo 14 de dicha Directiva; estos proveedores de servicios son aquellos cuyas actividades consisten en almacenar información a petición de terceros sin desempeñar un papel activo que les permita tener conocimiento o control de dicha información 33 . 

El considerando 38 de la propuesta de la Comisión para una Directiva sobre derechos de autor en el mercado único digital, de 14 de septiembre de 2016, precisa a este respecto: «En lo que se refiere al artículo 14 [de la Directiva sobre comercio electrónico], es preciso comprobar si el proveedor de servicios desempeña un papel activo, en particular optimizando la presentación de las obras o prestaciones cargadas o promocionándolas, independientemente de la naturaleza de los medios utilizados a tal fin».

Acerca del artículo 14 de la Directiva sobre comercio electrónico, el Tribunal de Justicia dictaminó más concretamente en el asunto L’Oréal/eBay que «el mero hecho de que [una plataforma en línea] almacene en su servidor ofertas de venta, determine las condiciones de su servicio, sea remunerado por el mismo y dé información general a sus clientes no puede implicar que se le excluya de las exenciones de responsabilidad previstas por [el artículo 14 de la Directiva sobre comercio electrónico]». 34 Sin embargo, se da un efecto de este tipo, a juicio del Tribunal, «cuando, por el contrario, [la plataforma en línea] presta una asistencia consistente, entre otras cosas, en optimizar la presentación de las ofertas de venta en cuestión o en promover tales ofertas 35 ».

Esto supone que, por el mero hecho de que una plataforma en línea adopte ciertas medidas generales respecto a la prestación de sus servicios, no debe considerarse necesariamente que desempeña un papel activo en relación con los distintos contenidos que almacena, ni que la plataforma en línea no pueda acogerse a la exención de responsabilidad por tal motivo. En opinión de la Comisión, entre tales medidas pueden, e incluso deben, encontrarse medidas proactivas que permitan detectar y retirar contenidos ilícitos en línea, en especial cuando dichas medidas se adoptan en el marco de la aplicación de las condiciones que rigen los servicios de la plataforma en línea. Esto concuerda con el equilibrio entre los diferentes intereses en juego que la Directiva sobre el comercio electrónico pretende alcanzar 36 . En efecto, en ella se recuerda que redunda en interés de todas las partes implicadas el adoptar y aplicar unos mecanismos rápidos y fiables que permitan retirar información ilícita y hacer que sea imposible acceder a ella 37 . Aunque la Directiva dispensa a las plataformas en línea de la obligación de tener que hacer investigaciones activas con carácter general 38 , también reconoce la importancia de las medidas voluntarias 39 .

En segundo lugar, de conformidad con el artículo 14 de la Directiva sobre comercio electrónico, los proveedores de servicios comprendidos en el ámbito de aplicación de dicha disposición solo pueden acogerse a la exención de responsabilidad si se cumplen dos condiciones, a saber, que: a) no tengan conocimiento efectivo de que la actividad a la información es ilícita y, en lo que se refiere a una acción por daños y perjuicios, no tengan conocimiento de hechos o circunstancias por los que la actividad o la información revele su carácter ilícito, o que b), en cuanto tengan conocimiento de estos puntos, actúen con prontitud para retirar los datos o hagan que el acceso a ellos sea imposible.

El Tribunal de Justicia ha aclarado que estas condiciones «contemplan cualquier situación en la que [la plataforma en línea] adquiera conocimiento, de una forma o de otra, de [hechos o circunstancias a partir de los cuales un operador económico diligente hubiera debido deducir ese carácter ilícito]», y que aquí debe incluirse (aparte del caso de que la notificación la efectúe un tercero) el caso de que la plataforma «descubra la existencia de una actividad o información ilícitas como consecuencia de una investigación realizada por su propia iniciativa» 40 .

De ello se deduce que las medidas proactivas adoptadas por una plataforma en línea para detectar y retirar contenidos ilícitos en línea podrían llevar al descubrimiento o conocimiento de actividades o informaciones ilícitas que podrían conllevar la pérdida de la exención de responsabilidad contemplada en el artículo 14, apartado 1, letra a) de la Directiva sobre comercio electrónico. En estos casos la plataforma en línea sigue teniendo, sin embargo, la posibilidad de actuar con rapidez para retirar o impedir el acceso a la información en cuestión desde el momento en que la descubre o tiene conocimiento de ella. Si así lo hace, la plataforma puede seguir acogiéndose a la exención de responsabilidad contemplada en el artículo 14, apartado 1, letra b). Por lo tanto, el temor a perder la exención de responsabilidad no debe disuadir ni impedir la aplicación de las medidas proactivas voluntarias que esta Comunicación se propone fomentar.

11.Uso de la tecnología para la detección de contenidos ilícitos

Dado el volumen de material de que son intermediarias las plataformas en línea, así como el progreso tecnológico en materia de procesamiento de la información e inteligencia digital, la utilización de tecnologías de detección automática y filtrado se está convirtiendo en una herramienta cada vez más importante en la lucha contra los contenidos ilícitos en línea. Muchas grandes plataformas están recurriendo al uso de algún tipo de algoritmos de emparejamiento basados en diferentes tecnologías, desde el simple filtrado de metadatos a las funciones hash y la huella digital.

La Directiva sobre comercio electrónico aclara que las disposiciones en materia de responsabilidad no obstan para el desarrollo y explotación efectiva de sistemas técnicos de protección e identificación, así como de instrumentos técnicos de vigilancia proporcionados por las tecnologías digitales 41 . Como la propia Directiva indica, estas operaciones deben realizarse dentro de los límites impuestos por la normativa vigente nacional o de la UE, en particular en materia de protección de la intimidad y los datos personales y de prohibición de que los Estados miembros impongan obligaciones generales de control 42 .

Las normativas de carácter sectorial pueden obligar a las plataformas en línea a tomar medidas (p. ej., en materia de derechos de autor) que permitan la detección y retirada de contenidos ilícitos incluso cuando tienen derecho a acogerse a la exención de responsabilidad contemplada en el artículo 14 de la Directiva sobre comercio electrónico.

Más en general, se insta, en particular, a la utilización y desarrollo de estas tecnologías cuando esté en juego un peligro grave, como recordaban las conclusiones del Consejo Europeo de 22 de junio de 2017 43 . Los instrumentos y filtros automáticos pueden utilizarse para identificar posibles contenidos ilícitos; la investigación, tanto pública como privada, está realizando progresos en el desarrollo de este tipo de herramientas. Por ejemplo, en el ámbito de los derechos de autor, el reconocimiento automático de contenidos ha demostrado ser un instrumento eficaz desde hace años.

La Comisión insta a adoptar nuevos enfoques de investigación e innovación que vayan más allá del estado actual de la técnica con el fin de mejorar la exactitud de los medios técnicos de identificación de contenidos ilícitos 44 . Asimismo, insta al sector a que introduzca de forma efectiva innovaciones que contribuyan a incrementar la eficiencia y eficacia de los procedimientos de detección automáticos.

En la mayoría de los casos, las mejores prácticas seguidas por el sector en la actualidad consisten en utilizar los instrumentos automáticos para reducir la masa de los contenidos bajo sospecha para someterlos al análisis de expertos, que son los que evaluarían su carácter ilícito. Este paso por el análisis humano es, en general, un elemento importante de los sistemas automáticos cuyo objetivo es determinar la ilicitud de un determinado contenido, sobre todo en ámbitos en los que los índices de error son altos, o en los que es necesario hacer una contextualización. 

A juicio de la Comisión, las medidas proactivas adoptadas por las plataformas en línea incluidas en el ámbito de aplicación del artículo 14 de la Directiva sobre comercio electrónico con el fin de detectar y retirar los contenidos ilícitos que pudieran alojar (entre ellas, los instrumentos automáticos o los destinados a garantizar que no reaparezcan contenidos retirados), no acarrean, por sí mismas, la pérdida de la exención de responsabilidad.

En particular, la adopción de tales medidas no implica que la plataforma en línea considerada desempeñe un papel activo que la privaría de poder acogerse a la exención. Cuando, merced a la adopción de medidas, la plataforma en línea descubra o tome conocimiento de información o de actividades ilícitas, deberá actuar con rapidez para retirar o impedir el acceso a la información ilícita y así cumplir la condición necesaria para acogerse a la exención.

Las plataformas en línea deben hacer todo lo posible para, de forma proactiva, detectar, identificar y retirar los contenidos ilícitos en línea. La Comisión invita encarecidamente a las plataformas en línea a recurrir a medidas voluntarias proactivas para la detección y retirada de contenidos ilícitos, así como a intensificar la cooperación, la inversión y la utilización de tecnologías de detección automática.

12.Retirada del contenido ilícito 

45 Redunda en interés de toda la sociedad que las plataformas retiren los contenidos ilícitos con la mayor rapidez posible. Ahora bien, la retirada no obsta para proceder a la interposición de acciones u otro tipo de medidas contra las infracciones de la ley que pudieran ir asociadas. El intercambio de información incriminatoria entre las autoridades públicas y las plataformas en línea es un aspecto importante en este sentido. Es necesario que las próximas iniciativas legislativas en este campo faciliten el acceso transfronterizo a tal información. La retirada del contenido ilícito por parte de las plataformas no debe afectar a la investigación o la persecución de los delitos a que hubiera lugar con arreglo al Derecho de la Unión o nacional.

Deben establecerse también garantías sólidas que limiten el riesgo de retirada de contenidos no ilícitos, garantías que irían acompañadas de una serie de obligaciones en materia de transparencia que delimiten responsabilidades en los casos de retirada.

13.Prontitud en la retirada de contenidos y notificación de los delitos a las fuerzas de seguridad

La Directiva sobre comercio electrónico obliga a las plataformas en línea a actuar «con prontitud» para retirar los contenidos ilícitos de los que han tenido conocimiento, si desean seguir acogiéndose a la exención de responsabilidad. Las consecuencias de este hecho en la práctica dependen de las características del asunto en cuestión, en particular del tipo de contenido ilícito, de la precisión de la comunicación y del potencial daño causado.

En la práctica, contenidos diferentes requieren una cantidad diferente de información contextual para determinar la licitud de un determinado contenido. Por ejemplo, mientras que podría ser fácil determinar el carácter ilícito de contenidos de abuso sexual infantil, decidir acerca de la ilicitud de afirmaciones difamatorias requiere, en general, un análisis del contexto en el que fueron realizadas.

Cuando estén en juego consecuencias graves, por ejemplo en el caso de incitación al terrorismo, la rapidez en la retirada es especialmente importante y podría estar sujeta a plazos concretos.

Algunos sistemas voluntarios, como el Código de conducta para luchar contra la incitación ilegal al odio en línea, han establecido objetivos indicativos para la retirada de contenidos; el citado Código, p. ej., impone 24 horas en la mayoría de los casos.

La retirada o suspensión enteramente automática de contenidos puede ser especialmente eficaz y debe aplicarse cuando las circunstancias no dejan lugar a dudas acerca de la ilicitud del material, por ejemplo cuando este ha sido objeto de notificación por las fuerzas de seguridad, o cuando se trata de material que ya ha sido retirado anteriormente con reserva de lo dispuesto en la sección 4.3.

Por regla general, las retiradas fruto de comunicaciones de alertadores fiables deben efectuarse con mayor rapidez gracias al mayor nivel y exactitud de la información facilitada en la comunicación y a la mayor fiabilidad de los alertadores.

En caso de que esté en juego un perjuicio económico por producirse una violación de derechos de propiedad intelectual, el grado potencial del perjuicio económico podría depender directamente de la celeridad de la retirada.

Si las plataformas informan claramente del tiempo necesario para procesar las solicitudes de retirada según el tipo de contenido, será más fácil evaluar la celeridad de la actuación y se favorecerá la rendición de cuentas por parte de las plataformas. 

En algunos casos, sobre todo cuando las plataformas en línea tienen dificultades para juzgar acerca de la licitud de un contenido concreto y pueda darse lugar a una decisión potencialmente controvertida, puede recurrirse a la posibilidad de consultar a un tercero en caso de duda para recabar asesoramiento. En diversos Estados miembros esta función es desempeñada por organismos autorreguladores o por las autoridades competentes. Esta cooperación debe ser fomentada activamente como parte de la colaboración reforzada entre las plataformas en línea y las autoridades competentes.

46 Por último, las plataformas de internet deben informar a las fuerzas de seguridad cuando vean indicios o tomen conocimiento de infracciones penales o de otro tipo, de forma que las autoridades pertinentes puedan investigar y perseguir a los individuos que hubieran generado tales contenidos o a los delincuentes organizados o terroristas que hubieran abusado de los servicios. Para hacerlo, deben cumplir con las obligaciones impuestas por la legislación, p. ej., por el Reglamento (UE) 2016/679 relativo a la protección de los datos personales. Lo mismo cabe decir en el caso de las ofertas y ventas de productos o de las prácticas comerciales que no se ajusten a la legislación de la UE.

La necesidad de cooperar con las fuerzas de seguridad en la investigación y el enjuiciamiento de delitos podría hacer, en algunos casos, que las plataformas tengan que abstenerse de retirar los contenidos ilícitos si ello es necesario en el marco de una investigación en curso, siempre con la estrecha supervisión de las autoridades nacionales y dentro del respeto de las normas penales de nivel nacional.

47 48 49 Las fuerzas de seguridad deben dotarse de las capacidades necesarias para dar el curso debido a las comunicaciones recibidas. Un ejemplo de mejores prácticas por lo que respecta a los puntos de contacto es el portal SIRIUS, establecido por Europol para asistir a los Estados miembros en las investigaciones sobre terrorismo en línea, facilitando, por ejemplo, la cooperación entre las plataformas y las entidades encargadas de hacer cumplir la normativa de la UE.

De conformidad con el artículo 14 de la Directiva sobre comercio electrónico, las plataformas en línea deben, si desean acogerse a la exención de responsabilidad, retirar el contenido ilícito con prontitud en cuanto sean informadas o tengan conocimiento de su existencia. La celeridad en la retirada es importante si están en juego consecuencias graves, por ejemplo en casos de incitación a actos de terrorismo. Los informes de transparencia deben consignar claramente los plazos de retirada y los procedimientos a seguir según los diferentes tipos de contenidos ilícitos.

La cuestión del establecimiento de unos plazos de retirada fijos será analizada con más detenimiento por la Comisión.

Las pruebas que evidencien la existencia de infracción penal obtenidas en el marco de la retirada de contenidos ilícitos deben ser transmitidas a las fuerzas de seguridad, siempre que se haga de conformidad con lo dispuesto, en particular, en el Reglamento (UE) 2016/679, especialmente respecto a la licitud del tratamiento de los datos personales.

14.Fomento de la transparencia 

15.Transparencia de la política de contenidos de las plataformas en línea

La cuestión de si un contenido es lícito o ilícito se rige por las leyes tanto nacionales como de la UE. Paralelamente, las plataformas en línea pueden considerar, en las condiciones de utilización de sus servicios, que determinados tipos de contenidos sean indeseables o censurables.

50 Las plataformas en línea deben exponer detalladamente su política de contenidos en las condiciones de utilización de sus servicios y darla a conocer claramente a sus usuarios. Estas condiciones deben, no solo determinar lo relativo a la retirada o inhabilitación del acceso a los contenidos, sino también precisar las garantías que se han establecido para asegurar que tales medidas no den lugar a retiradas abusivas. En particular, y como parte de la mejora de la transparencia de la política de las plataformas en materia de retirada de contenidos, las condiciones de utilización deben recoger claramente las posibilidades de que disponen los usuarios para oponerse a las decisiones de retirada. De este modo se mitigarán los potenciales efectos negativos que pudiera sufrir el derecho fundamental del usuario a la libertad de expresión e información.

Las plataformas en línea deben hacer una exposición clara, comprensible y suficientemente detallada de su política de contenidos en las condiciones de utilización de sus servicios. Estas últimas deben reflejar lo relativo al tratamiento tanto de los contenidos ilícitos como de aquellos que no respeten las condiciones de utilización de los servicios. Toda restricción que pudiera existir respecto al tipo de contenido permitido en una determinada plataforma debe enunciarse con claridad y comunicarse a sus usuarios. En esta exposición deben señalarse también los recursos existentes para oponerse a las decisiones de retirada, incluidas las propugnadas por los alertadores fiables.

16.Transparencia de los procedimientos de «notificación y acción»

La información en materia de transparencia debe incluir también los resultados de la aplicación de las políticas de gestión del contenido de las plataformas.

Las plataformas en línea deben publicar informes de transparencia que contengan información detallada del número y el tipo de notificaciones recibidas y de medidas adoptadas, así como el tiempo necesario para su tratamiento y la fuente de la notificación 51 . Los informes deben recoger igualmente información sobre eventuales contranotificaciones, y la respuesta que estas hubieran obtenido. La Comisión invita a la publicación de esta información de forma regular y, como mínimo, una vez al año.

Tomando como base las diferencias según tipos de contenido, los informes de transparencia podrían ser objeto de un cierto grado de normalización en todo el mercado único digital. Esto permitiría llevar un mejor seguimiento, facilitar la agregación electrónica de la información y evitar el alzamiento de barreras innecesarias a la prestación transfronteriza de servicios de alojamiento.

Es necesario velar por que las plataformas en línea de menor tamaño y las pymes puedan proporcionar estos datos de transparencia, y que cualquier actividad de apoyo, como sería el caso de la normalización, imponga unas cargas administrativas lo más livianas posible.

En los diálogos estructurados con el sector, la Comisión examinará más a fondo el potencial de normalización existente en los procedimientos de notificación y los informes de transparencia sobre los sistemas de retirada y sus resultados.

17.Garantías contra las retiradas abusivas y la utilización arbitraria del sistema

Una actuación expeditiva, con utilización de métodos de filtrado de las publicaciones o detección automatizada con el fin de garantizar una rápida retirada de los contenidos ilícitos, en particular cuando no hay intervención humana, puede afectar a la oportunidad de la decisión, con el riesgo de que se eliminen contenidos lícitos. Por ello, es importante garantizar que existan unas garantías suficientes de modo que puedan restablecerse contenidos erróneamente eliminados.

18.Oposición a una comunicación

En general, quienes hubieran aportado el contenido deben tener la oportunidad de oponerse a la notificación mediante una contranotificación. Este principio es también válido cuando la retirada de contenidos sea automática.

Por ejemplo, con arreglo al artículo 28 bis de la propuesta de modificación de la Directiva de servicios de comunicación audiovisual, los Estados miembros deben velar por que existan mecanismos de reclamación y reparación para la solución de litigios entre usuarios y plataformas de distribución de vídeos respecto a la aplicación de las medidas apropiadas que adopten dichas plataformas.

Si la contranotificación aporta razones satisfactorias que permiten concluir que la actividad o la información notificada no es ilícita, el proveedor de la plataforma debe restablecer el contenido retirado sin demoras indebidas o permitir que el usuario lo publique de nuevo, sin perjuicio de las condiciones de utilización de los servicios de la plataforma.

La posibilidad de oponerse a las decisiones debería conducir a una disminución de los casos de retirada injustificada de contenidos lícitos, mientras que los documentos generados podrían utilizarse en mecanismos de resolución extrajudicial de litigios o en procedimientos de apelación.

En determinadas circunstancias no sería procedente informar al proveedor ni permitir la presentación de una contranotificación, en particular cuando ello pudiera obstaculizar las facultades de investigación de las autoridades de los Estados miembros para prevenir, detectar y perseguir infracciones penales, como sería el caso de material relacionado con el abuso sexual infantil.

Las plataformas en línea deben ofrecer un procedimiento de contranotificación sencillo en línea. Cuando se presente una contranotificación, las plataformas en línea deben enviar una respuesta y, en caso de decisión negativa, deben exponerse los motivos. Cuando el Estado miembro disponga de tal posibilidad, se invita a las plataformas a permitir el recurso a órganos de resolución extrajudicial para tratar litigios en materia de contranotificaciones.

19.Medidas contra las notificaciones y contranotificaciones de mala fe

52 Al mismo tiempo, los procedimientos de «notificación y acción» pueden ser objeto de abuso a causa de malas prácticas o mala fe. Es necesario disuadir del uso de este tipo de prácticas, por ejemplo rebajando el tratamiento prioritario de comunicaciones procedentes de un notificador que envía un porcentaje importante de comunicaciones no válidas o que recibe un gran número de contranotificaciones, o revocar el reconocimiento de un alertador fiable con arreglo a criterios transparentes y reconocidos. Estas políticas también deben consignarse claramente en las condiciones de utilización de las plataformas en línea y formar parte de la información general en materia de transparencia de las plataformas en línea con el fin de impulsar su responsabilización. Deben adoptarse medidas análogas en relación con las contranotificaciones abusivas.

20.Prevención de la reaparición de contenidos ilícitos

Una vez detectados y retirados, los contenidos ilícitos no deben reaparecer en línea. Para un buen funcionamiento del sistema es necesaria una prevención efectiva y eficaz de tal reaparición aplicando las buenas prácticas existentes e instaurando las salvaguardias oportunas. Para impedir la difusión entre plataformas de material ilícito conocido es necesaria una mayor cooperación entre proveedores de servicios en línea respetando siempre las normas aplicables en materia de competencia. Es preciso también reforzar la cooperación entre las fuerzas de seguridad y las empresas más pequeñas y modestas, que podrían ser las plataformas elegidas por los delincuentes u otras personas implicadas en actividades ilícitas en línea por considerarlas más vulnerables que el resto.

21.Medidas contra los infractores reincidentes

53 Con el fin de evitar la reaparición de contenidos ilícitos por la acción de usuarios que los publican una y otra vez, muchas plataformas en línea ya han adoptado medidas contra los infractores reincidentes, como la suspensión o clausura de cuentas o la «shadow-banning» o exclusión oculta.

Las plataformas en línea deben adoptar medidas que disuadan a los usuarios de publicar repetidamente contenidos ilícitos del mismo tipo con el fin de poner fin a su difusión.

Lo mismo cabe decir cuando el infractor sea el mismo y el tipo de contenido sea similar y cuando, en su caso, el usuario haya sido puntualmente informado de la notificación o notificaciones recibidas en su contra y de la inminencia de su suspensión o su supresión. Esto permitiría al usuario oponerse a la decisión y facilitaría el acceso al recurso judicial contra la medida, si es que ello es procedente a tenor del contrato celebrado entre el usuario y la plataforma y de la normativa aplicable. En tales casos, igualmente, el tratamiento de datos personales debe respetar plenamente la legislación vigente en materia de protección de datos.

Una vez más, no debe darse al proveedor del contenido información ni notificación alguna si con ello pudieran obstaculizarse las facultades de investigación de las autoridades de los Estados miembros para prevenir, detectar y perseguir infracciones penales, suponiendo la existencia de la necesaria base jurídica.

22.Filtros automáticos contra la repetición de la publicación en línea

Además de las tecnologías contempladas en la sección 3.3, destinadas a identificar posibles contenidos ilícitos, existen otros instrumentos tecnológicos que permiten aumentar el grado de fiabilidad, tales como el marcado mediante huella digital o el filtrado con exclusión definitiva de contenidos que ya han sido detectados y juzgados ilícitos. La Comisión invita a recurrir a la utilización de estos instrumentos, sin perjuicio de garantías tales como la reversibilidad y las excepciones que se indican más adelante.

En la actualidad estas técnicas se utilizan ya, por ejemplo, en la base de datos de funciones hash utilizada para luchar contra los contenidos terroristas, creada por el Foro de Internet de la UE, y en el ámbito de los derechos de autor o del abuso sexual infantil, e incluso en el caso de productos que han sido denunciados por las fuerzas de seguridad por no ajustarse a la legislación pertinente. Estas prácticas han arrojado buenos resultados. Sin embargo, su eficacia depende de que se lleven a cabo mejoras para limitar la identificación errónea de contenidos y para adoptar decisiones que tengan en cuenta el contexto y de que dispongan de las necesarias garantías de reversibilidad.

Por ejemplo, basándose en las prácticas de reconocimiento automático seguidas en el ámbito de los derechos de autor, la propuesta de la Comisión sobre derechos de autor en el mercado único digital reconoce que estas tecnologías, siempre que sean adecuadas y proporcionadas, constituyen un instrumento eficaz para, por ejemplo, impedir la disponibilidad de contenidos sin licencia en los servicios en línea.

Los procedimientos de exclusión definitiva deben contener excepciones en función del contexto, o excepciones para cuando el contenido retirado se sustituya por otro que se ajusta a los requisitos normativos o de otro tipo. La aplicación de estas excepciones, así como sus plazos, dependerán del carácter específico del contenido y de cualquier eventual amenaza para la seguridad, así como de la posibilidad de establecer una suspensión temporal a la espera de una evaluación más en profundidad.

La Comisión recomienda encarecidamente una mayor utilización y desarrollo de tecnologías encaminadas a prevenir la reaparición de contenidos ilícitos en línea. 

Cuando se usen instrumentos automáticos para evitar la reaparición de contenidos ilícitos debe existir una garantía de reversibilidad para las decisiones erróneas; el uso y la aplicación de esta tecnología debe figurar de forma transparente en las plataformas de servicio.

Debe ponerse a disposición de todas las plataformas en línea un acceso a las bases de datos utilizadas para detectar e identificar automáticamente la reaparición de contenidos ilícitos, sin perjuicio de la legislación vigente en materia de protección de datos personales o de competencia que pudiera aplicarse al tratamiento de datos considerado. En el caso de estas bases de datos, la política de privacidad de las empresas debe incluir información transparente sobre tratamiento de datos personales.

Las plataformas en línea deben garantizar también una actualización continuada de sus instrumentos en función de la evolución de las tácticas y comportamientos de los delincuentes implicados en actividades ilícitas en línea con el fin de asegurar la inclusión de todos los contenidos ilícitos. Los instrumentos utilizados para luchar contra contenidos de carácter terrorista deben adaptarse para incluir tanto contenidos nuevos como históricos y para garantizar un análisis y retirada rápidos. Esos contenidos deben integrarse en instrumentos horizontales comunes a las diferentes plataformas, como sucede con la mencionada base de datos de funciones hash (utilizada para los contenidos de índole terrorista). Esta evolución tecnológica debe realizarse mediante la colaboración entre las plataformas en línea, las autoridades competentes y otras partes interesadas, incluida la sociedad civil.

23.Conclusiones

El aumento de contenidos ilícitos alojados por las plataformas en línea supone una amenaza real para la sociedad, incluido el peligro para la integridad, dignidad y salud de nuestros ciudadanos; si no se aborda de forma apropiada, esta amenaza se cerniría también sobre la confianza en los servicios digitales, ampliamente considerados, y más concretamente sobre el mercado único digital, un motor clave de innovación, crecimiento y empleo. Aunque los contenidos sean creados y publicados por terceros, la influencia cada vez mayor en la sociedad de las plataformas en línea (que son las guardianas de los contenidos y la información), hace que su responsabilidad para con sus usuarios y la sociedad en general sea también cada vez mayor. Por ello deben mantener una actitud proactiva a la hora de eliminar contenidos ilícitos y de impedir su reaparición, establecer procedimientos de «notificación y acción», crear interfaces bien diseñadas con terceros (p. ej., con los alertadores fiables) y dar una especial prioridad a las comunicaciones procedentes de las fuerzas de seguridad. Cuando las plataformas en línea decidan qué contenidos se consideran ilícitos con arreglo al Derecho vigente, debe estar vigente un sistema eficaz de garantías y contrapesos.

La presente Comunicación sirve de orientación pero no cambia el marco jurídico aplicable ni contiene normas de aplicación obligatoria; su objetivo es, en primer lugar, servir de guía a las plataformas en línea sobre el mejor modo de dar respuesta a las responsabilidades que les incumben en lo referente a la lucha contra los contenidos ilícitos a los que puedan dar cabida. También aspira a difundir buenas prácticas en los procesos emprendidos contra los diferentes tipos de contenidos ilícitos y a promover una cooperación más estrecha entre las plataformas y las autoridades competentes. En ella se propone un enfoque europeo para hacer frente a los contenidos ilícitos de las plataformas en línea, combinando la necesidad de una retirada rápida y eficaz de tales contenidos y la prevención y persecución del delito, unidas a la protección de la libertad de expresión en línea. Estas orientaciones se complementarán y reforzarán con los diálogos sectoriales en curso.

Debe prestarse una atención especial a velar por que las plataformas en línea de menor tamaño tengan la capacidad de aplicar tales procedimientos; muchos elementos de la presente Comunicación han sido concebidos teniendo en cuenta estas necesidades específicas. Con todo, la Comisión seguirá estudiando nuevos medios para que las plataformas de menor tamaño puedan sumarse a la aplicación de estas orientaciones.

El mercado único digital exige una mayor coherencia en las políticas públicas adoptadas a nivel transnacional. Con la presente Comunicación, la Comisión da un primer paso hacia la instauración de un instrumento común de lucha contra el desafío que supone para todos la retirada de contenidos ilícitos.

La carta de intenciones de 13 de septiembre de 2017 enviada por el presidente de la Comisión Europea al presidente del Parlamento Europeo y al presidente del Consejo de la Unión Europea en el marco de la política encaminada a garantizar un espacio de justicia y derechos fundamentales basado en la confianza mutua anunció nuevas medidas para asegurar una detección y retirada rápida y proactiva de contenidos ilícitos que inciten al odio, la violencia y el terrorismo. La presente Comunicación constituye un primer elemento de tales medidas. La Comisión espera que las plataformas en línea se pongan rápidamente en marcha en los próximos meses, participando, por ejemplo, en los diálogos que tengan lugar, en particular en los ámbitos del terrorismo y la incitación ilegal al odio.

La Comisión seguirá potenciando el diálogo y los intercambios con las plataformas en línea y demás partes interesadas pertinentes. Seguirá de cerca los progresos realizados y evaluará si son necesarias medidas adicionales para garantizar una detección y retirada rápida y proactiva de contenidos ilícitos en línea, incluidas eventuales medidas legislativas que complementen el actual marco regulador. Estos trabajos concluirán en mayo de 2018.

(1)

En la actualidad se publican cada segundo unos 8 000 tweets en Twitter, unas 1 000 fotos en Instagram, se efectúan 60 000 búsquedas en Google y se visualizan 70 000 vídeos en YouTube. Véase http://www.internetlivestats.com/    

(2)

Véase la sección 2.

(3)

Conclusiones del Consejo Europeo, ST 8 2017 INIT, 22 y 23 de junio de 2017, Declaración del G7 en Taormina, 26 de mayo de 2017, y declaración de los líderes del G20, 8 de julio de 2017.

(4)

Resolución del Parlamento Europeo de 15 de junio de 2017 sobre las plataformas en línea [2016/2274(INI)].

(5)

Los elementos que se presentan aquí han sido debatidos en el marco de una amplia consulta, tanto de los ciudadanos como de colectivos específicos y grupos de partes interesadas.

(6)

Véase el reciente Informe de la Comisión al Parlamento Europeo y al Consejo por el que se evalúa la ejecución de las medidas contempladas en el artículo 25 de la Directiva 2011/93/UE, de 13 de diciembre 2011, relativa a la lucha contra los abusos sexuales y la explotación sexual de los menores y la pornografía infantil.

(7)

La Directiva sobre terrorismo (UE) 2017/541 obliga a los Estados miembros a adoptar las medidas necesarias para garantizar una rápida retirada de contenidos en línea que inciten a cometer actos de terrorismo (artículo 21). En este ámbito, y en el marco del Foro de Internet de la UE, las plataformas retiran voluntariamente contenidos terroristas sobre la base de notificaciones recibidas de la Unidad de Notificación de Contenidos de Internet de Europol.

(8)

COM(2016) 593.

(9)

COM(2016) 287.

(10)

http://ec.europa.eu/justice/fundamental-rights/files/hate_speech_code_of_conduct_en.pdf

(11)

http://europa.eu/rapid/press-release_IP-15-6243_en.htm

(12)

http://ec.europa.eu/transparency/regdoc/rep/3/2016/EN/3-2016-3724-EN-F1-1.PDF

(13)

DO C 250 de 1.8.2017

(14)

  http://ec.europa.eu/environment/cites/pdf/WAP_EN_WEB.pdf  

(15)

SWD(2016) 163 de 25.5.2016

(16)

http://ec.europa.eu/internal_market/scoreboard/performance_by_governance_tool/consumer_protection_cooperation_network/index_en.htm

(17)

Comunicación COM(2012) 196 final («Una Internet más adecuada para los niños»): https://ec.europa.eu/digital-single-market/en/alliance-better-protect-minors-online  

(18)

COM(2016) 288 y COM(2017) 228.

(19)

  http://europa.eu/rapid/press-release_IP-17-1471_en.htm  

(20)

http://ec.europa.eu/newsroom/just/item-detail.cfm?item_id=71674

(21)

http://europa.eu/rapid/press-release_IP-17-544_en.htm.

(22)

http://www.inhope.org/Libraries/Annual_reports/INHOPE_Annual_Report_2015.sflb.ashx?download=true

(23)

Directiva 2000/31/CE sobre el comercio electrónico, de 8 de junio de 2000.

(24)

Cabe señalar que, de conformidad con la Directiva sobre comercio electrónico, solo pueden acogerse a la exención de responsabilidad de los artículos 12 a 14 los proveedores de servicios de la sociedad de la información que puedan considerarse prestadores de servicios intermediarios (es decir, que ofrecen la mera transmisión, memorias tampón o alojamiento de datos). El considerando 42 deja claro que, para que una actividad pueda acogerse a la exención de la responsabilidad, debe ser «de naturaleza meramente técnica, automática y pasiva, lo que implica que el prestador de servicios de la sociedad de la información no tiene conocimiento ni control de la información transmitida o almacenada».

(25)

La mayoría de las plataformas en línea ofrecen servicios de alojamiento de contenidos cargados por los usuarios.

(26)

Considerando 40 de la Directiva sobre el comercio electrónico. Hay que señalar que la presente Comunicación se centra en los servicios de alojamiento de datos, más que en la mera transmisión (artículo 12) o en el suministro de memorias tampón (artículo 13).

(27)

Un servicio de alojamiento es un servicio de la sociedad de la información consistente en el almacenamiento de los datos aportados por el destinatario del servicio. Esta categoría está compuesta por una gran diversidad de agentes, desde mercados en línea, plataformas de distribución de vídeos, redes sociales, páginas de blogs o de anuncios o las secciones de comentarios de las páginas de noticias.

(28)

Son ejemplos de ámbitos cubiertos (o propuestos) con arreglo al Derecho de la UE la incitación al terrorismo o al odio, el abuso sexual infantil, los derechos de propiedad intelectual, la seguridad de los productos, la oferta o venta de alimentos, productos del tabaco o medicamentos falsificados, las normas de protección del consumidor o las medidas de seguridad de los productos, etc. En 2016, la Comisión hizo ya unas aclaraciones sobre la transparencia de las plataformas en línea y las obligaciones de diligencia profesional establecidas en la Directiva 2005/29/CE, relativa a las prácticas comerciales desleales, en los casos en los que las plataformas ejercen actividades comerciales con los consumidores.

(29)

La propuesta de revisión de la Directiva de servicios de comunicación audiovisual aborda esta cuestión en el contexto de los contenidos audiovisuales.

(30)

El artículo 14, apartado 3, de la Directiva sobre comercio electrónico señala que dicho artículo «no afectará a la posibilidad de que un tribunal o una autoridad administrativa, de conformidad con los sistemas jurídicos de los Estados miembros, exija al prestador de servicios poner fin a una infracción o impedirla». La Directiva 2004/48/CE, por ejemplo, relativa al respeto de los derechos de propiedad intelectual, establece en su artículo 11 que «los Estados miembros garantizarán asimismo que los titulares de derechos tengan la posibilidad de solicitar que se dicte un mandamiento judicial contra los intermediarios cuyos servicios hayan sido utilizados por terceros para infringir un derecho de propiedad intelectual, sin perjuicio de lo dispuesto en el apartado 3 del artículo 8 de la Directiva 2001/29/CE».

(31)

El artículo 15, apartado 2, de la Directiva sobre comercio electrónico establece que «los Estados miembros podrán establecer obligaciones tendentes a que los prestadores de servicios de la sociedad de la información comuniquen con prontitud a las autoridades públicas competentes los presuntos datos ilícitos o las actividades ilícitas llevadas a cabo por destinatarios de su servicio o la obligación de comunicar a las autoridades competentes, a solicitud de estas, información que les permita identificar a los destinatarios de su servicio con los que hayan celebrado acuerdos de almacenamiento».

(32)

En el sentido del artículo 5 de la Directiva (UE) 2017/541 sobre la lucha contra el terrorismo.

(33)

Considerando 42 de la Directiva sobre comercio electrónico. Véase la sentencia Google France, apartados 114 y 120; sentencia de 12 de julio de 2011, asunto C-324/09 (L’Oréal/eBay, apartado 113.

(34)

Sentencia eBay, apartado 115

(35)

Sentencia eBay, apartado 116

(36)

Considerando 41 de la Directiva sobre comercio electrónico.

(37)

Considerando 40 de la Directiva sobre comercio electrónico.

(38)

Artículo 15, apartado 1, de la Directiva sobre comercio electrónico.

(39)

Considerando 40 de la Directiva sobre comercio electrónico.

(40)

Sentencia eBay, apartados 120 -121

(41)

Considerando 40 de la Directiva sobre comercio electrónico.

(42)

Considerando 40 y artículo 15, apartado 1, de la Directiva sobre comercio electrónico.

(43)

http://www.consilium.europa.eu/es/press/press-releases/2017/06/22-euco-security-defence/

(44)

Los esfuerzos de I+D desplegados por el sector se centran en la elaboración de herramientas analíticas que permitan un mayor conocimiento del lenguaje natural, las cascadas de información en las redes sociales, la identificación de las fuentes de información, los modelos de difusión y las falsas identidades. La Comisión ha respaldado también actividades de I+D a través de la financiación de proyectos destinados a desarrollar instrumentos de comprobación automática que verifiquen la veracidad de los contenidos generados por los usuarios en las redes sociales. Estos instrumentos pueden ayudar a la identificación de posibles falsedades en los textos, las imágenes y los vídeos, así como a facilitar el seguimiento de noticias falsas. Sin embargo, sus capacidades funcionales actuales no les permiten determinar el carácter ilícito de tales contenidos.

(45)

Véase https://ec.europa.eu/info/law/better-regulation/initiatives/ares-2017-3896097_en y https://ec.europa.eu/home-affairs/what-we-do/policies/organized-crime-and-human-trafficking/e-evidence_en para más información.

(46)

Artículo 6, apartado 1, letra c), leído en relación con el artículo 6, apartado 4.

(47)

De acuerdo con el artículo 15, apartado 2, de la Directiva sobre comercio electrónico, «los Estados miembros podrán establecer obligaciones tendentes a que los prestadores de servicios de la sociedad de la información comuniquen con prontitud a las autoridades públicas competentes los presuntos datos ilícitos o las actividades ilícitas llevadas a cabo por destinatarios de su servicio o la obligación de comunicar a las autoridades competentes, a solicitud de estas, información que les permita identificar a los destinatarios de su servicio con los que hayan celebrado acuerdos de almacenamiento».

(48)

«Shaping Internet Research Investigations Unified System».

(49)

Europol continuará facilitando la creación de nuevos puntos únicos en países en los que no existan todavía; para ello proporcionará la formación oportuna a las fuerzas de seguridad de tales países.

(50)

Si se produce tratamiento de datos personales, las plataformas garantizarán la aplicación de políticas de privacidad conformes con el artículo 12 del Reglamento general de protección de datos.

(51)

Información sobre investigaciones por iniciativa propia, comunicaciones procedentes de usuarios normales, comunicaciones procedentes de las fuerzas de seguridad, etc.

(52)

Existen pruebas de que información de este tipo es utilizada por los competidores [Notice and Takedown in Everyday Practice, (Las notificaciones y retiradas en la práctica cotidiana), J Urban et al., UC Berkeley, 2016), y que la creación automática de comunicaciones es una práctica abusiva utilizada para reenviar a contenidos creados artificialmente (Informe de transparencia de Google).

(53)

Se llama «shadow banning» al acto de bloquear a un usuario de una plataforma en línea pero de forma que no se dé cuenta de que ha sido excluido.

Top