INT/993
Paquete de lucha contra los abusos sexuales de menores en línea
DICTAMEN
Sección de Mercado Único, Producción y Consumo
a)Propuesta de Reglamento del Parlamento Europeo y del Consejo
por el que se establecen normas para prevenir y combatir el abuso sexual de los menores
[COM(2022) 209 final – 2022/0155 (COD)]
b)Comunicación de la Comisión al Parlamento Europeo, al Consejo,
al Comité Económico y Social Europeo y al Comité de las Regiones –
Una década digital para los niños y los jóvenes: la nueva estrategia europea
para una internet más adecuada para los niños (BIK+)
[COM(2022) 212 final]
Ponente: Veselin MITOV
|
Consulta
|
a)Consejo, 22/07/2022
b)Comisión Europea, 27/06/2022
|
|
Base jurídica
|
a)Artículo 114 del Tratado de Funcionamiento de la Unión Europea
b)Artículo 304 del Tratado de Funcionamiento de la Unión Europea
|
|
|
|
|
|
|
|
Sección competente
|
Sección de Mercado Único, Producción y Consumo
|
|
Aprobado en la sección
|
08/09/2022
|
|
Resultado de la votación
(a favor/en contra/abstenciones)
|
57/0/6
|
|
Aprobado en el pleno
|
DD/MM/AAAA
|
|
Pleno n.º
|
…
|
|
Resultado de la votación
(a favor/en contra/abstenciones)
|
…/…/…
|
1.Conclusiones y recomendaciones
1.1El Comité Económico y Social Europeo (CESE) acoge con satisfacción la propuesta de Reglamento por el que se establecen normas para prevenir y combatir el abuso sexual de los menores y la Comunicación «Una década digital para los niños y los jóvenes: la nueva estrategia europea para una internet mejor para los niños (BIK+)»
, que resultan muy oportunas ante el uso más precoz y casi cotidiano de internet por parte de los menores y el aumento de la demanda de material de pornografía infantil señalado por Europol.
1.2Apoya la vertiente educativa de la estrategia, ya que es esencial reforzar las competencias, la alfabetización digital y la concienciación sobre el uso de los datos personales, para que todos los niños, con independencia de su situación, utilicen internet con conocimiento de causa para protegerse de sus peligros potenciales.
1.3La formación de los tutores legales y el entorno escolar, educativo, deportivo, etc. también es primordial, dado que muchos adultos no poseen las capacidades necesarias. El CESE se congratula de la intención de la Comisión de organizar campañas educativas en los medios de comunicación para los niños y sus tutores legales, a través de las redes y los agentes de difusión antes mencionados. Exhorta encarecidamente a que se amplíen a otras organizaciones de la sociedad civil organizada para aumentar su impacto y desarrollar soluciones creativas, ya que en algunos Estados miembros tienen una dilatada experiencia de campo y en primera línea. Por lo tanto, también deben recibir apoyo financiero en sus actividades.
1.4Apoya en principio el Reglamento propuesto, pero expresa sus reservas respecto a la naturaleza desproporcionada de las medidas previstas y al riesgo de vulneración de la presunción de inocencia, ya que pretende obligar a las empresas tecnológicas a examinar mensajes, fotos o vídeos publicados en línea para detectar posibles abusos contra menores y luego, en caso de «certeza», a solicitar a posteriori la intervención de una «autoridad de coordinación» designada por el Estado miembro y facultada para solicitar a un tribunal nacional o una autoridad administrativa competente que emitan una orden de detección.
1.5La lucha contra la pornografía infantil en el entorno digital es legítima y necesaria, pero imponer un sistema privado de detección a primera vista de cierto tipo de contenido, por ilícito, ilegal y peligroso que sea, conlleva el riesgo de una vigilancia generalizada de todas las interacciones virtuales.
1.6El Reglamento propuesto prevé que las empresas deban detectar los modelos de lenguaje relacionados con el abuso sexual de menores, utilizando la inteligencia artificial para analizar las interacciones en las que personas adultas se dedican a la captación de menores con fines sexuales. Sin embargo, en nuestra vida digital se constata fácilmente que las exploraciones algorítmicas no son infalibles, por lo que resulta fundamental utilizarlas con control y prudencia.
1.7El objetivo del CESE es salvaguardar los intereses de todos, como el secreto de la correspondencia y el respeto a la vida privada, que son requisitos constitucionales. Sin embargo, una exploración de los servicios de alojamiento y comunicación conlleva un riesgo, en particular para el cifrado de extremo a extremo de las interacciones en línea. Pide a la Comisión que mejore y precise el texto para preservar el secreto de la correspondencia y el respeto de la vida privada.
1.8El CESE apoya la creación de una nueva agencia europea cuyas competencias abarquen dos ámbitos esenciales: un centro operativo y un centro de investigación y análisis, ya que la lucha contra la pornografía infantil y la pederastia en internet exige la coordinación de las operaciones y los análisis debido a su escala internacional.
1.9El CESE vería con buenos ojos la implicación de Eurojust en la arquitectura prevista por la Comisión, ya que hablar de investigaciones coordinadas significa hablar de instrucciones judiciales coordinadas.
2.Resumen de las medidas contempladas por la Comisión
2.1El 11 de mayo de 2022, la Comisión presentó una propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas para prevenir y combatir el abuso sexual de los menores y una Comunicación titulada «Una década digital para los niños y los jóvenes: la nueva estrategia europea para una internet más adecuada para los niños (BIK+)».
2.2Este paquete se basa en la Resolución del Parlamento Europeo, de 26 de noviembre de 2019, sobre los derechos del niño con ocasión de la celebración del 30.º aniversario de la Convención de las Naciones Unidas sobre los Derechos del Niño, las Conclusiones del Consejo sobre la alfabetización mediática y la Recomendación del Consejo, de 14 de junio de 2021, por la que se establece una Garantía Infantil Europea.
La estrategia contenida en la Comunicación
2.3La Estrategia Europea para una Internet Mejor para los Niños de 2012 ha desempeñado un papel fundamental en la protección y la capacitación de los menores en el entorno digital, en particular gracias a la red de Centros de Seguridad en Internet y al portal betterinternetforkids.eu, pero se ha quedado obsoleta debido a que los menores utilizan de forma más precoz y con mayor frecuencia su teléfono inteligente u ordenador y dependen de ellos cada vez más para sus actividades escolares o recreativas.
2.4La pandemia de COVID-19 y el confinamiento han puesto de relieve los desafíos de la formación digital de los niños, profesores y cuidadores frente a los peligros potenciales de internet. Según Europol, la demanda de pornografía infantil ha aumentado en un 25 % en algunos Estados miembros. Las denuncias de menores afectados por captación con fines sexuales aumentaron en más de un 16 % entre 2020 y 2021.
2.5La Estrategia propuesta por la Comisión en mayo de 2022 se basa en tres pilares:
-la protección de los menores frente a los contenidos ilícitos y peligrosos en internet y la mejora de su bienestar en línea;
-la capacitación digital para que los niños adquieran las competencias necesarias para navegar por internet y expresarse en el entorno digital de manera segura y responsable;
-la participación activa de los menores, dándoles el derecho a opinar y a un mayor número de actividades innovadoras para mejorar su experiencia en internet.
2.6Se basa en la amplia consulta #DigitalDecade4YOUth, llevada a cabo de marzo a agosto de 2021 por European Schoolnet, con el apoyo de la red Insafe de Centros de Seguridad en Internet europeos, complementada por otras consultas igualmente amplias, y tiene como fundamento el derecho de los niños a ser oídos en cualquier proceso de toma de decisiones que les afecte.
2.7A ello se añadió un curso masivo abierto en línea (MOOC) para profesores en abril y mayo de 2021 sobre el tema «Alfabetización digital y seguridad en línea: ¿cómo ha puesto a prueba nuestras capacidades la pandemia?» en el marco de la iniciativa «Una internet mejor para los niños».
2.8Además, los ciudadanos de la UE (progenitores, profesores, cuidadores, etc.) pudieron responder a una encuesta en línea basada en las mismas preguntas que la consulta #DigitalDecade4YOUth.
2.9Las conclusiones de la encuesta EU Kids Online de 2020 muestran que la mayoría de los niños utilizan su dispositivo digital casi «a diario», de forma más precoz y durante más tiempo.
2.10La pandemia de COVID-19 y el confinamiento han sacado a la luz los desafíos de la formación digital de los niños y de los tutores legales adultos (véase el Plan de Acción de Educación Digital para el período 2021-2027).
2.11De hecho, los datos recogidos muestran que los niños se ven frecuentemente expuestos a contenidos, comportamientos y contactos nocivos, ilícitos e incluso ilegales. El uso de los medios sociales o los juegos interactivos comporta riesgos como la exposición a contenidos inadecuados, la intimidación, la captación y el abuso sexual de menores.
2.12Según Europol, durante los primeros meses de la crisis de la COVID-19, la demanda de pornografía infantil aumentó hasta en un 25 % en los Estados miembros. El National Center for Missing and Exploited Children de los Estados Unidos recibió casi treinta millones de denuncias por sospecha de explotación sexual infantil en 2021, y las fuerzas del orden fueron alertadas de más de cuatro mil nuevas víctimas infantiles. Las denuncias de menores objeto de captación con fines sexuales aumentaron en más de un 16 % entre 2020 y 2021. Asimismo, los niños con discapacidad se ven especialmente afectados: hasta el 68 % de las niñas y el 30 % de los niños con discapacidad mental o física serán víctimas de violencia sexual antes de cumplir 18 años.
2.13Sin embargo, en el Derecho de la Unión vigente (Directiva de servicios de comunicación audiovisual y RGPD), los mecanismos de verificación de la edad y de consentimiento parental son ineficaces en muchos casos, ya que en general los usuarios solo tienen que introducir su fecha de nacimiento en el momento de crear su perfil en línea.
2.14El Reglamento propuesto impone a los prestadores de servicios de alojamiento de datos o de comunicación en internet la obligación de detectar, denunciar y retirar cualquier material relacionado con el abuso sexual de menores en línea.
2.15También prevé la creación de una agencia europea para prevenir y luchar contra el abuso sexual de menores, facilitar la detección, denuncia y retirada de contenidos de abusos sexuales de menores en línea, prestar apoyo a las víctimas y establecer un centro de conocimientos, experiencia e investigación sobre la prevención y la lucha contra el abuso sexual de menores.
Comentarios generales sobre la propuesta de Reglamento
2.16La propuesta se basa en obligaciones de evaluación y mitigación de riesgos para los prestadores de servicios de alojamiento de datos y servicios de comunicaciones interpersonales anteriores a la emisión de una orden de detección por parte de un tribunal nacional o una autoridad administrativa independiente designada por el Estado miembro.
2.17El CESE apoya este principio, que complementa las medidas existentes y las hace más eficaces, mediante sanciones contra los prestadores de servicios de alojamiento y de comunicaciones interpersonales, al tiempo que los hace responsables de la localización prima facie de las fotos y vídeos de maltrato infantil.
2.18Sin embargo, expresa sus reservas en cuanto a los riesgos para el respeto a la vida privada y el cifrado de las conversaciones. La posible vigilancia de las interacciones virtuales por parte de operadores privados y las potenciales acusaciones infundadas podrían vulnerar la presunción de inocencia.
3.Observaciones específicas
La vertiente educativa prevista en la estrategia
3.1Educar a los niños y a sus tutores legales sobre el uso de las redes sociales y otras herramientas digitales es fundamental, ya que los niños suelen utilizar productos y servicios digitales diseñados para adultos, en los que la segmentación mediante técnicas de comercialización y los algoritmos pueden inducir a abrir contenido destinado a aprovecharse de su ingenuidad y desconocimiento de las herramientas digitales, o incluso a comunicarse con personas peligrosas ocultas tras aplicaciones lúdicas u otras herramientas empleadas por los menores.
3.2A menudo, ni los niños ni los progenitores se dan cuenta de la cantidad de datos personales que comparten en los medios sociales. Las competencias y la alfabetización digitales y la concienciación sobre el uso de los datos personales son esenciales para que los niños utilicen el mundo virtual con conocimiento de causa.
3.3Los progenitores, cuidadores, profesores, responsables de clubes, instalaciones de ocio, etc. también necesitan estas competencias para orientar a los niños.
3.4El CESE considera que esta vertiente educativa es primordial para proteger a los niños en su vida digital y hacerlos autónomos en el mundo virtual.
3.5De hecho, muchos profesores, padres y cuidadores no poseen las capacidades necesarias y les resulta difícil seguir el ritmo del desarrollo tecnológico.
Estos cursos también deben incluir un módulo sobre los derechos del niño en internet, ya que estos son idénticos tanto dentro como fuera del entorno digital.
3.6Esta vertiente de la estrategia debe basarse en una estrecha cooperación a escala europea e internacional, un refuerzo del trabajo con la sociedad civil organizada y sobre todo con las escuelas.
Es esencial que los planes de estudio nacionales incluyan cursos prácticos y obligatorios sobre la navegación en internet y sus riesgos, que al mismo tiempo sean inclusivos y respeten la diversidad en general y la accesibilidad en particular.
3.7El CESE aprecia la intención de la Comisión de organizar campañas educativas en los medios de comunicación para los niños y sus tutores legales, a través de las redes mencionadas y de los agentes de difusión. Exhorta encarecidamente a que se amplíen a otras organizaciones de la sociedad civil organizada para aumentar su impacto y desarrollar soluciones creativas, ya que en algunos Estados miembros tienen experiencia de campo y en primera línea desde hace mucho tiempo. El CESE considera que la educación desempeña un papel crucial en este contexto, ya que constituye el pilar complementario de la prevención del abuso sexual de menores en línea.
3.8El CESE se suma a la Comisión a la hora de fomentar un papel activo de los menores en los debates estratégicos que les afectan, concediéndoles un derecho de reunión y asociación en plataformas sociales en línea, y de asociarlos a la elaboración de la Agenda Digital. Por lo tanto, acoge con satisfacción la creación de la nueva plataforma de participación infantil de la UE y pide que la voz de los menores no solo se escuche sino se atienda.
4.Sanciones previstas en la propuesta de Reglamento
4.1Hasta el momento, los proveedores de servicios de alojamiento y de comunicaciones interpersonales detectan el contenido ilegal de forma voluntaria. Lamentando implícitamente el fracaso de la autorregulación, la Comisión propone obligarlos a actuar, so pena de sanción tras un procedimiento de investigación emprendido por las autoridades nacionales. Concretamente, esto significa que los proveedores y prestadores de alojamiento deberán explorar prima facie todo lo que circula por sus servidores.
4.2El CESE entiende que el objetivo de la Comisión no es privar a los ciudadanos del secreto de la correspondencia, pero expresa su preocupación por el uso potencialmente inadecuado de tecnologías intrusivas que podrían socavar la protección de la intimidad si no están suficientemente bien concebidas y reguladas. El objetivo es doble: recurrir a la tecnología para impedir el abuso sexual de menores y evitar una vigilancia generalizada de la correspondencia por parte de los operadores privados a través de algoritmos.
4.3El CESE considera que hace falta regular las prácticas de desarrollo, ensayo y uso de los algoritmos, alentando e incluso obligando a los agentes a establecer una gobernanza algorítmica pertinente y eficaz para garantizar el buen funcionamiento de sus herramientas. Considera necesario que los métodos de cálculo de la explicabilidad permitan comprender mejor las herramientas con el fin de destacar sus sesgos y disfunciones y, por tanto, reparar el mal a los usuarios antes de que se produzca.
4.4El CESE destaca que la propuesta prevé investigaciones coordinadas bajo el control de un tribunal nacional, pero insta a la Comisión a mejorarla para salvaguardar las libertades individuales.
4.5El CESE subraya la importancia de un enfoque equilibrado, ya que el sistema previsto consiste en analizar mensajes, fotos o vídeos para detectar posibles abusos de menores y, en caso de «certeza», alertar a las autoridades competentes. Es necesario que el mecanismo de alerta abarque la necesidad, la eficacia, la proporcionalidad y el equilibrio de las medidas previstas.
4.6Recuerda que, en el caso Schrems I, el Tribunal de Justicia dictaminó que la legislación que permite a las autoridades públicas tener acceso general al contenido de las comunicaciones pone en peligro la esencia del derecho a la vida privada garantizado por la Carta de los Derechos Fundamentales. Por lo tanto, la digitalización del contenido grabado en un servidor que implica el análisis de todas las comunicaciones que pasan a través de un servidor hace que surjan dudas.
4.7La responsabilidad del rastreo recaerá sobre las plataformas y los medios sociales a los que, por lo tanto, se les podría solicitar que localizaran los materiales de abuso de menores, so pena de multas correspondientes al 6 % de su volumen de negocios mundial. Deberían utilizar la inteligencia artificial y detectar modelos de lenguaje para poder bloquear las interacciones en las que los adultos practican la captación de menores con fines sexuales. Por lo tanto, el uso adecuado de los exploradores algorítmicos es esencial para evitar errores que den lugar a acusaciones infundadas, ya que dichos exploradores no son infalibles.
4.8La Comisión también tiene previsto obligar a las plataformas a evaluar el riesgo de que sus servicios se utilicen para la difusión de imágenes de pornografía infantil o la captación de menores con fines sexuales, así como facilitar un «código de conducta general de la UE sobre un diseño adaptado a la edad» cuyas condiciones generales causan perplejidad al CESE.
4.9La Comisión especifica que los Estados miembros deberán designar una autoridad independiente encargada de vigilar que las plataformas cumplan sus obligaciones, la cual estará facultada para solicitar a un tribunal nacional o una autoridad administrativa que emita una orden de detección, por tiempo limitado, dirigida a un tipo de contenido específico en un servicio determinado, y que solicite a la empresa en cuestión la búsqueda de cualquier material relacionado con abusos sexuales de menores o con la captación de menores con fines sexuales, o incluso la corrupción de menores.
4.10Si dichas autoridades independientes consideran que un servicio es demasiado arriesgado para los menores, podrán pedir a los prestadores de servicios de alojamiento y de comunicaciones interpersonales que digitalicen sus contenidos e intercambios durante un período de tiempo determinado. El CESE preferiría que la aplicación de este sistema se sometiera al control efectivo y previo de los tribunales nacionales, en su calidad de garantes de las libertades individuales, y considera que la compatibilidad de este tipo de orden con la Carta de los Derechos Fundamentales es cuestionable.
4.11Si la propuesta se aprobara tal como está, el Reglamento obligaría a las empresas tecnológicas a vigilar sus plataformas para detectar los abusos de menores mediante algoritmos.
4.12Aunque el objetivo perseguido sea loable, el CESE considera que existe el riesgo de obstaculizar el respeto de la correspondencia privada en línea, el derecho a la intimidad y la protección de los datos personales, y que debe hacerse todo lo posible por evitarlo.
4.13El propósito del CESE es salvaguardar los intereses de todas las personas, ya que algunos de ellos son requisitos constitucionales, como es el caso del secreto de la correspondencia y el respeto a la vida privada.
4.14Subraya que la perspectiva de una obligación de barrido general de los servicios de alojamiento de datos y comunicación supone un riesgo para todas las técnicas destinadas a garantizar el secreto de la correspondencia, como el cifrado de extremo a extremo.
4.15La Comisión reconoce además que la obligación de encontrar interacciones en las que los adultos practiquen la captación de menores con fines sexuales es de forma general la más intrusiva para los usuarios, ya que requiere leer automáticamente las comunicaciones interpersonales.
5.Creación de una nueva agencia europea
5.1La propuesta de Reglamento prevé la creación de una agencia europea independiente con sede en La Haya, con el apoyo de Europol, y dotada con un presupuesto de veintiséis millones de euros, que se encargará de analizar las denuncias de material ilegal, coordinar las bases de datos de huellas digitales y material ilegal y ayudar a las empresas a encontrar tecnologías fiables.
También actuaría como intermediaria entre las empresas tecnológicas, las fuerzas del orden y las víctimas.
5.2El CESE expresa su satisfacción por que las competencias de esta agencia se organicen en dos ámbitos esenciales: un centro operativo y un centro de investigación y análisis, ya que la importancia de luchar contra la pornografía infantil y la pederastia en el entorno digital exige la coordinación de las operaciones y los análisis.
5.3El aspecto operativo es fundamental y justifica su estrecha cooperación con Europol, cuya eficacia está más que demostrada. La escala europea e internacional de la delincuencia sexual contra menores en internet justifica su existencia.
5.4El CESE vería con buenos ojos la implicación de Eurojust en la arquitectura prevista por la Comisión, ya que hablar de investigaciones coordinadas significa hablar de instrucciones judiciales coordinadas.
Bruselas, 8 de septiembre de 2022
Alain COHEUR
Presidente de la Sección de Mercado Único, Producción y Consumo
_____________