Choose the experimental features you want to try

This document is an excerpt from the EUR-Lex website

Document 52017AE5365

Dictamen del Comité Económico y Social Europeo sobre la comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones — Lucha contra el contenido ilícito en línea — Hacia una mayor responsabilización de las plataformas en línea [COM(2017) 555 final]

EESC 2017/05365

DO C 237 de 6.7.2018, p. 19–25 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

6.7.2018   

ES

Diario Oficial de la Unión Europea

C 237/19


Dictamen del Comité Económico y Social Europeo sobre la comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones — Lucha contra el contenido ilícito en línea — Hacia una mayor responsabilización de las plataformas en línea

[COM(2017) 555 final]

(2018/C 237/03)

Ponente:

Bernardo HERNÁNDEZ BATALLER

Consulta

Comisión Europea, 17.11.2017

Fundamento jurídico

Artículo 304 del Tratado de Funcionamiento de la Unión Europea

Sección competente

Sección de Mercado Único, Producción y Consumo

Aprobación en sección

.9.3.2018

Aprobado en el pleno

14.3.2018

Pleno n.o

533

Resultado de la votación

(a favor/en contra/abstenciones)

180/4/5

1.   Conclusiones y recomendaciones

1.1

El contenido ilícito en línea es un problema complejo y horizontal que requiere ser abordado desde distintas ópticas en función de la valoración de su repercusión así como de su armonización en el marco jurídico de los Estados miembros.

El Comité Económico y Social Europeo (CESE) subraya la importancia de establecer un marco reglamentario adecuado y equilibrado para las plataformas en el mercado único digital que pueda contribuir a instaurar un clima de confianza, tanto para las empresas como para los consumidores en general, lo que les permitiría utilizar las plataformas con confianza. Deben adoptarse enfoques políticos reglamentarios y de autoregulación que sean flexibles, viables y den una respuesta directa a los desafíos, en especial, para los procedimientos de detección, investigación, notificación y retirada de contenidos ilícitos de las plataformas.

1.2

El CESE considera necesario mantener la coherencia en la adopción de criterios y medidas con lo contemplado al respecto en sus dictámenes previos. El punto de partida debe ser que lo que resulta ilegal en el mundo real lo es también en el virtual (on-line). El CESE resalta la importancia de la neutralidad tecnológica y de la coherencia entre las normas aplicadas en línea y fuera de línea en situaciones equivalentes, en función de las necesidades y las posibilidades.

1.3

Resulta imprescindible lograr el máximo equilibrio entre las limitaciones que se prevén con los contenidos ilícitos y la garantía de los derechos fundamentales, así como también en lo que se refiere al distinto tamaño y actividad de las plataformas en línea.

El CESE pide a la Comisión que adopte las medidas oportunas contra la creciente presencia de mensajes violentos y/o discriminatorios en las plataformas, insistiendo en la importancia de proteger a las personas vulnerables y los niños y de luchar contra todo tipo de racismo, sexismo, incitación al terrorismo y acoso, también en el entorno digital.

1.4

Debe considerarse, en particular, la eficacia de las acciones a desarrollar en relación con aquellas plataformas en línea cuyas sedes radiquen fuera del territorio de la Unión Europea.

Igualmente, conviene que la Comisión revise y catalogue, en la medida de lo posible, los contenidos ilícitos expuestos, de modo que puedan ser incorporados otros que no se citan explícitamente en la Comunicación.

En todo caso, la aplicación de los principios orientadores para los procedimientos de detección, investigación, notificación y retirada se debería promover en los supuestos siguientes:

a)

para la protección de derechos reconocidos en convenciones internacionales, tales como las destinadas a proteger:

a la población infantil de aquellos contenidos digitales que puedan ser contrarios a lo establecido en la Convención sobre los Derechos de los Niños;

a las personas con discapacidad de aquellos contenidos digitales que puedan resultar contrarios a lo establecido en la Convención de los Derechos de las Personas con Discapacidad;

b)

para asegurar la no discriminación por razones de género en los contenidos digitales, en especial, en lo que respecta a la aplicación del principio de igualdad de trato entre hombres y mujeres en el acceso a bienes y servicios y su suministro y garantizar la igualdad de género y la dignidad humana en publicidad;

c)

para garantizar y asegurar que los contenidos digitales cumplan con lo previsto en la Agenda Digital para reforzar la seguridad y los derechos de los consumidores en la sociedad digital.

La Comunicación debería recoger en sus contenidos la trascendencia que los contenidos ilícitos pueden tener en el mercado único, de forma que puedan adoptarse las medidas de prevención necesarias para la preservación de su funcionamiento de acuerdo con los principios que lo inspiran.

1.5

En definitiva, se considera muy conveniente la iniciativa de la Comisión Europea al presentar esta Comunicación que, en general, concede un tratamiento acertado para hacer frente a la presencia de contenidos ilícitos en las plataformas en línea. A tal efecto, debe reflexionarse sobre la posibilidad de revisar el contenido de la Directiva sobre el Comercio Electrónico, las Directiva sobre Prácticas Comerciales Desleales y la Directiva sobre Publicidad engañosa y comparativa, basándose, entre otros criterios, en normas que sean válidas para el futuro, tecnológicamente neutras y vitales para el desarrollo de las plataformas europeas, para no crear incertidumbre en los agentes económicos ni limitar el acceso a los servicios digitales.

2.   Antecedentes

2.1

Las plataformas en línea son un tipo de proveedores de servicios de la sociedad de la información que ejercen de intermediarios en un determinado ecosistema digital. Comprenden una amplia gama de agentes que participan en numerosas actividades económicas, tales como el comercio electrónico, los medios de comunicación, los motores de búsqueda, la economía colaborativa, actividades sin ánimo de lucro, la distribución de contenidos culturales o las redes sociales. No están sujetos a ninguna definición clara y precisa, cuya formulación resulta difícil, debido a su carácter permanentemente evolutivo. Desempeñan, actualmente, un papel importante en el mercado interior que se incrementará en el futuro.

2.2

La Comisión ya abordó el tema de las plataformas en línea en relación con el mercado único digital (1), reconociendo que el reto más importante al que se enfrenta hoy la UE para garantizar su futura competitividad en el mundo es promover con eficacia la innovación en esos sectores económicos, pero protegiendo al mismo tiempo de forma adecuada los legítimos intereses de los consumidores y usuarios. Para ello tenía contemplado la revisión de las Directivas sobre telecomunicaciones, privacidad y las comunicaciones electrónicas con respecto a la posición de los servicios de comunicaciones en línea OTT.

2.3

Sobre esta Comunicación ya se pronunció el CESE (2), subrayando que muchas plataformas en línea constituyen elementos importantes de la economía colaborativa, y reiteró sus conclusiones sobre la economía colaborativa, especialmente en lo referente a la protección de los consumidores, los trabajadores por cuenta ajena y los trabajadores por cuenta propia. También destacó la necesidad de abordar el riesgo de fragmentación normativa, por lo que consideraba necesario adoptar un enfoque coherente en la UE.

2.4

Ahora la Comisión aborda mediante esta Comunicación la denominada «lucha contra el contenido ilícito en línea», intentando una mayor responsabilización de las plataformas en línea, al recoger una serie de principios y directrices para que las plataformas en línea intensifiquen su lucha contra los contenidos ilícitos en línea en cooperación con las autoridades nacionales, los Estados miembros y otras partes interesadas.

2.4.1

Se pretende intensificar la aplicación de buenas prácticas en la prevención, detección, retirada o inhabilitación del acceso a contenidos ilícitos, con la finalidad de:

a)

garantizar su supresión efectiva;

b)

fomentar la transparencia y la protección de los derechos fundamentales en línea;

c)

aclarar lo relativo a las responsabilidades de las plataformas cuando adoptan medidas efectivas para detectar o retirar contenidos ilícitos o para inhabilitar el acceso a ellos (acciones denominadas «de buen samaritano»).

2.4.2

El marco jurídico de la UE está compuesto por normas obligatorias y no obligatorias, especialmente la Directiva sobre el comercio electrónico (3) que armoniza las condiciones en las que las plataformas en línea pueden acogerse en el mercado único digital a la exención de responsabilidad por los contenidos ilícitos a que pudieran dar cabida.

2.4.3

Actualmente no existe en la UE un enfoque armonizado y coherente para la supresión de contenidos ilícitos, ya que lo que ha de considerarse ilícito lo determina la legislación específica a escala de la UE, y también el derecho nacional. En todo caso, un enfoque más armonizado permitiría que la lucha contra los contenidos ilícitos fuera más eficaz y serviría para desarrollar el mercado digital.

2.4.4

La Comunicación examina los criterios a establecer, en cuanto a la conducta a seguir por las plataformas en línea, las autoridades competentes y los usuarios para detectar contenidos ilícitos de manera rápida y eficiente. Para ello considera que se debe incrementar de forma sistemática su cooperación con las autoridades competentes de los Estados miembros y que éstos deben velar por que los órganos jurisdiccionales puedan reaccionar eficazmente contra los contenidos ilícitos en línea, así como reforzar la cooperación transfronteriza.

2.4.4.1

También considera que, para que se produzca de forma más rápida y fiable la retirada de contenidos ilícitos en línea, deberían establecerse mecanismos para que puedan actuar los «alertadores fiables». Estos son entidades especializadas en la identificación de contenidos ilícitos o estructuras especificas para la detección e identificación de tales contenidos en línea. La Comisión examinará la posibilidad de acordar, a escala de la UE, unos criterios comunes aplicables a los alertadores fiables.

2.4.4.2

En cuanto a las comunicaciones con los usuarios, se considera que las plataformas en línea deben establecer un mecanismo fácilmente accesible y de fácil manejo que permita a sus usuarios notificar contenidos albergados por aquellas que consideren ilícitos.

2.4.4.3

En lo que respecta a garantizar un alto nivel de calidad de las comunicaciones, estima que deben instaurarse mecanismos eficaces que faciliten la presentación de comunicación de forma suficientemente precisa y motivada.

2.4.5

Se evalúa la pertinencia del establecimiento de medidas proactivas en las plataformas en línea en relación con la exención de responsabilidad, el uso de la tecnología para la detección e identificación de contenidos ilícitos.

2.4.6

La retirada del contenido ilícito es otro de los aspectos examinados en la Comunicación que pretende se establezcan garantías sólidas que limiten el riesgo de retirada de contenidos no ilícitos. Pretende la Comisión el cumplimiento de la denominada «prontitud» en la retirada de contenidos y notificación de los delitos a las fuerzas de seguridad. También el fomento de la transparencia de la política de contenidos en las plataformas y de los procedimientos de «notificación y acción».

2.4.7

En lo que concierne al establecimiento de las garantías contra las retiradas abusivas y la utilización arbitraria del sistema, la Comisión examina la oposición a una comunicación y las medidas contra las notificaciones y contranotificaciones de mala fe.

2.4.8

La prevención de la reaparición de contenidos ilícitos se aborda examinando la posibilidad de introducir medidas que disuadan a los usuarios de publicar repetidamente contenidos ilícitos del mismo tipo con el fin de poner fin a su difusión, y defendiendo la mayor utilización y desarrollo de tecnologías encaminadas a prevenir la reaparición de contenidos ilícitos en línea, por ejemplo mediante filtros automáticos contra la repetición de la publicación en línea.

2.4.9

En definitiva, la Comunicación sirve de orientación pero no cambia el marco jurídico aplicable ni contiene normas de aplicación obligatoria. Su objetivo es, en primer lugar, servir de guía a las plataformas en línea sobre el mejor modo de dar respuesta a las responsabilidades que les incumben en lo referente a la lucha contra los contenidos ilícitos a los que puedan dar cabida. También aspira a difundir buenas prácticas en los procesos emprendidos contra los diferentes tipos de contenidos ilícitos y a promover una cooperación más estrecha entre las plataformas y las autoridades competentes.

3.   Observaciones generales

3.1

El CESE toma en cuenta esta Comunicación y pide a la Comisión que elabore programas y que adopte medidas eficaces que permitan un marco jurídico estable y coherente para la supresión de contenidos ilícitos de forma eficaz. Además, también se considera oportuna dado el impacto que las plataformas digitales tienen en la vida cotidiana actualmente así como los riesgos que acompañan a su proyección social y el impacto en el mercado único digital, cuya razón de ser es evitar la fragmentación entre legislaciones nacionales y suprimir los obstáculos técnicos, legales y fiscales con el fin de permitir que las empresas, los ciudadanos y los consumidores se beneficien plenamente de las herramientas y servicios digitales.

El CESE subraya la necesidad de que las plataformas en línea luchen contra los contenidos ilícitos y las prácticas comerciales desleales (como la reventa de entradas para espectáculos a precios desorbitados) a través de disposiciones normativas completadas con medidas de autorregulación eficaces (como, por ejemplo, a través de condiciones de uso muy claras y mecanismos apropiados para identificar a los infractores reincidentes, o creando equipos especializados en la moderación de contenidos y el seguimiento de los contenidos ilícitos), o bien adoptando medidas híbridas.

3.2

El CESE considera que deberían ser revisados y catalogados los supuestos de contenidos ilícitos, de modo que no se ciñan solamente a los expresados en la Comunicación (incitación al terrorismo, discursos xenófobos, que inciten públicamente al odio y la violencia, material de abuso sexual infantil). Al respecto, podrían incluirse otros supuestos, tales como los relativos a la difamación claramente maliciosa, la distribución de material que viola la dignidad humana o los contenidos sexistas que coadyuvan a la violencia de género, todo ello sin ánimo de establecer una relación exhaustiva de los mismos y con objeto de aunar criterios para su catalogación.

Por tanto, la aplicación de los principios orientadores para los procedimientos de detección, investigación, notificación y retirada se debería promover en los supuestos siguientes:

a)

para la protección de derechos reconocidos en convenciones internacionales, tales como las destinadas a proteger:

a la población infantil de aquellos contenidos digitales que puedan ser contrarios a lo establecido en la Convención sobre los Derechos de los Niños;

a las personas con discapacidad de aquellos contenidos digitales que puedan resultar contrarios a lo establecido en la Convención de los Derechos de las Personas con Discapacidad;

b)

para asegurar la no discriminación por razones de género en los contenidos digitales, en especial, en lo que respecta a la aplicación del principio de igualdad de trato entre hombres y mujeres en el acceso a bienes y servicios y su suministro y garantizar la igualdad de género y la dignidad humana en publicidad;

c)

para garantizar y asegurar que los contenidos digitales cumplan con lo previsto en la Agenda Digital para reforzar la seguridad y los derechos de los consumidores en la sociedad digital.

3.3

El CESE es favorable a que se refuercen las medidas para luchar contra los contenidos ilegales en línea, en especial, para la protección de los menores, la retirada de contenidos relacionados con el discurso del odio, los contenidos relacionados con la incitación al terrorismo, solicitanto que se tenga en cuenta la necesidad de evitar el acoso y la violencia contra las personas vulnerables.

3.4

Y aunque la noción de contenido ilícito en entornos digitales varía desde el punto de vista jurídico en cada Estado miembro, y también con cada persona desde un enfoque ético. Así, se pueden dar ejemplos que no son tan evidentes como los citados, en los que la consideración de un contenido ilícito va a depender de la interpretación y resolución de aquellos conflictos en los que se presenta colisión entre derechos fundamentales, como puede ser la libertad de expresión y otros derechos reconocidos debiendo asegurarse la máxima conciliación de los derechos en prevención de tales colisiones. No obstante, debe destacarse la importancia de actuar contra la divulgación de las noticias falsas, por lo que el CESE considera que las plataformas en línea deben facilitar a los usuarios las herramientas para denunciar las noticias falsas de manera que se pueda informar a otros usuarios de que se ha puesto en entredicho la veracidad de los contenidos. Además, las plataformas en línea podrían desarrollar asociaciones con alertadores fiables, es decir, sitios certificados de comprobación de la veracidad de la información, a fin de aumentar la confianza de sus usuarios respecto de la validez de los contenidos en línea.

3.5

Con fines ilustrativos, se recomienda ordenar los supuestos de contenidos ilícitos de forma que, en la medida de lo posible, puedan contribuir a una conceptualización común en los distintos Estados miembros, facilitando su priorización y acotación. Al respecto, a continuación se proponen, entre otros, los relativos a los siguientes ítems:

seguridad nacional (terrorismo, corrupción, narcotráfico, tráfico de armas, evasión fiscal y blanqueo de capitales);

protección de menores (pornografía, violencia, etc.);

trata de personas, prostitución y violencia de género, incluida la publicidad sexista;

protección de la dignidad humana (incitación al odio o a la discriminación racial, de género o ideológica, respecto de la orientación sexual);

seguridad económica (fraudes y estafas, piratería y falsificación, etc.);

seguridad de la información (intrusismo informático delictivo, aprovisionamiento con fines comerciales, elusión competitiva, manipulación informativa, etc.);

protección de la intimidad (acoso electrónico, filtración y utilización de datos personales, intervención de comunicaciones personales, intervención de la geolocalización personal, etc.);

protección de la reputación (difamación, publicidad comparativa ilegítima, etc.);

propiedad intelectual.

3.5.1

Se considera igualmente preciso llevar a cabo una aproximación conceptual de «contenido ilícito» y «contenidos peligrosos» que impida interpretaciones sesgadas de dichos conceptos.

3.6

Debe prestarse especial atención, por las consecuencias que producen, a la concentración de poder económico de algunas plataformas digitales y también a la función de elaboración, tratamiento y distribución de los contenidos meramente informativos, lícitos, sólo en apariencia, entendiendo estos como aquellos que pretenden ocultar aspectos ilícitos o incluso peligrosos.

Asimismo, igual tratamiento debe extenderse a todo lo relativo a los megadatos y los beneficios que las plataformas en línea obtienen por la explotación de estos datos.

3.7

Además, dada la globalidad del problema en cuestión, conviene advertir la posibilidad de analizar y contemplar iniciativas de cooperación y reciprocidad en la materia de forma óptima y eficiente, atendiendo a principios como los de información, elección, transferencia progresiva, seguridad, integridad de los datos, acceso y ejecución.

4.   Observaciones específicas

4.1

En relación con el contexto general, resulta oportuno reflexionar sobre una revisión de la Directiva sobre Comercio Electrónico, aprobada en el año 2000, así como también de las de Prácticas Desleales, aprobada en el año 2005, y de Publicidad, aprobada en el año 2006. Especialmente, se deben contemplar los aspectos relativos a los nuevos modelos económicos emergentes así como aquellos otros supuestos donde no exista relación comercial convencional y, en todo caso, reforzar el régimen de responsabilidad de los contenidos en las plataformas, de forma armonizada en toda la Unión y suprimir lagunas en su cumplimiento. Todo ello, con la finalidad de reforzar la seguridad jurídica y aumentar la confianza de las empresas y de los consumidores.

4.1.1

En todo caso, se deberían incluir medidas contra los sitios web de internet que contegan infracción de sus disposiciones, ofreciendo la posibilidad de bloquear el acceso a las páginas web de internet, mediante uso de procedimientos transparentes y que ofrezcan garantías adecuadas, con miras a garantizar que la restricción se limite a lo necesario y proporcionado y que los usuarios estén informados del motivo de la restricción. Estas garantías incluirán, también, la posibilidad de recurrir a los tribunales.

4.1.2

En cuanto a detección y notificación de contenidos ilícitos, la Comunicación establece que se deben valorar que los órganos jurisdiccionales nacionales y las autoridades nacionales puedan adoptar medidas cautelares y otras medidas para retirar o bloquear el acceso a contenidos ilícitos. Esto debe ir acompañado de medidas formuladas en los términos expuestos por el CESE para las medidas previstas en el Reglamento de cooperación de las autoridades de consumo (4).

4.2

Asimismo, sería preciso establecer mecanismos conducentes a la identificación de responsables así como los procedimientos de reacción conducentes a la revocación de las autorizaciones con carácter previo y sobrevenido, y aquéllas medidas a adoptar en cada supuesto ateniéndose a los antecedentes e información obrante.

4.3

Igualmente, se podrían pormenorizar los aspectos relativos a la autorización de contenidos en lo que a comunicaciones previas se refiere. Por ejemplo, se podrían elaborar listas de plataformas en línea con contenidos ilícitos así como también de aquellas que estén desarrollando las mejores prácticas, que cuenten con reconocimiento oficial que contribuya a incrementar la competencia reputacional y de confianza en la red.

La innovación favorece las inversiones en investigación, desarrollo y mejora de las capacidades de los trabajadores y reviste una importancia crucial para generar nuevas ideas e innovaciones. La innovación tecnológica debe utilizarse para los procedimientos de detección, identificación, retirada y prevención del restablecimiento de los contenidos ilícitos, tales como el procesamiento de información e inteligencia digital, la utilización de tecnologías de detección automática y filtrado pero, en última instancia, debe asegurarse que la decisión individual de una persona y su actuación se han realizado garantizando los derechos fundamentales y los valores democráticos.

El CESE reitera que debe establecerse un equilibrio entre el respeto de los derechos fundamentales y la limitación de los contenidos ilícitos, por lo que subraya que la utilización de las actuales tecnologías de filtrado automatizado representa una carga desproporcionada desde el punto de vista de la libertad de los intermediarios para desarrollar sus actividades, el derecho a la libertad de expresión de los usuarios finales y el derecho a la protección de los datos personales. No se debería obligar a la industria a utilizar soluciones de talla única, como los filtros automáticos contra la repetición de la publicación en línea, sin tener en cuenta las necesidades específicas de las pymes del sector de las TI. Las mejores prácticas actuales de la tecnología de filtrado automatizado indican que es necesario aplicar sistemáticamente el principio de la intervención humana. Se trata de un sistema en el que las decisiones definitivas contextualizadas sobre un número más reducido de casos discutibles siempre las toman seres humanos con el fin de reducir el riesgo de infringir el derecho fundamental a la libertad de expresión. Debe quedar claro que la inteligencia artificial no debe reemplazar las decisiones que toman los seres humanos sobre la base de valoraciones éticas.

4.4

Respecto a las comunicaciones, se propone abordar los procedimientos de acreditación para alertadores fiables, así como en lo que se refiere a «garantizar un alto nivel de calidad de las comunicaciones», debería reseñarse la conveniencia de realizar una difusión pública de las comunicaciones.

4.5

Entre las medidas proactivas, la Comunicación no contempla una propuesta clara de medidas proactivas, preventivas y reeducadoras, que permitan desplegar una serie de iniciativas políticas al respecto, siendo esta precisión clave para acometer de manera integrada y eficiente la lucha contra los contenidos digitales ilícitos.

4.6

Se debe incluir una previsión de medidas para los casos en que deban revisarse las decisiones adoptadas de forma que puedan revertirse con soluciones de reintegro para contenidos erróneamente retirados o en los que existan intereses maliciosos en la emisión de determinados mensajes, especialmente los sistemas de reclamación extrajudicial, con código de conducta, en los que estén contempladas sanciones en caso de incumplimiento.

El CESE pide que se vele por el establecimiento de sistemas eficaces para los procedimientos de reclamación y resolución de conflictos, simplificando el modo en que las PYME y los consumidores pueden ejercer sus derechos.

4.7

En cuanto a la retirada del contenido ilícito, se propone potenciar la eficacia de las propuestas introduciendo un elemento claramente disuasorio como es el de la difusión pública de las medidas adoptadas en el marco de la seguridad jurídica correspondiente, ya que además reforzaría los estándares de transparencia, condición necesaria para una óptima implementación eficiente de una propuesta normativa.

Debe garantizarse un alto nivel de protección entre las plataformas, los consumidores y los demás agentes económicos. Es importante que se impulse la transparencia del sistema y la potenciación de la cooperación entre las propias plataformas, y entre ellas mismas y las autoridades, para profundizar en la lucha contra los contenidos ilícitos.

4.8

Por último, deben extenderse a otros colectivos vulnerables de población adulta las propuestas específicas para la población infantil que puedan ser adaptadas según su vulnerabilidad.

Bruselas, 14 de marzo de 2018.

El Presidente del Comité Económico y Social Europeo

Georges DASSIS


(1)  COM(2016) 288 final de 25 de mayo de 2016 — Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones — Las plataformas en línea y el mercado único digital — Retos y oportunidades para Europa.

(2)  DO C 75 de 10.3.2017, p. 119.

(3)  Directiva 2000/31/CE del Parlamento Europeo y del Consejo, de 8 de junio de 2000, sobre el comercio electrónico (DO L 178 de 17.7.2000, p. 1).

(4)  DO C 34 de 2.2.2017, p. 100.


Top