EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52011DC0556

RAPPORT DE LA COMMISSION AU PARLEMENT EUROPÉEN, AU CONSEIL, AU COMITÉ ÉCONOMIQUE ET SOCIAL EUROPÉEN ET AU COMITÉ DES RÉGIONS sur l'application de la recommandation du Conseil du 24 septembre 1998 concernant la protection des mineurs et de la dignité humaine, et de la recommandation du Parlement européen et du Conseil du 20 décembre 2006 sur la protection des mineurs et de la dignité humaine et sur le droit de réponse en liaison avec la compétitivité de l'industrie européenne des services audiovisuels et d'information en ligne– PROTÉGER LES ENFANTS DANS LE MONDE NUMÉRIQUE –

/* COM/2011/0556 final */

52011DC0556

RAPPORT DE LA COMMISSION AU PARLEMENT EUROPÉEN, AU CONSEIL, AU COMITÉ ÉCONOMIQUE ET SOCIAL EUROPÉEN ET AU COMITÉ DES RÉGIONS sur l'application de la recommandation du Conseil du 24 septembre 1998 concernant la protection des mineurs et de la dignité humaine, et de la recommandation du Parlement européen et du Conseil du 20 décembre 2006 sur la protection des mineurs et de la dignité humaine et sur le droit de réponse en liaison avec la compétitivité de l'industrie européenne des services audiovisuels et d'information en ligne– PROTÉGER LES ENFANTS DANS LE MONDE NUMÉRIQUE – /* COM/2011/0556 final */


RAPPORT DE LA COMMISSION AU PARLEMENT EUROPÉEN, AU CONSEIL, AU COMITÉ ÉCONOMIQUE ET SOCIAL EUROPÉEN ET AU COMITÉ DES RÉGIONS

sur l'application de la recommandation du Conseil du 24 septembre 1998 concernant la protection des mineurs et de la dignité humaine, et de la recommandation du Parlement européen et du Conseil du 20 décembre 2006 sur la protection des mineurs et de la dignité humaine et sur le droit de réponse en liaison avec la compétitivité de l'industrie européenne des services audiovisuels et d'information en ligne – PROTÉGER LES ENFANTS DANS LE MONDE NUMÉRIQUE –

INTRODUCTION

L'objet des recommandations de 1998 et de 2006 sur la protection des mineurs[1] était de faire prendre conscience aux États membres et aux entreprises des nouveaux problèmes que posent les médias électroniques en la matière, en particulier l'adoption et l'importance croissante des services en ligne. Comme la réglementation ne peut pas toujours être en phase avec de telles évolutions, États membres et entreprises ont été invités à créer et promouvoir les conditions générales adéquates par des moyens autres que strictement législatifs, par exemple par la coopération des parties prenantes et l'autorégulation ou la corégulation[2].

Entre-temps, la façon dont les particuliers, et notamment les mineurs, utilisent les médias a considérablement changé et évolue toujours plus vite. Les mineurs utilisent de plus en plus les médias, y compris les jeux vidéo (en ligne), à l'aide d'appareils mobiles et il y a de plus en plus de services à la demande sur Internet. Phénomène nouveau depuis la dernière recommandation, les réseaux sociaux en ligne ont pris une importance énorme, tant sur le plan individuel pour les utilisateurs que sur le plan sociétal, et il est probable que surviendront d'autres changements dont nous n'avons pas encore la moindre idée.

Ces nouvelles évolutions offrent aux mineurs de nombreuses possibilités, mais elles posent certains problèmes concernant leur protection étant donné que les parents ont souvent des difficultés à assumer leurs responsabilités relativement à de nouveaux produits, services et technologies que leurs enfants connaissent généralement mieux qu'eux. Aussi devons-nous nous demander si les politiques actuelles sont toujours adaptées et propres à assurer un niveau élevé de protection des mineurs en Europe.

Afin de donner une idée plus précise de ce qui a déjà été accompli et des nouvelles mesures qui pourraient être prises, le présent rapport – conformément au point 6 de la recommandation de 2006 – analyse comment les mesures spécifiées dans les recommandations de 1998 et 2006 sont appliquées dans les États membres et avec quels résultats.

Le rapport a été établi à partir des informations fournies par les États membres en réponse à un questionnaire, et complète diverses actions au titre de la stratégie numérique pour l'Europe[3].

Le document de travail des services de la Commission qui l'accompagne contient des informations plus détaillées sur les réponses fournies et sur des exemples précis de mesures prises.

CONSTATATIONS

Lutter contre le contenu illicite ou préjudiciable

Les fournisseurs de contenu et de services redoublent d'efforts pour lutter contre le contenu discriminatoire, illicite ou préjudiciable, notamment par des engagements ou codes de conduite qui existent dans 24 États membres[4]. En ce qui concerne Internet, certaines de ces initiatives prévoient que les sites puissent indiquer, par l'affichage d'un label approprié, qu'ils respectent un code de conduite.

En outre, les États membres déploient des efforts pour développer et faciliter l'accès à du contenu de qualité et convenant aux mineurs , par exemple par l'intermédiaire de sites spécialement destinés aux enfants et de moteurs de recherche spécifiques[5].

S'il y a un consensus dans les États membres quant à l'utilité de promouvoir des mesures d'autorégulation (codes de conduite), le fait que le niveau de protection atteint dans ce domaine soit encore très variable reste un motif de préoccupation. À l'avenir, il conviendrait de soumettre les mesures actuelles de lutte contre le contenu illicite ou préjudiciable à un suivi constant afin d'assurer leur efficacité. Par exemple, des points de signalement de ce type de contenu sont en cours d'élaboration. Mis à disposition par le fournisseur de contenu et devant être utilisés par les enfants et les parents, ils sont étayés par des infrastructures administratives opérationnelles, mais toutes ces initiatives, faute de caractéristiques communes, ne permettent pas les économies d'échelle qui accroîtraient leur efficacité. |

Lignes directes

La stratégie numérique pour l'Europe invite les États membres à mettre pleinement en service, d'ici à 2013, des lignes directes de signalement du contenu en ligne choquant ou préjudiciable.

Celles-ci sont déjà largement mises en place et utilisées dans les États membres et en Norvège et leur cofinancement au titre du programme de la Commission européenne pour un Internet plus sûr constitue toujours un mécanisme de soutien essentiel.

Certains États membres ont également évoqué INHOPE , association des lignes directes Internet[6], qui a été fondée en 1999 en vertu du précédent plan d'action de la CE pour un Internet plus sûr et est désormais financée au titre du programme pour un Internet plus sûr. Cette association comprend aussi des pays non européens[7] et a pour but de développer la coopération dans ce domaine. Les lignes directes membres d'INHOPE, parmi lesquelles des lignes de 24 États membres[8], doivent respecter le code de bonne pratique de l'association.

Plusieurs lignes directes ont adopté ce que l'on appelle des procédures de notification et de retrait [9] en application desquelles les fournisseurs de services Internet (FSI) s'engagent à retirer immédiatement tout contenu illicite qu'une personne aura signalé en appelant la ligne directe. 19 États membres[10] indiquent que des procédures de notification et de retrait ont été mises au point et sont appliquées sur leur territoire.

Il y a toutefois de grandes différences de fonctionnement entre les lignes directes, notamment en ce qui concerne les procédures de notification et de retrait. Ces différences portent sur la décision établissant qu'un certain contenu est illicite, le réexamen de ces décisions, le repérage de l'origine du contenu et du fournisseur d'hébergement et, en particulier, la notification aux autorités compétentes[11]. Bien que cela ne fasse pas partie du questionnaire, la Bulgarie et la Slovénie ont évoqué le suivi des lignes directes[12].

La généralisation des lignes directes et leur mise en réseau sont encourageantes mais pas suffisantes. Dans un souci d'efficacité et de plus grande cohérence au sein des États membres (meilleures pratiques de coopération avec les forces de l'ordre, par exemple), il faudrait réfléchir aux moyens de mieux faire connaître les lignes directes et de les rendre plus accessibles aux internautes, y compris aux enfants, ainsi que d'améliorer leur fonctionnement et de développer des synergies avec d'autres services en rapport (lignes d'assistance et centres de sensibilisation, numéros 116 000/116 111, par exemple). De plus, les lignes directes devraient faire l'objet d'un suivi plus rigoureux. |

Fournisseurs de services Internet (FSI)

En général, même s'ils bénéficient d'un régime de responsabilité limitée en vertu de la directive sur le commerce électronique[13], les FSI contribuent de plus en plus à la protection des mineurs. Cela se traduit par le respect de leurs obligations légales concernant le contenu illicite, mais en particulier par des engagements communs et l'adoption de codes de conduite .

Toutefois, les associations de FSI n'ont généralement aucun mandat précis concernant la protection des mineurs et, pour leurs membres, la signature et le respect d'un code de conduite en la matière sont donc uniquement facultatifs[14].

En outre, seulement 8 États membres[15] et la Norvège ont indiqué que, au cours de la période de référence, des codes de conduite ont été élaborés avec la participation de consommateurs ou de pouvoirs publics , et seulement 6 États membres[16] ont indiqué qu'il existe un système d'évaluation pour apprécier l'efficacité de ces codes.

En tout, seulement 11 États membres[17] et la Norvège estiment que le système d'autorégulation et les codes de conduite des FSI sont bien adaptés au nouvel environnement numérique.

Les FSI sont encouragés à prendre une part encore plus active dans la protection des mineurs. L'application de codes de conduite devrait être généralisée et étroitement contrôlée. Les associations de FSI sont encouragées à inclure la protection des mineurs dans leurs mandats et à exiger de leurs membres un engagement en la matière. De plus, une participation accrue des consommateurs et des pouvoirs publics à l'élaboration de codes de conduite permettrait de faire en sorte que l'autorégulation réponde vraiment à l'évolution rapide du monde numérique. |

Réseaux sociaux en ligne

Les réseaux sociaux en ligne offrent aux mineurs d'énormes possibilités. Bien qu'ils n'aient pris de l'importance qu'assez récemment, ces réseaux ont déjà transformé la façon dont les mineurs interagissent et communiquent entre eux.

Toutefois, les réseaux sociaux en ligne présentent aussi des risques considérables qui peuvent être classés dans les catégories suivantes: «contenu illicite», «contenu ne convenant pas aux mineurs», «contact inapproprié» et «conduite inappropriée»[18]. Un moyen prometteur de limiter ces risques est constitué par les lignes directrices destinées aux fournisseurs et/ou utilisateurs de réseaux sociaux en ligne.

Seulement 10 États membres[19] ont évoqué ces lignes directrices et moins encore ont indiqué qu'il existe un système d'évaluation pour apprécier leur efficacité[20]. Aussi les dispositions législatives non contraignantes sont-elles aujourd'hui plutôt inégalement appliquées. Cette lacune pourrait être partiellement comblée par les Safer Social Networking Principles for the EU [21](Principes pour des réseaux sociaux plus sûrs en Europe) auxquels 21 réseaux ont souscrit.

Vu le formidable essor des réseaux sociaux en ligne, les systèmes de contrôle des opérateurs ne parviennent pas à couvrir tous les risques potentiels de façon efficace et cohérente. Les parties prenantes sont encouragées à s'engager activement, notamment en entreprenant davantage d'actions de sensibilisation concernant les risques et les moyens de les limiter, en recourant plus largement aux lignes directrices et en contrôlant leur mise en œuvre. En outre, il y a de plus en plus de points de signalement, étayés par une infrastructure administrative performante, qui sont déployés sur les réseaux sociaux afin d'aider les enfants face à la séduction malintentionnée, la cyberintimidation et des problèmes similaires, mais les solutions sont mises au point au cas par cas. De plus, le recours aux paramètres «privé par défaut» pour les enfants qui s'inscrivent à des réseaux sociaux en ligne n'est pas généralisé. |

Contenu préjudiciable en provenance d'autres États membres / de pays tiers

Pour la plupart des États membres, la proportion de contenu préjudiciable ayant son origine sur leur propre territoire est très faible, la proportion de contenu préjudiciable provenant d'autres États membres de l'UE est beaucoup plus élevée et la proportion de contenu préjudiciable provenant de pays tiers est la plus importante[22]. Concernant les améliorations possibles, certains États membres estiment qu'il serait plus facile d' harmoniser davantage la protection au niveau européen, ce qu'ils accueilleraient favorablement, qu'au niveau international[23]. Malgré cela, il est généralement jugé utile d'encourager les pays tiers à prendre des mesures au niveau national et une grande majorité d'États membres et la Norvège sont partisans de conclure de nouveaux accords avec les pays tiers [24].

Il semble souhaitable de renforcer la coopération et d'harmoniser la protection contre le contenu préjudiciable. Bien que ce contenu ait principalement son origine hors de l'UE, certains États membres jugent plus réaliste d'adopter une telle approche au niveau européen que d'y associer des pays tiers. |

Éducation aux médias et sensibilisation

Tous les États membres se sont engagés à promouvoir l'éducation aux médias et à davantage sensibiliser aux risques inhérents aux médias en ligne et aux outils de protection existants qui constituent des moyens efficaces de prévention.

En particulier, il y a un nombre croissant d'initiatives en la matière qui sont prises dans les États membres sous la forme de partenariats public-privé . D'après les informations fournies par les États membres, le programme de la Commission européenne pour un Internet plus sûr et le projet EU Kids Online se sont avérés des cadres précieux dans ces domaines[25].

Les initiatives d'éducation aux médias et de sensibilisation sont partiellement intégrées à l'enseignement officiel et des efforts sont également déployés pour sensibiliser les parents et les enseignants. Toutefois, il est ressorti d'une évaluation réalisée par la Commission en 2009 que, même si le sujet est inscrit dans les programmes éducatifs nationaux dans 23 pays européens, dans la pratique cet enseignement est dispensé de façon fragmentaire et sans cohérence[26].

Bien que l'intégration accrue de l'éducation aux médias et de la sensibilisation dans l'enseignement scolaire constitue un point positif, parvenir à sensibiliser tous les enfants et leurs parents et à assurer une cohérence dans tous les établissements et les États membres représente toujours un défi de taille. |

Restrictions d'accès au contenu

Limiter l'accès des mineurs au contenu qui convient à leur âge implique deux choses: d'une part, disposer de classifications en fonction de l'âge et du contenu et, d'autre part, faire en sorte que ces classifications soient respectées. La dernière tâche relève en premier lieu de la responsabilité des parents, mais des moyens techniques – filtrage, systèmes de vérification de l'âge, systèmes de contrôle parental, etc. – fournissent une aide précieuse.

Classifications en fonction de l'âge et du contenu

Les systèmes actuels de classification du matériel audiovisuel en fonction de l'âge et du contenu sont a priori considérés comme suffisants et efficaces par 12 États membres[27] tandis que 13 États membres[28] et la Norvège estiment qu'ils devraient être améliorés .

16 États membres[29] et la Norvège ont répondu qu'ils disposent de classifications en fonction de l'âge et du contenu différentes selon le type de média. 10 États membres[30] et la Norvège estiment que cela pose un problème. 8 États membres[31] et la Norvège signalent que des mesures ou initiatives sont envisagées pour instaurer une plus grande cohérence dans ce domaine.

En tout, 15 États membres[32] et la Norvège estiment que des systèmes multimédias et/ou paneuropéens de classification du contenu seraient utiles et réalisables . Cela est contredit par 9 États membres[33] qui invoquent les différences culturelles.

Il s'agit d'un domaine caractérisé par des approches extrêmement diverses: la définition de ce qui est nécessaire et utile varie considérablement d'un État membre à l'autre et dans les États membres. |

Systèmes techniques (filtrage, systèmes de vérification de l'âge, systèmes de contrôle parental, etc.)

Globalement, il semble être admis que les mesures techniques ne peuvent, à elles seules, protéger les mineurs d'un contenu préjudiciable et qu'elles constituent seulement un élément dans un ensemble de mesures.

Concernant les mesures techniques destinées à éviter tout contenu potentiellement préjudiciable en garantissant que les classifications applicables sont respectées, les États membres sont partagés quant à leur utilité , adéquation (compte tenu du droit à l'information et du risque d'utilisation abusive à des fins de censure), faisabilité technique et fiabilité [34]. En outre, tous ont insisté sur le besoin de transparence concernant l'inscription d'un contenu sur liste noire et la possibilité de l'en retirer.

20 États membres [35]indiquent que les entreprises ou les pouvoirs publics ont fait des efforts afin de mettre au point un système de filtrage et de classification pour Internet. 24 États membres[36] et la Norvège indiquent que des outils de contrôle parental sont utilisés . Ces derniers sont disponibles gratuitement dans 15 États membres et contre paiement dans 4 États membres[37].

De plus, les efforts s'intensifient pour informer les abonnés de l'existence de systèmes de filtrage et de classification et de logiciels de vérification de l'âge qui sont obligatoires – de par la loi ou aux termes des codes de conduite applicables aux FSI ou opérateurs de téléphonie mobile – dans 16 États membres[38].

Si la plupart des États membres voient des possibilités d'améliorer leurs systèmes de classification, il n'y a pas de consensus quant à l'utilité et à la faisabilité de systèmes multimédias et/ou paneuropéens de classification du contenu. Cependant, comme le contenu en ligne a un caractère transnational de plus en plus marqué, il faudrait étudier les moyens de mieux harmoniser ces systèmes. Il existe de plus en plus de dispositifs Internet comportant des outils de contrôle parental, mais leur combinaison avec l'utilisation d'un contenu approprié dépend de solutions au cas par cas qui varient considérablement d'un État membre à l'autre et dans les États membres. Dans ce contexte, il semble utile de réfléchir à des systèmes innovants de classification du contenu qui pourraient être plus largement utilisés dans le secteur des TIC (fabricants, fournisseurs d'hébergement et de contenu, etc.) tout en ménageant la souplesse nécessaire aux interprétations locales de l'«adéquation» et en reprenant les approches instaurées relativement à la responsabilité des différents acteurs Internet. |

Services audiovisuels

En ce qui concerne les systèmes de corégulation et d'autorégulation pour protéger les mineurs d'un contenu préjudiciable, les services audiovisuels à la demande (pour lesquels il existe de tels systèmes dans 8 États membres dont 7 disposent d'un code de conduite) sont en retard par rapport aux programmes télévisés pour lesquels il existe de tels systèmes dans 14 États membres dont 11 disposent d'un code de conduite[39].

Les techniques les plus courantes pour signaler aux parents la présence de contenu préjudiciable et la nécessité d'en limiter l'accès sont les pictogrammes à l'écran et/ou les signaux sonores immédiatement avant la diffusion du contenu potentiellement préjudiciable. Cela vaut pour les émissions télévisées comme pour les services audiovisuels à la demande.

La plupart des États membres jugent ces signaux utiles et certains exigent qu'ils soient imposés par la loi ou que leur utilisation soit stipulée dans des codes de conduite. Les dispositifs techniques ou logiciels de filtrage , parmi lesquels les systèmes de verrouillage et les codes personnels , sont moins utilisés. Les classifications en fonction de l'âge et les limitations de la durée de transmission pour les services audiovisuels à la demande ne sont appliquées que dans un petit nombre d'États membres[40].

En ce qui concerne la fiabilité des systèmes de signalétique et d'avertissement, certains États membres ont souligné l'importance de la responsabilité parentale et le fait que ces systèmes ne peuvent fonctionner que si les parents en garantissent l'efficacité en contrôlant ce que leurs enfants regardent.

La diversité des actions menées dans ce domaine reflète les distinctions établies dans la directive sur les services de médias audiovisuels, mais traduit aussi la difficulté d'apporter des réponses politiques consensuelles à ce problème. Il y a une grande diversité de moyens techniques, disponibles partout, permettant d'offrir aux enfants un accès sélectif au contenu sur Internet, comme les outils de contrôle parental associés à du contenu classifié en fonction de l'âge et catégorisé, mais les solutions mises au point pour la diffusion linéaire/télévisuelle (durées de transmission, par exemple) semblent souvent inadaptées à Internet et à d'autres services audiovisuels à la demande. |

Jeux vidéo

Au total, 17 États membres et la Norvège considèrent que le fonctionnement de leurs systèmes de classification en fonction de l'âge est satisfaisant [41]. À l'exception de l'Allemagne, les États membres recourent au système PEGI ( Pan-European Games Information System – Système paneuropéen d'information sur les jeux)[42] et à PEGI Online [43].

En ce qui concerne les jeux en ligne, PEGI Online est considéré comme une bonne solution de principe, mais la participation encore limitée des entreprises au système est un motif de préoccupation pour un certain nombre d'États membres.

Les systèmes d'évaluation des éventuels effets positifs ou négatifs des jeux vidéo sur le développement ou la santé des mineurs n'existent que dans 5 États membres[44] et en Norvège.

Concernant les autres mesures possibles pour protéger les mineurs des jeux vidéo préjudiciables, les plus fréquemment citées sont l' éducation aux médias et la sensibilisation , en particulier afin de mieux signaler les risques des jeux vidéo et de promouvoir les outils de protection existants. Toutefois, de telles mesures ne sont intégrées dans l' enseignement scolaire que dans 8 États membres et en Norvège.

Les réponses données par les États membres confirment aussi la nécessité d'agir davantage sur la vente au détail des jeux vidéo en boutique afin d'éviter que certains jeux n'y soient vendus à des mineurs. En la matière, des mesures de sensibilisation n'ont été prises que dans 6 États membres et en Norvège[45] et les détaillants ont instauré des codes de conduite dans seulement 4 États membres[46].

Si les systèmes de classification en fonction de l'âge (notamment PEGI) fonctionnent bien dans la plupart des États membres, certains problèmes sont signalés, comme le fait que ces systèmes soient peu appliqués aux jeux en ligne et la vente de jeux à des mineurs sur le marché de détail. En outre, multiplier les mesures de sensibilisation (éducation aux médias à l'école, par exemple) aurait des effets préventifs utiles. |

Droit de réponse dans les médias en ligne

Le droit de réponse couvre les journaux et périodiques en ligne dans 16 États membres[47], les services d'information sur Internet dans 13 États membres[48], les services de télévision en ligne dans 17 États membres[49], les services de radio en ligne dans 15 États membres[50] et les autres services en ligne dans 9 États membres[51].

Les États membres jugent le niveau de protection contre l'allégation de faits[52] dans les médias en ligne et l'efficacité des systèmes mis en place à cet effet «suffisants et efficaces» et «insuffisants» dans des proportions égales.

Il n'y a pas de cohérence dans l'instauration d'un droit de réponse couvrant les médias en ligne dans les États membres, lequel diffère selon le type de média. De plus, il est possible d'accroître l'efficacité des systèmes existants. |

CONCLUSIONS

Comme conclusion générale positive, on peut dire que l'enquête auprès des États membres sur les différents aspects des recommandations de 1998 et 2006 montre que tous les États membres sont conscients des problèmes posés par la protection des mineurs en ligne et font de plus en plus d'efforts pour y répondre. Une combinaison de mesures politiques, avec une part importante de mesures d'autorégulation, semble être le moyen le plus adapté de maîtriser, de la façon la plus souple et la plus réactive possible, la convergence des plateformes (télévision, ordinateur personnel, téléphone intelligent, console, etc.) et du contenu audiovisuel.

Toutefois, l'analyse détaillée des réponses politiques que les États membres ont apportées aboutit à un tableau composé d'actions très diverses – voire divergentes dans plusieurs cas – à travers l'Europe. Cela est particulièrement vrai s'agissant de traiter le contenu illicite et préjudiciable, de rendre les réseaux sociaux plus sûrs et de rationaliser les systèmes de classification du contenu.

Très souvent, les mesures réglementaires ou d'autorégulation trahissent aussi un manque d'ambition et de cohérence par rapport aux mesures analogues prises dans les autres États membres ou ne sont tout bonnement pas appliquées dans la pratique. La diversité des mesures à travers l'Europe ne peut que conduire à un morcellement du marché intérieur et susciter la confusion des parents et enseignants qui essaient de savoir ce qu'il faut faire et ne pas faire pour protéger et responsabiliser les enfants dans un environnement en ligne.

Il ressort du présent rapport et des réponses détaillées recueillies lors de l'enquête auprès des États membres[53] qu'il est possible d'envisager des mesures supplémentaires, au niveau européen, reposant sur les meilleures pratiques des États membres et de réaliser ainsi des économies d'échelle dans le secteur des TIC, ce qui permettra aux enfants de tirer parti, en toute sécurité, d'un monde numérique en constante évolution.

[1] 1998: recommandation du Conseil du 24 septembre 1998 concernant le développement de la compétitivité de l'industrie européenne des services audiovisuels et d'information par la promotion de cadres nationaux visant à assurer un niveau comparable et efficace de protection des mineurs et de la dignité humaine (98/560/CE, JO L 270 du 7.10.1998, p. 48,http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:31998H0560:FR:NOT);2006: recommandation du Parlement européen et du Conseil du 20 décembre 2006 sur la protection des mineurs et de la dignité humaine et sur le droit de réponse en liaison avec la compétitivité de l'industrie européenne des services audiovisuels et d'information en ligne (2006/952/CE, JO L 378 du 27.12.2006, p. 72, http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:32006H0952:FR:NOT).

[2] En même temps, il faut veiller à ce que toutes les mesures de corégulation ou d'autorégulation prises soient conformes au droit de la concurrence.

[3] COM(2010) 245 final/2, communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions – Une stratégie numérique pour l'Europe (version corrigée du 26 août 2006)(http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:52010DC0245R(01):FR:NOT).

[4] Voir document de travail, page 7 et note de bas de page 27.

[5] Voir document de travail, pages 7 et 8 et notes de bas de page 31 et 32.

[6] http://www.inhope.org/gns/home.aspx

[7] Des lignes directes de 35 pays dans le monde sont membres d'INHOPE.

[8] Voir document de travail, note de bas de page 35.

[9] Voir document de travail, pages 8 et 9. En ce qui concerne la responsabilité limitée des FSI conformément à la directive sur le commerce électronique, voir la note de bas de page 13 du présent rapport.

[10] Voir document de travail, note de bas de page 39.

[11] Voir document de travail, page 9.

[12] Voir document de travail, page 9.

[13] Conformément à la directive sur le commerce électronique [directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur («directive sur le commerce électronique») (JO L 178 du 17.7.2000, p. 1,http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:32000L0031:FR:NOT)], les FSI n'ont pas d'«obligation générale de surveiller les informations qu'ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites» (article 15, paragraphe 1). Les FSI bénéficient d'un régime de responsabilité limitée en ce qui concerne les informations transmises (article 12, paragraphe 1), le stockage automatique, intermédiaire et temporaire de ces informations (article 13, paragraphe 1) et les informations stockées à la demande d'un destinataire du service (article 14, paragraphe 1).

[14] Voir document de travail, note de bas de page 46.

[15] Voir document de travail, note de bas de page 48.

[16] Voir document de travail, note de bas de page 49.

[17] Voir document de travail, note de bas de page 50.

[18] Voir document de travail, note de bas de page 52.

[19] Voir document de travail, note de bas de page 58.

[20] Voir document de travail, page 12.

[21] http://ec.europa.eu/information_society/activities/social_networking/docs/sn_principles.pdf

[22] Voir document de travail, note de bas de page 60.

[23] Voir document de travail, page 13.

[24] Voir document de travail, page 13 et note de bas de page 63. Pour ce qui est de la diffusion en ligne de matériel pédopornographique, le programme pour un Internet plus sûr met l'accent sur la coopération internationale et européenne, en particulier par le soutien au réseau INHOPE de lignes directes.

[25] Voir document de travail, page 14.

[26] Voir document de travail, note de bas de page 65.

[27] Voir document de travail, note de bas de page 81.

[28] Voir document de travail, note de bas de page 82.

[29] Voir document de travail, note de bas de page 83.

[30] Voir document de travail, note de bas de page 85.

[31] Voir document de travail, note de bas de page 86.

[32] Voir document de travail, note de bas de page 87.

[33] Voir document de travail, note de bas de page 88.

[34] Dans le cadre du programme pour un Internet plus sûr, il a été commandé une étude comparative de l'efficacité des solutions de filtrage disponibles en Europe. Les premiers résultats ont été publiés en janvier 2011. http://ec.europa.eu/information_society/activities/sip/projects/filter_label/sip_bench2/index_en.htm

[35] Voir document de travail, page 16.

[36] Voir document de travail, note de bas de page 77.

[37] Voir document de travail, page 16 et note de bas de page 78.

[38] Voir document de travail, note de bas de page 76.

[39] Voir document de travail, pages 20 à 22 et notes de bas de page 93, 94, 99 et 100.

[40] Voir document de travail, pages 20 à 22.

[41] Voir document de travail, note de bas de page 107.

[42] http://www.pegi.info/fr/

[43] http://www.pegionline.eu/fr/

[44] Voir document de travail, note de bas de page 118.

[45] Voir document de travail, pages 24 et 25 et note de bas de page 119.

[46] Voir document de travail, note de bas de page 120.

[47] Voir document de travail, note de bas de page 128.

[48] Voir document de travail, note de bas de page 129.

[49] Voir document de travail, note de bas de page 130.

[50] Voir document de travail, note de bas de page 131.

[51] Voir document de travail, note de bas de page 132.

[52] Au sens de la recommandation de 2006, annexe I – Orientations indicatives pour la mise en œuvre, au niveau national, de mesures dans le droit ou les pratiques nationales en vue de garantir le droit de réponse ou des voies de droit équivalentes pour les médias en ligne.

[53] Voir le document de travail des services de la Commission.

Top