BERICHT DER KOMMISSION AN DAS EUROPÄISCHE PARLAMENT, DEN RAT, DEN EUROPÄISCHEN WIRTSCHAFTS- UND SOZIALAUSSCHUSS UND DEN AUSSCHUSS DER REGIONEN über die Anwendung der Empfehlung des Rates vom 24. September 1998 zum Jugendschutz und zum Schutz der Menschenwürde und der Empfehlung des Europäischen Parlaments und des Rates vom 20. Dezember 2006 über den Schutz Minderjähriger und den Schutz der Menschenwürde und über das Recht auf Gegendarstellung im Zusammenhang mit der Wettbewerbsfähigkeit des europäischen Industriezweiges der audiovisuellen Dienste und Online-Informationsdienste– Schutz der Kinder in der digitalen Welt – /* KOM/2011/0556 endgültig */
BERICHT DER KOMMISSION AN DAS EUROPÄISCHE PARLAMENT, DEN RAT, DEN EUROPÄISCHEN WIRTSCHAFTS- UND SOZIALAUSSCHUSS UND DEN AUSSCHUSS DER REGIONEN über die Anwendung der Empfehlung des Rates vom 24. September 1998 zum Jugendschutz und zum Schutz der Menschenwürde und der Empfehlung des Europäischen Parlaments und des Rates vom 20. Dezember 2006 über den Schutz Minderjähriger und den Schutz der Menschenwürde und über das Recht auf Gegendarstellung im Zusammenhang mit der Wettbewerbsfähigkeit des europäischen Industriezweiges der audiovisuellen Dienste und Online-Informationsdienste – Schutz der Kinder in der digitalen Welt – Einleitung Mit den Empfehlungen von 1998 und 2006 zum Jugendschutz[1] sollten den Mitgliedstaaten und den Unternehmen der Branche die neuen Herausforderungen bewusst gemacht werden, die sich für den Schutz Minderjähriger in elektronischen Medien ergeben, insbesondere im Zusammenhang mit dem Aufkommen und der wachsenden Bedeutung von online erbrachten Diensten. Ausgehend davon, dass die Regulierung mit diesen Entwicklungen nicht immer Schritt halten kann, wurden sie aufgerufen, geeignete Rahmenbedingungen zu fördern und zu schaffen, und zwar durch andere als rein gesetzgeberische Mittel, beispielsweise die Zusammenarbeit mit den Akteuren und über die Mit- oder Selbstregulierung[2]. In der Zwischenzeit hat sich die Mediennutzung durch Verbraucher und insbesondere durch Minderjährige dramatisch verändert, und diese Entwicklung beschleunigt sich weiter. Kinder und Jugendliche nutzen elektronische Medien zunehmend mit Hilfe von mobilen Geräten, auch in Form von Online-Videospielen. Gleichzeitig gibt es im Internet immer mehr Mediendienste auf Abruf. Als ein neues Phänomen seit der letzten Empfehlung haben Websites zur sozialen Vernetzung eine enorme Bedeutung erlangt, sowohl für den einzelnen Benutzer als auch für die Gesellschaft. Weitere Veränderungen stehen uns noch bevor, an die wir derzeit möglicherweise noch gar nicht denken. Diese neuen Entwicklungen bieten Minderjährigen viele Möglichkeiten, werfen aber auch einige Probleme in Bezug auf den Jugendschutz auf, denn Eltern haben oft Schwierigkeiten, ihrer Verantwortung in Bezug auf technisch neuartige Produkte und Dienste gerecht zu werden, über die sie in der Regel weniger wissen als ihre Kinder. Es stellt sich daher die Frage, ob die gegenwärtige Politik noch immer geeignet und angemessen ist, um überall in Europa ein hohes Niveau des Kinder- und Jugendschutzes zu gewährleisten. Zur besseren Einschätzung, was bereits getan wurde und welche weiteren Schritte möglicherweise notwendig sind, werden im vorliegenden Bericht – gemäß der Aufforderung in Nummer 6 der Empfehlung von 2006 – die Umsetzung und die Wirksamkeit der in den Empfehlungen von 1998 und 2006 aufgeführten Maßnahmen in den Mitgliedstaaten analysiert. Der Bericht wurde auf der Grundlage der Informationen erstellt, die die Mitgliedstaaten anhand eines Fragebogens übermittelt haben. Er ergänzt mehrere Aktionen der Digitalen Agenda für Europa[3]. Ausführlichere Informationen zu den Antworten und Einzelbeispiele für getroffene Maßnahmen enthält das beigefügte Arbeitspapier der Kommissionsdienststellen. ERKENNTNISSE Bekämpfung illegaler oder schädlicher Inhalte Inhaltsanbieter und Dienstleister bemühen sich insbesondere mit Hilfe von Selbstverpflichtungen und Verhaltenskodizes , die es nunmehr in 24 Mitgliedstaaten gibt[4], zunehmend um eine Zurückdrängung diskriminierender, illegaler oder schädlicher Inhalte. Im Hinblick auf Internetinhalte sehen einige dieser Initiativen vor, dass Websites, die einem Verhaltenskodex entsprechen, ein Qualitätssiegel führen dürfen. Darüber hinaus bemühen sich die Mitgliedstaaten um die Entwicklung und leichte Zugänglichkeit von hochwertigen und angemessenen Inhalten für Minderjährige , beispielsweise durch besondere Websites für Kinder und über spezielle Suchmaschinen[5]. In den Mitgliedstaaten besteht zwar Einvernehmen über die Nützlichkeit der Förderung von Selbstregulierungsmaßnahmen (Verhaltenskodizes), doch gibt es anhaltende Bedenken über ein noch immer sehr unterschiedliches Schutzniveau in diesem Bereich. Die bestehenden Maßnahmen gegen illegale und schädliche Inhalte sollten künftig ständig überwacht werden, um ihre Wirksamkeit sicherzustellen. So werden beispielsweise Meldestellen für solche Inhalte aufgebaut, die sich an Kinder und Eltern richten, vom Inhaltsanbieter betrieben werden und sich auf funktionierende Verwaltungsinfrastrukturen stützen können, allerdings mangelt es diesen Initiativen an gemeinsamen Merkmalen und an Größeneinsparungen, die einen effizienteren Betrieb erlauben würden. | Hotlines In der Digitalen Agenda für Europa werden die Mitgliedstaaten aufgerufen, bis 2013 für die vollständige Einrichtung von Hotlines für die Meldung anstößiger oder schädlicher Online-Inhalte zu sorgen. Solche Hotlines sind inzwischen überall in den Mitgliedstaaten und in Norwegen geschaffen worden und werden auch benutzt. Die Kofinanzierung der Hotlines durch das Programm „Sicheres Internet“ der Europäischen Kommission ist nach wie vor ein wesentlicher Unterstützungsmechanismus. Einige Mitgliedstaaten griffen auch auf den INHOPE -Verband der Internet-Meldestellen[6] zurück, der 1999 im Zuge des damaligen EG-Aktionsplans für ein sichereres Internet gegründet wurde und nun im Rahmen des Programms Sicheres Internet finanziert wird. Es bezieht auch Länder außerhalb Europas[7] mit ein und dient der Ausweitung der Zusammenarbeit auf diesem Gebiet. Die INHOPE-Mitglieder müssen einen INHOPE-Verhaltenskodex einhalten. Hotlines in 24 Mitgliedstaaten sind Mitglieder des INHOPE-Verbands[8]. Eine Reihe von Hotlines nimmt an so genannten „ Notice-and-Take-Down “-Verfahren[9] (Verfahren zur Meldung und Entfernung rechtswidriger Inhalte) teil, bei denen sich die Internetdiensteanbieter dazu verpflichten, die von der Öffentlichkeit über die Hotline gemeldeten Inhalte sofort zu entfernen. 19 Mitgliedstaaten[10] haben angegeben, dass solche Verfahren eingerichtet wurden und Anwendung finden. Es bestehen aber beträchtliche Unterschiede in der Funktionsweise der Hotlines und insbesondere der Verfahren zur Meldung und Entfernung rechtswidriger Inhalte. Dies betrifft vor allem die Entscheidungen darüber, ob die Inhalte illegal sind, die Überprüfung solcher Entscheidungen, die Feststellung der Herkunft und des jeweiligen Webhosting-Anbieters sowie insbesondere auch die Benachrichtigung der zuständigen Behörden[11]. Obwohl dies nicht Bestandteil des Fragebogens war, gingen Bulgarien und Slowenien auch auf die Beaufsichtigung der Hotlines ein[12]. Die breite Einrichtung und Vernetzung von Hotlines ist ermutigend, aber nicht ausreichend. Um sowohl ihre Effizienz zu steigern als auch eine größere Kohärenz zwischen den Mitgliedstaaten zu erreichen (z. B. empfehlenswerte Praxis bei der Zusammenarbeit mit den Strafverfolgungsbehörden), sollten Überlegungen darüber angestellt werden, wie sie besser bekannt und für die Internetnutzer (auch für Kinder) leichter zugänglich gemacht, wie ihre Funktionsweise verbessert und wie Synergien mit anderen einschlägigen Diensten entwickelt werden können (z. B. Helplines und Sensibilisierungszentren, 116 000- und 116 111-Nummern). Darüber hinaus sollten Hotlines stärker beaufsichtigt werden. | Internetdiensteanbieter (ISP) Im Allgemeinen beteiligen sich die ISP zunehmend an den Jugendschutzbemühungen und dies trotz ihrer eingeschränkten Haftung und Verantwortlichkeit gemäß der E-Commerce-Richtlinie[13]. Dies gilt sowohl für ihre Rechtspflichten in Bezug auf illegale Inhalte, insbesondere aber für gemeinsame freiwillige Selbstverpflichtungen und die Einhaltung von Verhaltenskodizes . Die Verbände der Internetdiensteanbieter haben im Allgemeinen aber keinen besonderen Auftrag in Bezug auf den Schutz Minderjähriger. Deshalb erfolgt die Unterzeichnung und Einhaltung von Verhaltenskodizes zum Schutz Minderjähriger durch die Mitglieder solcher Verbände üblicherweise auch nur auf freiwilliger Grundlage[14]. Außerdem berichteten nur acht Mitgliedstaaten[15] und Norwegen über eine Beteiligung von Verbrauchern oder Behörden an der Aufstellung von Verhaltenskodizes im Berichtszeitraum, und nur sechs Mitgliedstaaten[16] gaben an, dass es Bewertungssysteme für die Beurteilung der Wirksamkeit der Verhaltenskodizes gibt. Insgesamt sind nur 11 Mitgliedstaaten[17] und Norwegen der Ansicht, dass sich die Selbstregulierungssysteme und Verhaltenskodizes der ISP gut für das neue digitale Umfeld eignen. Die ISP werden zur Übernahme einer noch aktiveren Rolle beim Schutz Minderjähriger ermuntert. Verhaltenskodizes sollten eine breitere Anwendung finden und die Einhaltung sollte auch genauer überwacht werden. Die Verbände der Internetdiensteanbieter werden dazu ermuntert, sich den Schutz Minderjähriger verstärkt zur Aufgabe zu machen und ihren Mitgliedern entsprechende Verpflichtungen aufzuerlegen. Eine stärkere Einbeziehung von Verbrauchern und Behörden in die Aufstellung von Verhaltenskodizes würde dazu beitragen, dass die Selbstregulierung wirklich mit der schnellen Entwicklung der digitalen Welt Schritt halten kann. | Websites zur sozialen Vernetzung Websites zur sozialen Vernetzung bieten Kindern und Jugendlichen ungeheure Möglichkeiten. Obwohl sie erst kürzlich eine so große Bedeutung erlangt haben, haben sie bereits die Art und Weise verändert, wie Minderjährige interagieren und miteinander kommunizieren. Solche sozialen Netze bergen aber auch ein beträchtliches Risikopotenzial, das sich in den Kategorien „illegale Inhalte“, „nicht altersgerechte Inhalte“, „anstößige Kontakte“ und „unangemessenes Verhalten“ zusammenfassen lässt[18]. Ein vielversprechendes Mittel zur Minderung dieser Risiken sind Leitlinien für die Anbieter sozialer Netze und/oder deren Benutzer. Nur 10 Mitgliedstaaten[19] verwiesen auf solche Leitlinien und noch weniger gaben an, dass Bewertungssysteme bestehen, um deren Wirksamkeit zu beurteilen[20]. Bei den unverbindlichen Regelungen mangelt es somit an einer einheitlichen Umsetzung. Diese Lücke könnte teilweise durch die „EU-Grundsätze für eine sicherere Nutzung sozialer Netze“ ( Safer Social Networking Principles for the EU [21]) geschlossen werden, denen sich 21 soziale Netze angeschlossen haben. Angesichts der massiven Ausbreitung sozialer Netze reichen die Kontrollsysteme der Betreiber nicht mehr aus, um allen potenziellen Risiken auf effiziente und kohärente Weise entgegenzutreten. Ein aktives Engagement der Beteiligten wird insbesondere durch eine weitere Sensibilisierung für die Risiken und ihre Minderung sowie für eine breitere Verwendung von Leitlinien mit Überwachung ihrer Einhaltung gefördert. Zusätzlich bauen soziale Netze zunehmend Meldestellen mit einer gut funktionierenden Verwaltungsinfrastruktur auf, um Kindern beim Umgang mit Annäherungsversuchen (Grooming), Schikanierung (Cyber-Bullying) und ähnlichen Problemen zur Seite zu stehen, jedoch werden Lösungen bislang von Fall zu Fall entwickelt. Zudem ist die Verwendung standardmäßig sicherer Datenschutzeinstellungen für Kinder gleich ab der Anmeldung bei einem sozialen Netz noch nicht weit verbreitet. | Problematische Internetinhalte aus anderen Mitgliedstaaten / aus Nicht-EU-Ländern Die meisten Mitgliedstaaten halten den Anteil der schädlichen Inhalte aus ihrem eigenen Staatsgebiet für sehr gering, den Anteil schädlicher Inhalte aus anderen EU-Mitgliedstaaten dagegen für erheblich höher und den Anteil schädlicher Inhalte aus Nicht-EU-Ländern für am höchsten[22]. In Bezug auf mögliche Verbesserungen sind einige Mitgliedstaaten der Meinung, dass es einfacher wäre, einen stärker harmonisierten Schutz auf europäischer Ebene zu gewährleisten, den sie einem Schutz auf internationaler Ebene vorziehen würden[23]. Trotzdem wird es im Allgemeinen als nützlich erachtet, Drittländer zum Ergreifen von Maßnahmen in deren Gebiet zu ermuntern. Die große Mehrheit der Mitgliedstaaten und Norwegen befürworten den Abschluss weiterer Abkommen mit Drittländern [24]. Wünschenswert erscheinen eine erweiterte Zusammenarbeit und ein harmonisierter Schutz vor problematischen Internetinhalten. Obwohl solche Inhalte ihren Ursprung meist außerhalb der EU haben, halten einige Mitgliedstatten ein solches Vorgehen auf europäischer Ebene für realistischer als die Einbeziehung von Drittländern. | Medienkompetenz und Sensibilisierung Alle Mitgliedstaaten sind entschlossen, die Medienkompetenz zu fördern und das Bewusstsein für die mit Onlinemedien verbundenen Risiken und für vorhandene Werkzeuge als vorbeugende Schutzinstrumente zu schärfen. Insbesondere gibt es in den Mitgliedstaaten eine steigende Zahl einschlägiger Initiativen in Form öffentlich-privater Partnerschaften . Den Berichten aus den Mitgliedstaaten zufolge haben sich das Programm „Sicheres Internet“ und das Projekt „EU Kids Online“ als wertvoller Rahmen auf diesen Gebieten bewährt[25]. Initiativen zur Verbesserung der Medienkompetenz und zur Sensibilisierung werden teilweise in die formale Bildung integriert, wobei versucht wird, auch die Eltern und Lehrer zu sensibilisieren. Allerdings hat eine 2009 von der Kommission durchgeführte Untersuchung ergeben, dass dieses Thema in 23 europäischen Ländern zwar in den nationalen Lehrplänen steht, die tatsächliche Vermittlung derartiger Bildungsinhalte aber bruchstückhaft und uneinheitlich ist[26]. Die zunehmende Integration von Medienkompetenzen und Aufklärung in den Schulunterricht ist zwar zu begrüßen, eine Herausforderung bleibt aber die Einbeziehung aller Kinder und Eltern sowie die Kohärenz zwischen den Schulen und den Mitgliedstaaten. | Beschränkungen beim Zugang zu den Inhalten Um zu erreichen, dass Minderjährige nur Zugang zu altersgerechten Inhalten haben, sind zwei Dinge erforderlich: einerseits eine Alterseinstufung und Inhaltsklassifizierung und andererseits die Durchsetzung der Beachtung dieser Einstufungen und Klassifizierungen. Für Letzteres sind zwar in erster Linie die Eltern verantwortlich, technische Systeme (Filter, Altersüberprüfungssysteme, Kontrollsysteme für Eltern usw.) können hierbei aber von großer Hilfe sein. Alterseinstufung und Inhaltsklassifizierung Die bestehenden Alterseinstufungs- und Inhaltsklassifizierungssysteme für audiovisuelle Inhalte werden von 12 Mitgliedstaaten grundsätzlich als ausreichend und wirksam beurteilt[27], wogegen 13 Mitgliedstaaten[28] und Norwegen durchaus Verbesserungsbedarf sehen. 16 Mitgliedstaaten[29] und Norwegen gaben an, dass sie unterschiedliche Alterseinstufungen und Klassifizierungen für unterschiedliche Arten von Medien haben. Zehn Mitgliedstaaten[30] und Norwegen halten dies für ein Problem. Acht Mitgliedstaaten[31] und Norwegen betonen, dass Maßnahmen oder Initiativen erwogen werden, um auf diesem Gebiet eine größere Einheitlichkeit herbeizuführen . Insgesamt erachten 15 Mitgliedstaaten[32] und Norwegen medienübergreifende und/oder europaweite Klassifizierungssysteme für Medieninhalte als hilfreich und praktikabel . Dem widersprechen neun Mitgliedstaaten[33] mit dem Verweis auf kulturelle Unterschiede. In diesem Bereich herrscht eine extreme Fragmentierung vor, da die Vorstellungen davon, was notwendig und nützlich ist, zwischen und in den Mitgliedstaaten weit auseinander gehen. | Technische Systeme (Filter, Altersüberprüfungssysteme, Kontrollsysteme für Eltern usw.) Alles in allem scheint Einvernehmen darüber zu bestehen, dass technische Maßnahmen allein nicht ausreichen, um Minderjährige vor schädlichen Inhalten zu schützen, und dass diese nur ein Element in einem ganzen Maßnahmenbündel sein können. In Bezug auf die Nützlichkeit , Angemessenheit (im Hinblick auf das Informationsrecht und eine mögliche missbräuchliche Zensur), technische Durchführbarkeit und Zuverlässigkeit technischer Maßnahmen[34], die potenziell schädliche Inhalte durch Durchsetzung der jeweiligen Einstufungen und Klassifizierungen verhindern sollen, sind die Mitgliedstaaten unterschiedlicher Meinung. Darüber hinaus herrscht Einvernehmen über die Notwendigkeit einer größeren Transparenz bezüglich der Aufnahme bestimmter Inhalte in eine schwarze Liste und die Möglichkeiten, sie daraus wieder zu streichen. 20 Mitgliedstaaten[35] berichteten von Bemühungen der Branche oder der Behörden zur Entwicklung eines Filter- oder Einstufungssystems für das Internet. 24 Mitgliedstaaten[36] und Norwegen berichteten über die Verwendung von Werkzeugen für die elterliche Kontrolle . Diese stehen in 15 Mitgliedstaaten kostenlos zur Verfügung, in vier Mitgliedstaaten sind sie kostenpflichtig[37]. Überdies werden zunehmend Anstrengungen unternommen, um die Kunden über vorhandene Filter- und Einstufungssysteme und über Software zur Altersüberprüfung zu informieren, was in 16 Mitgliedstaaten Pflicht ist, und zwar aufgrund von Rechtsvorschriften oder von Verhaltenskodizes für ISP und Mobilfunkbetreiber[38]. Die meisten Mitgliedstaaten sehen zwar Verbesserungsbedarf bei ihren Alterseinstufungs- und Klassifizierungssystemen, es besteht aber keinerlei Einvernehmen darüber, ob medienübergreifende und/oder europaweite Klassifizierungssysteme für Medieninhalte hilfreich und praktikabel sind. Dennoch sollten angesichts der zunehmend grenzenlosen Verbreitung von Onlineinhalten weiterhin über Mittel und Wege nachgedacht werden, wie solche Systeme besser abgestimmt werden können. Internet-Geräte mit Vorrichtungen zur elterlichen Kontrolle breiten sich zwar zunehmend aus, aber die Verbindung mit geeigneten Inhalten erfolgt nur von Fall zu Fall, wobei es große Unterschiede zwischen den Mitgliedstaaten gibt. Vor diesem Hintergrund erscheint es zweckmäßig, Überlegungen über innovative Einstufungs- und Inhaltsklassifizierungssysteme anzustellen, die sich für einen breiteren Einsatz im gesamten IKT-Sektor eignen (Hersteller, Hosting- und Inhaltsanbieter usw.), die gleichzeitig aber die notwendige Flexibilität für eine örtliche Auslegung der „Angemessenheit“ zulassen und den anerkannten Normen für die Haftung der verschiedenen Akteure im Internet Rechnung tragen. | Audiovisuelle Mediendienste Was die Mitregulierungs-/Selbstregulierungssysteme zum Schutz Minderjähriger vor schädlichen Inhalten anbelangt, sind die audiovisuellen Mediendienste auf Abruf (solche Systeme gibt es in 8 Mitgliedstaaten, davon 7 mit Verhaltenskodex) im Rückstand gegenüber den Fernsehprogrammen , bei denen es solche Systeme in 14 Mitgliedstaaten gibt, davon 11 mit Verhaltenskodex[39]. Üblicherweise werden Eltern unmittelbar vor der Bereitstellung möglicherweise schädlicher Inhalte durch im Bild eingeblendete Symbole und/oder akustische Warnhinweise auf solche Inhalte und die Notwendigkeit einer Zugangsbeschränkung hingewiesen. Dies trifft sowohl auf das Fernsehen als auch auf audiovisuelle Mediendienste auf Abruf zu. Die meisten Mitgliedstaaten halten solche Signale für nützlich, einige schreiben sie sogar verbindlich vor oder verlangen entsprechende Regelungen in den Verhaltenskodizes. Technische Filtervorrichtungen oder Filtersoftware , auch mit voreingestellten Sperren und PIN-Code-Abfragen werden dagegen weniger verwendet. Altersklassifizierungen und Sendezeitbeschränkungen für audiovisuelle Mediendienste auf Abruf gibt es nur in wenigen Mitgliedstaaten[40]. Bezüglich der Zuverlässigkeit der Kennzeichnungs- und Warnsysteme betonten einige Mitgliedstaaten die große Bedeutung der elterlichen Verantwortung und die Tatsache, dass solche Systeme nur dann funktionieren können, wenn die Eltern für ihre wirksame Durchsetzung sorgen, indem sie kontrollieren, was ihre Kinder anschauen. Die Vielfalt der auf diesem Gebiet ergriffenen Maßnahmen ist Ausdruck der in der AVMD-Richtlinie getroffenen Unterscheidungen, aber auch der Schwierigkeit, politisch einvernehmliche Lösungen für dieses Problem zu finden. Die gemeinhin verfügbaren technischen Mittel, die eine selektive Beschränkung des Zugangs der Kinder zu Inhalten im Internet ermöglichen, wie z. B. Werkzeuge zur elterlichen Kontrolle in Verbindung mit Alterseinstufungen oder Inhaltskennzeichnungen, sind äußerst vielfältig. Die für die lineare Bereitstellung bzw. Fernsehausstrahlung entwickelten Lösungen (z. B. Sendezeiten) erscheinen häufig ungeeignet für das Internet und andere auf Abruf bereitgestellte audiovisuelle Mediendienste. | Videospiele Insgesamt 17 Mitgliedstaaten und Norwegen schätzen die Funktionsweise ihrer Alterseinstufungssysteme als zufriedenstellend ein[41]. Mit Ausnahme Deutschlands verwenden die Mitgliedstaaten die Systeme PEGI [42] ( Pan-European Games Information System ) und PEGI Online [43]. In Bezug auf Onlinespiele wird PEGI Online grundsätzlich als gute Lösung betrachtet, eine Reihe von Mitgliedstaaten hat aber Bedenken wegen der noch immer begrenzten Beteiligung der Branche an diesem System. Bewertungssysteme für die Beurteilung möglicher positiver oder negativer Auswirkungen von Videospielen auf die Entwicklung oder Gesundheit Minderjähriger gibt es nur in fünf Mitgliedstaaten[44] und in Norwegen. Als mögliche weitergehende Maßnahmen zum Schutz Minderjähriger vor schädlichen Videospielen wurden die Erhöhung der Medienkompetenz und Sensibilisierungsmaßnahmen am häufigsten genannt, wobei es insbesondere darum geht, auf die von Videospielen ausgehenden Risiken hinzuweisen und vorhandene Schutzwerkzeuge zu fördern. Aber nur acht Mitgliedstaaten und Norwegen haben solche Maßnahmen in ihren Schulunterricht integriert. Ferner bestätigen die Antworten der Mitgliedstaaten die Notwendigkeit weiterer Maßnahmen in Bezug auf den Verkauf von Videospielen im Einzelhandel , um zu verhindern, dass Videospiele an zu junge Kunden verkauft werden. Nur in sechs Mitgliedstaaten und in Norwegen[45] wurden einschlägige Sensibilisierungsmaßnahmen durchgeführt, und nur in vier Mitgliedstaaten[46] haben die Einzelhändler einen entsprechenden Verhaltskodex aufgestellt. Alterseinstufungssysteme (vor allem PEGI) funktionieren zwar in den meisten Mitgliedstaaten gut, problematisch bleibt aber deren begrenzte Anwendung auf Onlinespiele und die Missachtung der Alterseinstufung beim Einzelhandelsverkauf. Überdies hätten weitere Sensibilisierungsmaßnahmen (z. B. zur Medienkompetenz an Schulen) eine positive vorbeugende Wirkung. | Recht auf Gegendarstellung in Onlinemedien 16 Mitgliedstaaten[47] gewährleisten ein Recht auf Gegendarstellung für Onlinezeitungen und Onlinezeitschriften, in 13 Mitgliedstaaten[48] gilt dieses Recht auch für Internet-gestützte Nachrichtendienste; in 17 Mitgliedstaaten[49] gilt dieses Recht für Fernsehdienste, in 15 Mitgliedstaaten[50] für Online-Hörfunkdienste und in neun Mitgliedstaaten[51] für andere Online-Dienste. Die Mitgliedstaaten beurteilen das Niveau des Schutzes vor einer Tatsachenbehauptung[52] in Onlinemedien und die Wirksamkeit der jeweils bestehenden Systeme in etwa gleichem Maße als ausreichend und wirksam wie auch als unbefriedigend. Die Einführung eines Rechts auf Gegendarstellung in Onlinemedien ist in den Mitgliedstaaten uneinheitlich und für verschiedene Arten von Onlinemedien unterschiedlich erfolgt. Außerdem besteht Verbesserungsbedarf in Bezug auf die Wirksamkeit der bestehenden Systeme. | Schlussfolgerungen Als positives allgemeines Ergebnis ist festzustellen, dass sich der Umfrage über verschiedene Aspekte der Empfehlungen von 1998 und 2006 zufolge alle Mitgliedstaaten der Herausforderungen bezüglich des Schutzes Minderjähriger im Online-Umfeld bewusst sind und sich zunehmend um deren Bewältigung bemühen. Eine Kombination aus Maßnahmen mit erheblicher Selbstregulierungskomponente erscheint am besten geeignet, um auf die Konvergenz der Plattformen (Fernsehen, Computer, Smartphones, Spielkonsolen usw.) und audiovisuellen Inhalte so flexibel und wirksam wie möglich reagieren zu können. Eine gründliche Analyse der von den Mitgliedstaaten entwickelten politischen Antworten ergibt für ganz Europa ein Gesamtbild aus sehr unterschiedlichen – und oft auch widersprüchlichen – Maßnahmen. Dies gilt insbesondere für die Bekämpfung illegaler und schädlicher Inhalte, für die Förderung der Sicherheit sozialer Netze und die Straffung der Inhaltseinstufungssysteme. Ziemlich oft mangelt es den Regulierungs- oder Selbstregulierungsmaßnahmen auch an Ehrgeiz und an Abstimmung mit ähnlichen Maßnahmen in anderen Mitgliedstaaten, häufig aber einfach auch an der effektiven praktischen Umsetzung. Ein europaweiter Flickenteppich aus Maßnahmen kann nur zur Fragmentierung des Binnenmarktes und zur Verwirrung der Eltern und Lehrer führen, die herauszufinden versuchen, wie sie die Kinder am besten auf die Onlinewelt vorbereiten und sie darin schützen können. Dieser Bericht und die ausführlichen Antworten, die anhand des Fragebogens von den Mitgliedstaaten[53] eingegangen sind, machen deutlich, dass weitere Maßnahmen auf europäischer Ebene auf der empfehlenswerten Praxis in den Mitgliedstaaten aufbauen und zu Größenvorteilen im IKT-Sektor führen können, damit sich die Kinder auf sichere Weise die Vorteile der sich ständig weiterentwickelnden digitalen Welt zunutze machen können. [1] 1998 : Empfehlung des Rates vom 24. September 1998 zur Steigerung der Wettbewerbsfähigkeit des europäischen Industriezweigs der audiovisuellen Dienste und Informationsdienste durch die Förderung nationaler Rahmenbedingungen für die Verwirklichung eines vergleichbaren Niveaus in Bezug auf den Jugendschutz und den Schutz der Menschenwürde (98/560/EG), ABl. L 207 vom 7.10.1998, S. 48–55 (http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:31998H0560:DE:NOT).2006: Empfehlung des Europäischen Parlaments und des Rates vom 20. Dezember 2006 über den Schutz Minderjähriger und den Schutz der Menschenwürde und über das Recht auf Gegendarstellung im Zusammenhang mit der Wettbewerbsfähigkeit des europäischen Industriezweiges der audiovisuellen Dienste und Online-Informationsdienste (2006/952/EG), ABl. L 378 vom 27.12.2006, S. 72–77 (http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:32006H0952:DE:NOT). [2] Gleichzeitig sollte dabei sichergestellt sein, dass alle Mit- bzw. Selbstregulierungsmaßnahmen im Einklang mit dem Wettbewerbsrecht getroffen werden. [3] KOM(2010) 245 endg./2: Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen – Eine Digitale Agenda für Europa (26. August 2010, berichtigte Fassung) (http://ec.europa.eu/information_society/digital-agenda/index_en.htm). [4] Siehe im Arbeitspapier der Kommissionsdienststellen, Seite 7 und Fußnote 27. [5] Siehe im Arbeitspapier der Kommissionsdienststellen, Seite 7–8 und Fußnoten 31, 32. [6] http://www.inhope.org/gns/home.aspx. [7] INHOPE-Mitglieder sind Hotlines aus 35 Ländern weltweit. [8] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 35. [9] Siehe Arbeitspapier der Kommissionsdienststellen, Seite 8–9. Zur Einschränkung der Haftung und Verantwortlichkeit der ISP gemäß der Richtlinie über den elektronischen Geschäftsverkehr siehe Fußnote 13 dieses Berichts. [10] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 39. [11] Siehe Arbeitspapier der Kommissionsdienststellen, Seite 9. [12] Siehe Arbeitspapier der Kommissionsdienststellen, Seite 9. [13] Laut E-Commerce-Richtlinie (Richtlinie 2000/31/EG des Europäischen Parlaments und des Rates vom 8. Juni 2000 über bestimmte rechtliche Aspekte der Dienste der Informationsgesellschaft, insbesondere des elektronischen Geschäftsverkehrs, im Binnenmarkt („Richtlinie über den elektronischen Geschäftsverkehr“) (ABl. L 178 vom 17.7.2000, S. 1–16, http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=CELEX:32000L0031:DE:HTML) besteht für ISP keine allgemeine Verpflichtung, die von ihnen übermittelten oder gespeicherten Informationen zu überwachen oder aktiv nach Umständen zu forschen, die auf eine rechtswidrige Tätigkeit hinweisen (Artikel 15 Absatz 1). Demnach genießen die ISP Haftungsprivilegien in Bezug auf die reine Informationsdurchleitung (Artikel 12 Absatz 1), die automatische, zeitlich begrenzte Zwischenspeicherung der Informationen (Artikel 13 Absatz 1) und die Speicherung der durch einen Nutzer des Dienstes eingegebenen Informationen (Artikel 14 Absatz 1). [14] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 46. [15] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 48. [16] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 49. [17] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 50. [18] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 52. [19] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 58. [20] Siehe Arbeitspapier der Kommissionsdienststellen, Seite 12. [21] http://ec.europa.eu/information_society/activities/social_networking/docs/sn_principles.pdf. [22] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 60. [23] Siehe Arbeitspapier der Kommissionsdienststellen, Seite 13. [24] Siehe Arbeitspapier der Kommissionsdienststellen, Seite 13 und Fußnote 63. Bezüglich der Bekämpfung der Onlineverbreitung von Material über sexuellen Kindesmissbrauch konzentriert sich das Programm „Sicheres Internet“ auf die internationale und europäische Zusammenarbeit und unterstützt insbesondere das INHOPE-Meldestellennetz. [25] Siehe Arbeitspapier der Kommissionsdienststellen, Seite 14. [26] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 65. [27] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 81. [28] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 82. [29] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 83. [30] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 85. [31] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 86. [32] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 87. [33] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 88. [34] Im Zuge des Programms „Sicheres Internet“ wurde eine Vergleichsuntersuchung über die Wirksamkeit der in Europa vorhandenen Filtersysteme in Auftrag gegeben. Die ersten Ergebnisse wurden im Januar 2011 veröffentlicht: http://ec.europa.eu/information_society/activities/sip/projects/filter_label/sip_bench2/index_en.htm [35] Siehe Arbeitspapier der Kommissionsdienststellen, Seite 16. [36] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 77. [37] Siehe Arbeitspapier der Kommissionsdienststellen, Seite 16 und Fußnote 78. [38] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 76. [39] Siehe im Arbeitspapier der Kommissionsdienststellen, Seite 20–22 und Fußnoten 93, 94, 99 und 100. [40] Siehe Arbeitspapier der Kommissionsdienststellen, Seite 20–22. [41] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 107. [42] http://www.pegi.info/de/ [43] http://www.pegionline.eu/de/ [44] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 118. [45] Siehe Arbeitspapier der Kommissionsdienststellen, Seite 24–25 und Fußnote 119. [46] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 120. [47] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 128. [48] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 129. [49] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 130. [50] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 131. [51] Siehe Arbeitspapier der Kommissionsdienststellen, Fußnote 132. [52] Im Sinne von Anhang I der Empfehlung von 2006 – Indikative Leitlinien für die Umsetzung auf nationaler Ebene von Maßnahmen im innerstaatlichen Recht oder in der innerstaatlichen Praxis zur Gewährleistung des Rechts auf Gegendarstellung oder gleichwertige Abhilfemaßnahmen im Zusammenhang mit Onlinemedien. [53] Arbeitsdokument der Kommissionsdienststellen.