Accept Refuse

EUR-Lex Access to European Union law

This document is an excerpt from the EUR-Lex website

Document 52017DC0555

MITTEILUNG DER KOMMISSION AN DAS EUROPÄISCHE PARLAMENT, DEN RAT, DEN EUROPÄISCHEN WIRTSCHAFTS- UND SOZIALAUSSCHUSS UND DEN AUSSCHUSS DER REGIONEN Umgang mit illegalen Online-Inhalten Mehr Verantwortung für Online-Plattformen

COM/2017/0555 final

Brüssel, den 28.9.2017

COM(2017) 555 final

MITTEILUNG DER KOMMISSION AN DAS EUROPÄISCHE PARLAMENT, DEN RAT, DEN EUROPÄISCHEN WIRTSCHAFTS- UND SOZIALAUSSCHUSS UND DEN AUSSCHUSS DER REGIONEN

Umgang mit illegalen Online-Inhalten

Mehr Verantwortung für Online-Plattformen


1.Einführung

1 Online-Plattformen sind eine wichtige Triebkraft für Innovation und Wachstum in der digitalen Wirtschaft. Sie ermöglichen einen beispiellosen Zugang zu Informationen sowie deren Austausch und schaffen neue Marktchancen vor allem für kleine und mittlere Unternehmen (KMU). Darüber hinaus sind Online-Plattformen für die meisten Menschen heute der Hauptzugangspunkt zu Informationen und anderen Inhalten im Internet, sei es über Suchmaschinen, soziale Netzwerke, Mikro-Blogging-Sites oder Videoplattformen. Die Geschäftsmodelle der Plattformen haben sich in letzter Zeit ebenfalls deutlich hin zu einer engeren Verknüpfung von Nutzern und Inhalten weiterentwickelt, um vor allem auch eine gezielte Werbung zu ermöglichen. Diese Plattformen stellen riesige Mengen von Inhalten und Informationen für Milliarden von Nutzern bereit und erbringen innovative Dienstleistungen für Bürger und Unternehmen.

2 Die große Verbreitung illegaler Inhalte, die im Internet eingestellt und somit online zugänglich gemacht werden können, stellt jedoch ein ernstes Problem dar, dem entschlossen und wirksam begegnet werden muss. Was außerhalb des Internets verboten ist, ist auch im Internet illegal. Die Aufstachelung zu Terrorismus, Fremdenfeindlichkeit und Rassismus, insbesondere die öffentliche Aufstachelung zu Hass und Gewalt wie auch die Verbreitung von Material mit Darstellungen sexuellen Kindesmissbrauchs sind in der EU verboten. Die zunehmende Verfügbarkeit von terroristischem Online-Material und die Verbreitung solcher Inhalte stellen eine ernste Bedrohung für die Sicherheit dar und verletzen die Würde der Opfer. Die Europäische Union wirkt diesen Problemen zwar mit einer Reihe von Maßnahmen entgegen. Die Erkennung und Entfernung illegaler Online-Inhalte stellt aber eine dringliche Herausforderung für die digitale Gesellschaft von heute dar.

3 4 Angesichts einer Reihe von Terroranschlägen in der EU und der Verbreitung terroristischer Propaganda im Internet erklärte der Europäische Rat auf seiner Tagung am 22. und 23. Juni 2017, er erwarte „von der Industrie ... die Entwicklung neuer Technologien und Instrumente, mit denen die automatische Erkennung und die Entfernung von zu terroristischen Handlungen anstiftenden Inhalten verbessert wird. Dies sollte erforderlichenfalls durch die einschlägigen Gesetzgebungsmaßnahmen auf EU-Ebene ergänzt werden.“ Diese Aufforderungen finden sich auch in den Erklärungen der Staats- und Regierungschefs der G7 und G20 auf ihren kürzlichen Gipfeltreffen wieder. Ebenso forderte das Europäische Parlament in seiner Entschließung über Online-Plattformen vom Juni 2017 diese Plattformen auf, die „Maßnahmen zur Bekämpfung illegaler und schädlicher Online-Inhalte zu intensivieren“, und rief die Kommission auf, Vorschläge zur Bewältigung dieser Problem zu unterbreiten.

Online-Plattformen, die für die meisten Internetnutzer den Zugang zu Inhalten vermitteln, tragen eine große gesellschaftliche Verantwortung für den Schutz der Nutzer und der Gesellschaft insgesamt und im Hinblick darauf, dass ihre Dienste von Straftätern und von anderen an rechtsverletzenden Tätigkeiten beteiligten Personen nicht ausgenutzt werden. Die offenen Räume, die sie bereitstellen, dürfen keinesfalls zu Brutstätten des Terrors, der illegalen Hetze, des Kindesmissbrauchs oder Menschenhandels werden und dürfen auch keine rechtsfreien Räume sein. Die Verbreitung illegaler Online-Inhalte untergräbt eindeutig nicht nur das Vertrauen der Bürger in das digitale Umfeld, sondern kann auch die weitere wirtschaftliche Entwicklung der Plattformen-Ökosysteme und des digitalen Binnenmarkts gefährden. Im Rahmen ihrer großen Verantwortung, die sich aus ihrer zentralen Rolle in der Gesellschaft ergibt, sollten die Online-Plattformen daher ihre Maßnahmen zur Lösung dieses Problems deutlich verstärken.

Zur Bekämpfung illegaler Online-Inhalte müssen deshalb geeignete und robuste Vorkehrungen getroffen werden, um den Schutz der verschiedenen Grundrechte, die auf dem Spiel stehen, zu gewährleisten. Angesichts ihrer zunehmenden Bedeutung bei der Gewährung des Zugangs zu Informationen kommt den Online-Plattformen auch bei der Herstellung eines solchen Gleichgewichts eine aktive Schlüsselrolle zu. Bei der Bekämpfung illegaler Online-Inhalte in der EU sollten zudem auch Maßnahmen berücksichtigt und fortgeführt werden, die die EU auf globaler Ebene verfolgt.

Diese Mitteilung enthält eine Reihe von Leitlinien und Grundsätzen dafür, wie Online-Plattformen in Zusammenarbeit mit nationalen Behörden, Mitgliedstaaten und anderen Beteiligte die Bekämpfung illegaler Online-Inhalte verstärken sollten 5 . Sie zielt darauf ab, die Umsetzung bewährter Praktiken für die Vorbeugung, für die Erkennung und Entfernung illegaler Inhalte und für die Sperrung des Zugangs zu solchen Inhalten zu erleichtern und zu intensivieren, damit eine wirksame Entfernung rechtswidriger Inhalte, eine größere Transparenz und der Schutz der Grundrechte im Online-Umfeld sichergestellt werden. Außerdem gibt Sie den Plattformen mehr Klarheit über ihre Haftung, wenn sie proaktiv tätig werden, um illegale Inhalte zu erkennen, zu entfernen oder zu sperren („Guter-Samariter-Maßnahmen“).

2.Hintergrund

6 7 8 9 Die Europäische Union hat auf das Problem der illegalen Online-Inhalte bereits mit verbindlichen und nicht verbindlichen Maßnahmen reagiert. Zu diesen politischen Antworten gehören die Richtlinie zur Bekämpfung des sexuellen Missbrauchs und der sexuellen Ausbeutung von Kindern sowie der Kinderpornografie, die Richtlinie zur Terrorismusbekämpfung, die im Zusammenhang mit der Reform des Urheberrechts vorgeschlagenen Maßnahmen und die Richtlinie über audiovisuelle Mediendienste (AVMD-RL).

10 11 12 13 14 15 16 17 Die bestehenden und vorgeschlagenen Rechtsvorschriften werden durch eine Reihe nicht legislativer Maßnahmen ergänzt, z. B. den Verhaltenskodex zur Bekämpfung illegaler Hassrede im Internet, die Arbeiten des EU-Internetforums in Bezug auf terroristische Propaganda, die gemeinsame Absichtserklärung zum Verkauf nachgeahmter Güter über das Internet, die Bekanntmachung der Kommission zur Marktüberwachung von online verkauften Produkten, die Bestimmungen über die Lebensmittelkette im Online-Handel, den EU-Aktionsplan zur Bekämpfung des illegalen Artenhandels, die Leitlinien zur Richtlinie über unlautere Geschäftspraktiken oder das gemeinsame Vorgehen der nationalen Behörden im Rahmen des Netzwerks für die Zusammenarbeit im Verbraucherschutz. Die Europäische Strategie für ein besseres Internet für Kinder ist eine Selbstregulierungsinitiative, die in Anbetracht der Gefahren durch die Darstellung von Gewalt und sexueller Ausbeutung oder durch Cybermobbing das Online-Umfeld für Kinder und Jugendliche verbessern helfen soll.

18 In ihren Mitteilungen von 2016 und 2017 betonte die Kommission die Notwendigkeit, dass Online-Plattformen verantwortungsvoller handeln und ihre EU-weiten Selbstregulierungsbemühungen zur Entfernung illegaler Inhalte verstärken müssen. Darüber hinaus sagte die Kommission zu, die Koordinierung der verschiedenen sektorspezifischen Dialoge mit den Plattformen zu verbessern und die Notwendigkeit von Leitlinien für förmliche Melde- und Abhilfeverfahren zu prüfen. All dies sollte in Abstimmung mit bereits laufenden Dialogen und Arbeiten auf anderen Gebieten wie zum Beispiel zur europäischen Sicherheitsagenda oder in Bezug auf illegale Hassbotschaften geschehen, ohne diese zu beeinträchtigen.

19 20 21 22 Wie jüngste Berichte über einige dieser sektorspezifischen Initiativen belegen, wurden gewisse Fortschritte erzielt. Für Hassbotschaften zeigten Berichte von Juni 2017 in einer Stichprobe aus in einigen EU-Ländern gemeldeten Inhalten über einen Zeitraum von sechs Monaten eine Zunahme der Entfernungsrate von 28 % auf 59 %, wobei es aber erhebliche Unterschiede zwischen verschiedenen Plattformen gab. Gewisse Verbesserungen wurden im gleichen Zeitraum auch bei der Schnelligkeit der Entfernung festgestellt, allerdings wurden noch 28 % der Inhalte erst nach einer Woche entfernt. Dies zeigt, dass mit einer Selbstregulierung durchaus Ergebnisse erzielt werden können, insbesondere wenn sie von Maßnahmen flankiert wird, welche die Zusammenarbeit zwischen allen Beteiligten erleichtern. Im Rahmen des EU-Internetforums, das sich mit terroristischen Inhalten befasst, wurden seit der Einrichtung des Verfahrens ungefähr 80–90 % der von Europol beanstandeten Inhalte entfernt. Im Zusammenhang mit Material über sexuellen Kindesmissbrauch berichtete das INHOPE-Meldestellennetz schon 2015 über Entfernungsraten von 91 % innerhalb von 72 Stunden, wobei ein Drittel der gemeldeten Inhalte sogar innerhalb von 24 Stunden entfernt worden war.

Die verschiedenen laufenden sektorspezifischen Dialoge ergaben auch erhebliche Übereinstimmungen zwischen den verschiedenen Sektoren in den Verfahren für die Erkennung, Ermittlung und Entfernung von Inhalten und für die Verhinderung eines erneuten Hochladens. All diese Erkenntnisse sind die vorliegende Mitteilung eingeflossen.

23 Auf EU-Ebene bildet die Richtlinie über den elektronischen Geschäftsverkehr den allgemeinen Rechtsrahmen für die Entfernung illegaler Inhalte. Sie harmonisiert u. a. auch die Voraussetzungen, unter denen bestimmte Online-Plattformen im digitalen Binnenmarkt von der Haftung für illegale Inhalte, die sie bereithalten, freigestellt werden können.

24 25 26 Illegale Inhalte können sich auf Online-Plattformen insbesondere über Online-Dienste verbreiten, die es ermöglichen, Inhalte Dritter hochzuladen. Unter bestimmten Voraussetzungen fallen solche „Hosting“-Dienste unter Artikel 14 der Richtlinie über den elektronischen Geschäftsverkehr. Dieser Artikel legt fest, dass Hostingdiensteanbieter nicht für die im Auftrag eines Dritten gespeicherten Informationen verantwortlich sind, sofern folgende Voraussetzungen erfüllt sind: a) sie haben keine tatsächliche Kenntnis von der rechtswidrigen Tätigkeit oder Information, und, in Bezug auf Schadenersatzansprüche, sind sie sich auch keiner Tatsachen oder Umstände bewusst, aus denen die rechtswidrige Tätigkeit oder Information offensichtlich wird, oder b) sie werden, sobald sie diese Kenntnis oder dieses Bewusstsein erlangen, unverzüglich tätig, um die Information zu entfernen oder den Zugang zu ihr zu sperren. Gleichzeitig sollte die Richtlinie „eine geeignete Grundlage für die Entwicklung rasch und zuverlässig wirkender Verfahren zur Entfernung unerlaubter Informationen und zur Sperrung des Zugangs zu ihnen bilden“.

Darüber hinaus untersagt Artikel 15 der Richtlinie den Mitgliedstaaten, den Anbietern von Diensten im Sinne [des Artikels 14]“ eine „allgemeine Verpflichtung [aufzuerlegen], die von ihnen übermittelten oder gespeicherten Informationen zu überwachen oder aktiv nach Umständen zu forschen, die auf eine rechtswidrige Tätigkeit hinweisen“. Zugleich wird in Erwägungsgrund 47 der Richtlinie daran erinnert, dass sich dies nur auf allgemeine Überwachungspflichten bezieht. Weiter heißt es dort: „Dies betrifft nicht Überwachungspflichten in spezifischen Fällen und berührt insbesondere nicht Anordnungen, die von einzelstaatlichen Behörden nach innerstaatlichem Recht getroffen werden.“

In diesem Zusammenhang sagte die Kommission in ihrer Mitteilung von 2016 zu Online-Plattformen zu, eine ausgewogene und vorhersehbare Haftungsregelung für Online-Plattformen als wichtige rechtliche Rahmenbedingung für die Förderung digitaler Innovation im digitalen Binnenmarkt aufrecht zu erhalten.

Die Hinweise in dieser Mitteilung lassen das geltende EU-Recht unberührt und beziehen sich auf die Tätigkeiten von Online-Plattformen, insbesondere auf die von diesen Plattformen erbrachten Hostingdienste 27 im Sinne des Artikels 14 der Richtlinie über den elektronischen Geschäftsverkehr. Sie betreffen alle Arten illegaler Inhalte, tragen aber der Tatsache gebührend Rechnung, dass unterschiedliche Arten von Inhalten möglicherweise auch unterschiedlich behandelt werden müssen.

Ein harmonisiertes und kohärentes Konzept für die Entfernung illegaler Inhalte gibt es in der EU derzeit nicht. So werden in der EU je nach Mitgliedstaat, nach Art der Inhalte und nach Art der Online-Plattform unterschiedliche Ansätze verfolgt. Durch ein besser abgestimmtes Vorgehen könnte der Kampf gegen illegale Inhalte wirksamer geführt werden. Dies käme auch der Entwicklung des digitalen Binnenmarkts zugute und würde die Kosten der Einhaltung einer Vielzahl von Vorschriften für Online-Plattformen gerade auch für neue Marktteilnehmer verringern.

28 Diesbezüglich ist hervorzuheben, dass in diesem Rechtsrahmen in keiner Weise definiert oder auch gar harmonisiert wird, was „illegale“ Inhalte eigentlich sind. Was illegal ist, wird durch besondere Rechtsvorschriften auf EU-Ebene sowie durch nationale Rechtsvorschriften bestimmt. So unterscheiden sich beispielsweise terroristisches Material, illegale Hassbotschaften oder Material über sexuellen Kindesmissbrauch oder in Bezug auf Menschenhandel in Art, Merkmalen und Schadpotenzial ganz beträchtlich von der Verletzung von Rechten des geistigen Eigentums, Verstößen gegen Produktsicherheitsvorschriften, rechtswidrigen Geschäftspraktiken im Internet oder verleumderischen Online-Aktivitäten. Dennoch unterliegen alle diese unterschiedlichen Arten illegaler Inhalte demselben übergreifenden Rechtsrahmen der Richtlinie über den elektronischen Geschäftsverkehr. Angesichts der beträchtlichen Ähnlichkeiten in den Entfernungsverfahren für diese unterschiedlichen Arten von Inhalten wird in dieser Mitteilung auf die volle Bandbreite illegaler Online-Inhalte eingegangen, wobei sektorspezifische Unterscheide zugelassen werden, soweit dies angemessen und gerechtfertigt ist.

In der EU sind die Gerichte und die zuständigen nationalen Behörden, einschließlich der Strafverfolgungsbehörden, für die Verfolgung von Straftaten und die Verhängung strafrechtlicher Sanktionen in einem rechtsstaatlichen Verfahren zuständig, das auf der Rechtswidrigkeit bestimmter Handlungen oder Informationen im Internet beruht. Zugleich sind Online-Plattformen berechtigt zu verhindern, dass ihre Infrastrukturen und ihr Geschäftsbetrieb zur Begehung von Straftaten ausgenutzt werden, und tragen Verantwortung für den Schutz ihrer Nutzer und für die Verhinderung illegaler Inhalte auf ihren Plattformen. Außerdem verfügen sie in der Regel über die technischen Mittel, um solche Inhalte zu ermitteln und zu entfernen. Dies ist umso wichtiger, da Online-Plattformen massiv in die Entwicklung ausgefeilter Technologien investiert haben, um eine proaktive Erhebung von Informationen über die in ihrem Handlungsbereich zirkulierenden Inhalte und über das Verhalten der Nutzer zu ermöglichen. Rasche Entscheidungen über die Entfernung illegaler Inhalte sind zwar wichtig, es müssen aber auch angemessene Schutzvorkehrungen getroffen werden. Hierbei bedarf es auch einer ausgewogenen Rollenverteilung zwischen öffentlichen und privaten Stellen.

Die Leitlinien und Grundsätze, die in dieser Mitteilung dargelegt werden, betreffen daher nicht nur die Erkennung und Entfernung illegaler Inhalte. Vielmehr wird auch auf Bedenken bezüglich der Entfernung rechtmäßiger Inhalte („überzogene Entfernung“) eingegangen, was die Meinungsfreiheit und die Vielfalt der Medien beeinträchtigen würde. Es sollten daher angemessene Schutzvorkehrungen vorgesehen und an die besonderen Arten der jeweiligen illegalen Inhalte angepasst werden.

29 Ferner gibt es zweifellos Anliegen des öffentlichen Interesses im Zusammenhang mit Inhalten, die zwar nicht unbedingt illegal, aber dennoch potenziell schädlich sind, wie beispielsweise Falschnachrichten oder jugendgefährdende Inhalte. Der Schwerpunkt dieser Mitteilung liegt allerdings auf der Erkennung und Entfernung illegaler Inhalte.

3.Erkennung und Meldung illegaler Inhalte

In diesem Abschnitt wird dargelegt, was Online-Plattformen, zuständige Behörden und Nutzer tun sollten, um illegale Inhalte schnell und effizient zu erkennen.

Online-Plattformen können auf viele verschiedene Arten und durch unterschiedliche Kanäle Kenntnis von illegalen Inhalten erlangen. Solche Meldekanäle sind i) Gerichtsurteile und Verwaltungsverfügungen, ii) Hinweise von zuständigen Behörden (z. B. Strafverfolgungsbehörden), spezialisierten „vertrauenswürdigen Hinweisgebern“, Inhabern von Rechten des geistigen Eigentums oder normalen Nutzern sowie iii) eigene Ermittlungen oder Kenntnisse der Plattform selbst.

Zusätzlich zur Erfüllung ihrer Rechtspflichten, die sich aus dem EU-Recht und aus nationalem Recht ergeben, und zusätzlich zur Wahrnehmung ihrer Sorgfaltspflichten sollten Online-Plattformen als Teil ihrer Verantwortlichkeiten ein sicheres Online-Umfeld für die Nutzer gewährleisten, das eine kriminelle oder anderweitig illegale Ausnutzung erschwert und von Straftaten und anderen rechtsverletzenden Handlungen abschreckt bzw. diesen vorbeugt.

4.Gerichte und zuständige Behörden

30 Im Einklang mit den Rechtsvorschriften der EU und der Mitgliedstaaten können die nationalen Gerichte und – in bestimmten Fällen – die zuständigen Behörden bindende Weisungen erteilen oder Verwaltungsentscheidungen treffen, sodass Online-Plattformen illegale Inhalte entfernen oder den Zugang dazu sperren müssen.

Angesichts der Tatsache, dass die rasche Entfernung illegalen Materials häufig von wesentlicher Bedeutung ist, um eine weitere Verbreitung und größere Schäden zu vermeiden, sollten Online-Plattformen außerdem in der Lage sein, schnell über mögliche Maßnahmen in Bezug auf illegale Online-Inhalte zu entscheiden, ohne sich dabei auf eine Gerichts- oder Verwaltungsentscheidung stützen zu müssen, insbesondere dann, wenn eine Strafverfolgungsbehörde die mutmaßlich illegalen Inhalte ermittelt und den Plattformen mitgeteilt hat. Gleichzeitig sollten Online-Plattformen angemessene Sicherheitsvorkehrungen bei der Wahrnehmung ihrer diesbezüglichen Verantwortung treffen, um das Recht der Nutzer auf wirksamen Rechtsbehelf zu gewährleisten.

31 Online-Plattformen sollten daher über die erforderlichen Ressourcen verfügen, um den rechtlichen Rahmen, in dem sie tätig sind, zu erfassen. Ferner sollten sie eng mit den Strafverfolgungsbehörden und gegebenenfalls anderen zuständigen Behörden zusammenarbeiten, indem sie insbesondere sicherstellen, dass sie zügig und erfolgreich zur raschen Entfernung illegaler Inhalte erreicht werden können, und indem sie die Strafverfolgungsbehörden gegebenenfalls auf Anzeichen rechtswidriger Online-Tätigkeiten hinweisen. Um Doppelarbeit und Mehrfachmeldungen zu vermeiden, wodurch die Effizienz und Wirksamkeit des Verfahrens zur Entfernung von Inhalten verringern würde, sollten sich die Strafverfolgungsbehörden und sonstigen zuständigen Behörden im Übrigen nach besten Kräften um eine Zusammenarbeit bei der Festlegung leistungsfähiger digitaler Schnittstellen bemühen, die eine schnelle und zuverlässige Übermittlung von Meldungen erleichtern und eine effiziente Ermittlung und Meldung illegaler Inhalte gewährleisten. Für das ordnungsgemäße Funktionieren einer solchen Zusammenarbeit ist es entscheidend, dass sowohl die Plattformen als auch die Behörden Kontaktstellen einrichten.

32 Für terroristische Inhalte wurde eine EU-Meldestelle für Internetinhalte (EU Internet Referral Unit, EU-IRU) bei Europol eingerichtet, bei der Sicherheitsexperten terroristische Inhalte prüfen und den Online-Plattformen melden (einige Mitgliedstaaten haben allerdings ihre eigenen nationalen IRUs).

Online-Plattformen sollten ihre Zusammenarbeit mit den zuständigen Behörden in den Mitgliedstaaten systematisch verbessern. Gleichzeitig sollten die Mitgliedstaaten dafür sorgen, dass die Gerichte in der Lage sind, wirksam gegen illegale Online-Inhalte vorzugehen, sowie dass die (grenzüberschreitende) Zusammenarbeit zwischen den Behörden gestärkt wird.

Online-Plattformen und Strafverfolgungsbehörden oder sonstige zuständige Behörden sollten wirksame Kontaktstellen in der EU einrichten und gegebenenfalls leistungsfähige digitale Schnittstellen festlegen, um ihr Zusammenwirken zu erleichtern.

Plattformen und Strafverfolgungsbehörden werden ferner aufgefordert, technische Schnittstellen zu entwickeln, die ihnen eine wirksamere Zusammenarbeit im gesamten Politikgestaltungszyklus in Bezug auf Online-Inhalte ermöglichen. Auch die Zusammenarbeit mit den technischen Akteuren kann bei der Entwicklung wirksamer, technisch solider Lösungen im Zusammenhang mit dieser Herausforderung von Vorteil sein.

5.Meldungen

6.Vertrauenswürdige Hinweisgeber

Die Entfernung illegaler Online-Inhalte erfolgt schneller und zuverlässiger auf Online-Plattformen, die Mechanismen zur Vereinfachung eines privilegierten Zugangs für Hinweisgeber, die auf Grundlage ihres besonderen Fachwissens mögliche illegale Inhalte auf einer Website melden, eingerichtet haben. Dabei handelt es sich um „vertrauenswürdige Hinweisgeber“ (sogenannte „trusted flaggers“), d. h. spezialisierte Einrichtungen mit besonderen Fachkenntnissen in der Ermittlung illegaler Inhalte sowie spezielle Strukturen zur Erkennung und Ermittlung derartiger Online-Inhalte.

Im Vergleich zu herkömmlichen Nutzern kann von vertrauenswürdigen Hinweisgebern erwartet werden, dass sie über Fachwissen verfügen und bei ihrer Arbeit hohen Qualitätsstandards entsprechen, was zu einer höheren Qualität der Meldungen und rascheren Entfernung der Inhalte führen sollte. Online-Plattformen sind aufgefordert, bestehende Netze vertrauenswürdiger Hinweisgeber zu nutzen. Im Falle terroristischer Inhalte beispielsweise hat die Meldestelle für Internetinhalte bei Europol die nötige Sachkenntnis, um zu beurteilen, ob es sich bei bestimmten Materialien um terroristische und gewalttätige extremistische Online-Inhalte handelt, und sie setzt diese Fachkompetenz neben ihrer Rolle in der Strafverfolgung auch als vertrauenswürdiger Hinweisgeber ein. Das INHOPE-Meldestellennetz zur Meldung von Material über sexuellen Kindesmissbrauch ist ein weiteres Beispiel für einen vertrauenswürdigen Hinweisgeber. Im Falle von illegalen Hassbotschaften haben sich Organisationen der Zivilgesellschaft oder halböffentliche Stellen auf die Ermittlung und Meldung illegaler rassistischer und fremdenfeindlicher Online-Inhalte spezialisiert.

Zur Gewährleistung einer hohen Qualität der Meldungen und einer schnelleren Entfernung illegaler Inhalte könnte die Branche auf EU-Ebene Kriterien basierend auf der Achtung der Grundrechte und der demokratischen Werte vereinbaren. Dies kann durch Selbstregulierungsmechanismen oder innerhalb der EU durch einen Normungsrahmen erreicht werden, nach dem eine bestimmte Einrichtung als vertrauenswürdiger Hinweisgeber eingestuft werden kann. Dieser sollte genügend Flexibilität bieten, um den inhaltlichen Merkmalen und der Rolle des vertrauenswürdigen Hinweisgebers Rechnung zu tragen. Weitere derartige Kriterien könnten u. a. interne Schulungsstandards, Verfahrensstandards und Qualitätssicherung sowie rechtliche Schutzvorkehrungen im Hinblick auf Unabhängigkeit, Interessenkonflikte sowie den Schutz der Privatsphäre und personenbezogener Daten umfassen. Diese Schutzvorkehrungen sind von besonderer Bedeutung für die begrenzte Zahl von Fällen, in denen Plattformen möglicherweise infolge einer Meldung durch einen vertrauenswürdigen Hinweisgeber Inhalte entfernen, ohne zuvor selbst die Rechtmäßigkeit des Inhalts geprüft zu haben. In diesen begrenzten Fällen könnten auch vertrauenswürdige Hinweisgeber anhand dieser Kriterien geprüft werden. Mithilfe eines Zertifizierungssystems könnte der vertrauenswürdige Status bescheinigt werden. In allen Fällen sollten entsprechend den Erläuterungen in Abschnitt 4.3 ausreichende Schutzvorkehrungen eingerichtet werden, um einen Missbrauch des Systems zu verhindern.

Die zuständigen Behörden sollten gegebenenfalls die Möglichkeit zur Beteiligung an den Meldeverfahren der vertrauenswürdigen Hinweisgeber erhalten.

Es muss ein ausgewogenes Verhältnis zwischen der Gewährleistung einer hohen Qualität der Meldungen vonseiten der vertrauenswürdigen Hinweisgeber, dem Umfang der zusätzlichen Maßnahmen, die Unternehmen in Verbindung mit den vertrauenswürdigen Hinweisgebern ergreifen würden, und der Gewährleistung dieser Qualitätsstandards erzielt werden. Bei Verstößen gegen die im Rahmen des Mechanismus der vertrauenswürdigen Hinweisgeber geltenden Standards sollte der Status des vertrauenswürdigen Hinweisgebers entzogen werden.

Die Kommission befürwortet eine enge Zusammenarbeit zwischen Online-Plattformen und vertrauenswürdigen Hinweisgebern. Die Plattform sollte Meldungen von vertrauenswürdigen Hinweisgebern im Schnellverfahren bearbeiten können. Bei dieser Zusammenarbeit sollte ein Informationsaustausch erfolgen, um das Verfahren zur Entfernung von Inhalten zu bewerten und im Laufe der Zeit zu verbessern.

Die Kommission wird insbesondere im Rahmen des Dialogs mit den relevanten Interessenträgern die Möglichkeiten zur Vereinbarung EU-weiter Kriterien für vertrauenswürdige Hinweisgeber weiter prüfen.

7.Meldungen durch die Nutzer

Zur wirksamen Bekämpfung illegaler Online-Inhalte sollten die Nutzer in die Lage versetzt werden, Online-Plattformen auf illegale Inhalte hinzuweisen, und sie sollten die Gewissheit haben, dass auf gerechtfertigte Meldungen eine rasche Prüfung und Reaktion folgt.

Online-Plattformen sollten einen leicht zugänglichen und benutzerfreundlichen Mechanismus einführen, der Nutzern die Meldung von als rechtswidrig anzusehenden Inhalten auf den Plattformen erlaubt.

Sind die Inhalte öffentlich zugänglich, sollte auch der Meldemechanismus der Öffentlichkeit ohne vorherige Anmeldung als Nutzer zur Verfügung stehen. Um die Bewertung potenziell illegaler Inhalte effizienter und genauer zu machen, sollte ein solcher Mechanismus eine einfache Meldung auf elektronischem Wege ermöglichen.

Mithilfe der von der Kommission vorgeschlagenen Überarbeitung der Richtlinie über audiovisuelle Mediendienste sollen Videoplattformanbieter verpflichtet werden, Mechanismen einzurichten und zu betreiben, mit denen die Nutzer audiovisuelle Inhalte, die die körperliche, geistige oder sittliche Entwicklung von Minderjährigen beeinträchtigen können, sowie Inhalte, die zu Gewalt oder Hass aufstacheln, melden können.

8.Gewährleistung einer hohen Qualität der Meldungen

Online-Plattformen sollten wirksame Mechanismen einrichten, die die Übermittlung von Meldungen erleichtern, die hinreichend genau und begründet sind, sodass die Plattformen rasch und fundiert über etwaige Folgemaßnahmen entscheiden können. Diese sollten Meldungen mit einer Erläuterung der Gründe, aus denen der Hinweisgeber die Inhalte als illegal erachtet, sowie eine eindeutige Angabe des Fundorts der potenziell illegalen Inhalte (z. B. die URL-Adresse) ermöglichen.

Derartige Meldemechanismen sollten gut sichtbar, leicht zugänglich, benutzerfreundlich und kontextgebunden sein. Ferner sollten sie die einfache Meldung unterschiedlicher Inhaltsarten erlauben (z. B. durch Auswahl aus aufgelisteten Kategorien von Gründen, aus denen die Inhalte als illegal erachtet werden). Sofern dies technisch machbar ist, sollte z. B. die unmittelbare Meldung, wenn der Nutzer zum ersten Mal auf das Material stößt, oder eine erneute Anmeldung mit vorhandenen Nutzerdaten ermöglicht werden.

Solche hinreichend begründeten und detaillierte Meldungen ermöglichen es der Plattform, illegale Inhalte schnell zu finden, eine sachkundige Beurteilung der Rechtswidrigkeit der Inhalte vorzunehmen und gegebenenfalls unverzüglich tätig zu werden. Die Detailgenauigkeit, die für zügige Entscheidungen der Plattformen in voller Kenntnis der Sachlage erforderlich ist, kann je nach Art der Inhalte sehr unterschiedlich sein.

Die Nutzer sollten sich in der Regel bei der Meldung von Inhalten, die sie als illegal erachten, nicht identifizieren müssen, es sei denn, dies ist erforderlich, um die Rechtmäßigkeit des Inhalts zu ermitteln (z. B. zur Bestätigung der Rechte am geistigen Eigentum (IPR)). Dies gilt insbesondere dann, wenn möglicherweise ihre Sicherheit gefährdet ist oder wenn die Preisgabe der Identität rechtliche Folgen haben kann. Die Nutzer sollten ermutigt werden, ihre Meldungen über vertrauenswürdige Hinweisgeber zu machen, wenn sie ihre Anonymität gegenüber den Plattformen wahren wollen.

Hinweisgeber sollten jedoch die Möglichkeit haben, ihre Kontaktdaten bei der Meldung freiwillig zu übermitteln, damit die Online-Plattform um ergänzende Informationen bitten oder den Hinweisgeber über die geplanten Folgemaßnahmen unterrichten kann. In diesem Fall sollte der Hinweisgeber eine Eingangsbestätigung und eine Mitteilung über die Folgemaßnahmen zu der Meldung erhalten.

Durch eine Eingangsbestätigung wird nicht nur verhindert, dass der Hinweisgeber prüfen muss, ob infolge seiner Meldung Maßnahmen ergriffen wurden, sondern sie kann auch als Beweismittel in gerichtlichen oder außergerichtlichen Verfahren im Einklang mit den dafür geltenden Verfahrensvorschriften dienen.

9.Proaktive Maßnahmen von Online-Plattformen

10.Proaktive Maßnahmen und Haftungsausschluss

Online-Plattformen sollten – in Anbetracht ihrer zentralen Rolle und Fähigkeiten und der damit verbundenen Verantwortlichkeiten – wirksame proaktive Maßnahmen ergreifen, um illegale Online-Inhalte zu erkennen und zu entfernen, statt sich nur darauf zu beschränken, auf eingegangene Meldungen zu reagieren. Darüber hinaus ist es für bestimmte Kategorien illegaler Inhalte unter Umständen nicht möglich, die Gefahr eines ernsten Schadens im angestrebten Umfang zu verringern, ohne dass Online-Plattformen solche proaktiven Maßnahme ergreifen.

Die Kommission ist der Auffassung, dass solche freiwilligen, proaktiven Maßnahmen nicht automatisch dazu führen, dass eine Online-Plattform den Haftungsausschluss nach Artikel 14 der Richtlinie über den elektronischen Geschäftsverkehr nicht in Anspruch nehmen kann.

Erstens gilt dieser Haftungsausschluss nur für die Anbieter von Hostingdiensten, die die Voraussetzungen des Artikels 14 der Richtlinie erfüllen, d. h. deren Tätigkeit in der Speicherung von Informationen auf Antrag Dritter besteht und die keine aktive Rolle spielen, die ihnen eine Kenntnis oder Kontrolle über diese Informationen verschafft 33 . 

In Erwägungsgrund 38 des Vorschlags der Kommission für eine Richtlinie über das Urheberrecht im digitalen Binnenmarkt vom 14. September 2016 heißt es in diesem Zusammenhang: „Nach Artikel 14 [der Richtlinie über den elektronischen Geschäftsverkehr] ist zu überprüfen, ob sich der Diensteanbieter aktiv daran beteiligt, beispielsweise die Präsentation der hochgeladenen Werke oder Schutzgegenstände zu optimieren oder sie bekannt zu machen, unabhängig davon, mit welchen Mitteln dies geschieht“.

Wie der Gerichtshof in der Rechtssache L’Oréal gegen eBay speziell mit Bezug auf Artikel 14 der Richtlinie über den elektronischen Geschäftsverkehr erläuterte, „kann der bloße Umstand, dass [eine Online-Plattform] die Verkaufsangebote auf [ihrem] Server speichert, die Modalitäten für [ihren] Dienst festlegt, für diesen eine Vergütung erhält und [ihren] Kunden Auskünfte allgemeiner Art erteilt, nicht dazu führen, dass die in [Artikel 14 der Richtlinie über den elektronischen Geschäftsverkehr] hinsichtlich der Verantwortlichkeit festgelegten Ausnahmen auf sie keine Anwendung finden 34 . Wie der Gerichtshof ferner urteilte, tritt diese Folge allerdings dann ein, wenn „diese [Online-Plattform] hingegen Hilfestellung geleistet [hat], die u. a. darin bestand, die Präsentation der betreffenden Verkaufsangebote zu optimieren oder diese Angebote zu bewerben 35 .

Dies legt den Schluss nahe, dass der bloße Umstand, dass eine Online-Plattform bestimmte Maßnahmen im Zusammenhang mit der Erbringung ihrer Dienstleistungen im Allgemeinen ergreift, nicht zwangsläufig bedeutet, dass sie in Bezug auf die einzelnen Inhalte, die sie speichert, eine aktive Rolle spielt und dass der Haftungsausschluss aus diesem Grund keine Anwendung auf die Online-Plattform findet. Nach Ansicht der Kommission können und sollten solche Maßnahmen auch proaktive Maßnahmen zur Erkennung und Entfernung illegaler Inhalte einschließen, insbesondere wenn diese Maßnahmen im Rahmen der Anwendung der Modalitäten für den Dienst der Online-Plattform getroffen werden. Dies steht im Einklang mit dem Gleichgewicht zwischen den verschiedenen Interessen, die die Richtlinie über den elektronischen Geschäftsverkehr erreicht werden soll 36 . Sie weist darauf hin, dass es im Interesse aller beteiligten Parteien liegt, rasch und zuverlässig wirkende Verfahren zur Entfernung unerlaubter Informationen und zur Sperrung des Zugangs zu ihnen anzunehmen und umzusetzen 37 . Obwohl in dieser Richtlinie ausgeschlossen wird, dass Online-Plattformen allgemein verpflichtet werden können, aktiv nach Umständen zu forschen, die auf eine rechtswidrige Tätigkeit hinweisen 38 , wird die Bedeutung freiwilliger Maßnahmen doch anerkannt. 39  

Zweitens findet gemäß Artikel 14 der Richtlinie über den elektronischen Geschäftsverkehr die Ausnahme von der Haftung auf in den Geltungsbereich dieser Bestimmung fallende Anbieter nur Anwendung, sofern zwei Voraussetzungen erfüllt sind: a) Sie haben keine tatsächliche Kenntnis von der rechtswidrigen Tätigkeit oder Information, und, in Bezug auf Schadenersatzansprüche, sind sie sich auch keiner Tatsachen oder Umstände bewusst, aus denen die rechtswidrige Tätigkeit oder Information offensichtlich wird, oder b) sie werden, sobald sie diese Kenntnis oder dieses Bewusstsein erlangen, unverzüglich tätig, um die Information zu entfernen oder den Zugang zu ihr zu sperren.

Der Gerichtshof hat klargestellt, dass diese Voraussetzungen „alle Fälle erfassen, in denen sich die [Online-Plattform] in der einen oder anderen Weise [etwaiger Tatsachen oder Umstände, auf deren Grundlage ein sorgfältiger Wirtschaftsteilnehmer die in Rede stehende Rechtswidrigkeit hätte feststellen müssen] bewusst war” und dass damit u. a. – neben einer Anzeige durch einen Dritten – auch die Situation erfasst ist, in der die Plattform „aufgrund einer aus eigenem Antrieb vorgenommenen Prüfung feststellt, dass eine rechtswidrige Tätigkeit oder Information vorliegt 40 . 

Daraus folgt, dass von einer Online-Plattform ergriffene proaktive Maßnahmen zur Erkennung und Entfernung illegaler Inhalte dazu führen können, dass diese Plattform Kenntnis von rechtswidrigen Tätigkeiten oder Informationen erlangt oder sich dieser bewusst wird, was wiederum dazu führen könnte, dass sie den Haftungsausschluss nach Artikel 14 Absatz 1 Buchstabe a der Richtlinie über den elektronischen Geschäftsverkehr nicht in Anspruch nehmen kann. In solchen Fällen hat die Online-Plattform allerdings weiterhin die Möglichkeit, unverzüglich tätig zu werden und die betreffenden Informationen zu entfernen oder den Zugang zu ihnen sperren, sobald ihr rechtswidrige Tätigkeiten bekannt oder bewusst werden. In diesem Fall findet der Haftungsausschluss nach Artikel 14 Absatz 1 Buchstabe b weiterhin auf die Online-Plattform Anwendung. Daher sollten Bedenken in Bezug auf den Verlust des Haftungsausschlusses die wirksame proaktive Anwendung der freiwilligen Maßnahmen, die durch diese Mitteilung aktiv gefördert werden sollen, nicht berühren oder ausschließen.

11.Nutzung von Technologie zur Erkennung illegaler Inhalte

Angesichts der Menge des über Online-Plattformen vermittelten Materials sowie des technologischen Fortschritts bei der Informationsverarbeitung und Maschinenintelligenz wird die Nutzung automatischer Erkennungs- und Filtertechnologien zu einem immer wichtigeren Instrument für die Bekämpfung illegaler Online-Inhalte. Viele große Plattformen nutzen mittlerweile eine Form des Algorithmenabgleichs, gestützt auf ein breites Spektrum von Technologien, das von der reinen Metadaten-Filterung bis zur Streuspeicherung (Hashing) und Zuordnung eines Hashwerts zu Inhalten (Fingerprinting) reicht.

In der Richtlinie über den elektronischen Geschäftsverkehr wird klargestellt, dass die Haftungsbestimmungen die Entwicklung und wirksame Anwendung technischer Schutz- und Erkennungssysteme und durch die Digitaltechnik ermöglichter technischer Überwachungsgeräte nicht berühren. 41 Wie die Richtlinie ferner klarstellt, muss diese Anwendung jedoch innerhalb der Grenzen der geltenden EU- und nationalen Rechtsvorschriften – insbesondere in Bezug auf den Schutz der Privatsphäre und der personenbezogenen Daten sowie das Verbot der Auferlegung allgemeiner Überwachungspflichten durch die Mitgliedstaaten – erfolgen 42 .

Durch sektorspezifische Rechtsakte können verbindliche Regeln festgelegt werden, die Online-Plattform z. B. zu Maßnahmen im Bereich des Urheberrechts verpflichten, um zur Erkennung und Entfernung illegaler Inhalte beizutragen, auch wenn sie den Haftungsausschluss nach Artikel 14 der Richtlinie über den elektronischen Geschäftsverkehr in Anspruch nehmen können.

Ganz allgemein wird die Nutzung und Weiterentwicklung derartiger Technologien gefördert, insbesondere wenn es um ernste Schäden geht, wie in den Schlussfolgerungen des Europäischen Rates vom 22. Juni 2017 43 gefordert. Automatische Instrumente und Filter können verwendet werden, um möglicherweise rechtsverletzende Inhalte zu identifizieren, und die private und öffentliche Forschung macht Fortschritte bei der Entwicklung solcher Instrumente. So hat sich beispielsweise im Bereich des Urheberrechts die automatische Inhaltserkennung seit mehreren Jahren als wirksames Instrument erwiesen.

Die Kommission unterstützt die weitere Forschung und innovative Konzepte, die über den aktuellen Stand der Technik hinausweisen, mit dem Ziel, die Genauigkeit der technischen Mittel zur Ermittlung illegaler Inhalte zu verbessern 44 . Sie fordert ferner die Industrie auf, eine wirksame Verbreitung von Innovationen zu gewährleisten, die zu größerer Effizienz und Wirksamkeit der automatischen Erkennungsverfahren beitragen können.

In den meisten Fällen ist die derzeit beste Branchenpraxis die Nutzung automatischer Instrumente zur Eingrenzung strittiger Inhalte, damit sie von menschlichen Experten geprüft werden können, die dann möglicherweise den illegalen Charakter derartiger Inhalte bewerten müssen. Dieser Grundsatz der Beteiligung des Menschen („human-in-the-loop principle“) ist im Allgemeinen ein wichtiger Bestandteil automatischer Verfahren, mit denen der illegale Charakter von Inhalten bestimmt werden soll, vor allem auf Gebieten mit hoher Fehlerrate oder wenn der Gesamtkontext betrachtet werden muss. 

Die Kommission ist der Auffassung, dass proaktive Maßnahmen, die von den unter Artikel 14 der Richtlinie über den elektronischen Geschäftsverkehr fallenden Online-Plattformen getroffen werden, um illegale Inhalte erkennen und entfernen zu können – u. a. durch den Einsatz von automatischen Instrumenten und Instrumenten, die gewährleisten sollen, dass zuvor entfernte Inhalte nicht erneut hochgeladen werden können – an und für sich nicht zum Verlust des Haftungsausschlusses führen.

Vor allem muss das Ergreifen solcher Maßnahmen nicht dazu führen, dass die betreffende Online-Plattform eine aktive Rolle spielt, weshalb sie diesen Ausschluss nicht mehr in Anspruch nehmen könnte. Führt das Ergreifen solcher Maßnahmen dazu, dass der Online-Plattform illegale Tätigkeiten oder illegale Informationen tatsächlich bekannt oder bewusst werden, so muss sie die betreffenden illegalen Informationen unverzüglich entfernen oder den Zugang zu ihnen sperren, um die Voraussetzung für die Inanspruchnahme dieses Haftungsausschlusses weiterhin zu erfüllen.

Online-Plattformen sollten ihr Möglichstes tun, um illegale Online-Inhalte proaktiv zu erkennen, zu ermitteln und zu entfernen. Die Kommission ermutigt Online-Plattformen nachdrücklich dazu, freiwillige proaktive Maßnahmen zur Erkennung und Entfernung illegaler Inhalte anzuwenden und die Zusammenarbeit sowie die Investitionen in und den Einsatz von automatischen Erkennungstechnologien zu intensivieren.

12.Entfernung illegaler Inhalte 

45 Es ist im Interesse der gesamten Gesellschaft, dass Plattformen illegale Inhalte so rasch wie möglich entfernen. Gleichzeitig sollte die Entfernung solcher Inhalte nicht die Strafverfolgung oder andere Folgemaßnahmen wegen etwaiger zugrunde liegender Rechtsverstöße behindern. Der Austausch von Beweismitteln zwischen Behörden und Online-Plattformen ist in diesem Zusammenhang eine wichtige Vorgehensweise. Der grenzüberschreitende Zugang zu Beweismitteln sollte durch die bevorstehende Rechtsetzungsinitiative zu diesem Thema erleichtert werden. Die Entfernung illegaler Inhalte durch Plattformen sollte sich nicht auf strafrechtliche Ermittlungen oder die Verfolgung von Straftaten auf der Grundlage von Unionsrecht oder nationalem Recht auswirken.

Auch sollten solide Sicherheitsmechanismen zur Begrenzung der Gefahr der Entfernung legaler Inhalte verfügbar sein, unterstützt durch eine Reihe aussagekräftiger Transparenzverpflichtungen, um die Rechenschaftspflicht für die Entfernung zu erhöhen.

13.Sicherstellung der unverzüglichen Entfernung und Meldung von Straftaten an die Strafverfolgungsbehörden

Gemäß der Richtlinie über den elektronischen Geschäftsverkehr müssen Online-Plattformen „unverzüglich“ tätig werden, um illegale Inhalte zu entfernen, sobald er ihnen bekannt wird, um den Haftungsausschluss auch weiterhin in Anspruch nehmen zu können. Was dies in der Praxis bedeutet, hängt von den Besonderheiten des vorliegenden Falles ab, vor allem von der Art des illegalen Inhalts, der Richtigkeit der Meldung und dem potenziell verursachten Schaden.

In der Praxis erfordern unterschiedliche Arten von Inhalten unterschiedlich umfangreiche Hintergrundinformationen, um die Rechtmäßigkeit eines bestimmten Inhalts beurteilen zu können. So ist es einfacher, den illegalen Charakter von Material über Kindesmissbrauch zu bestimmen, die Feststellung der Rechtswidrigkeit von Verleumdungen erfordert dagegen im Allgemeinen eine sorgfältige Analyse des Kontextes, in dem sie getätigt wurden.

Wenn es um ernste Schäden geht, z. B. in Fällen der Anstiftung zu terroristischen Handlungen, ist die rasche Entfernung besonders wichtig und muss möglicherweise innerhalb bestimmter Fristen erfolgen.

Im Rahmen einiger freiwilliger Verfahren, beispielsweise des Verhaltenskodex für die Bekämpfung illegaler Hassbotschaften im Internet, wurden Richtziele für die Frist zur Entfernung festgelegt (im Verhaltenskodex 24 Stunden für die Mehrzahl der Fälle).

Die vollautomatische Löschung oder Sperrung von Inhalten kann dort infrage kommen, wo die Umstände wenig Zweifel an der Rechtswidrigkeit des Materials lassen, z. B. im Fall von Material, das aufgrund von Meldungen der Strafverfolgungsbehörden entfernt wird, oder von bekannten illegalen Inhalten, die zuvor aufgrund der Sicherheitsvorkehrungen nach Abschnitt 4.3 entfernt wurden.

Generell sollte die Entfernung aufgrund von Meldungen vertrauenswürdiger Hinweisgeber angesichts der Qualität und Genauigkeit der Angaben in der Meldung und des vertrauenswürdigen Status der Hinweisgeber schneller in Angriff genommen werden.

In Fällen, in denen aufgrund der Verletzung von Rechten des geistigen Eigentums ein wirtschaftlicher Schaden entstehen könnte, sind die potenziellen wirtschaftlichen Schäden möglicherweise eng damit verbunden, wie schnell der Inhalt entfernt wird.

Wenn die Plattformen eindeutig melden, wieviel Zeit für die Bearbeitung von Anträgen auf Entfernung, aufgeschlüsselt nach Art der Inhalte, aufgewendet wurde, erleichtert dies die Bewertung der Schnelligkeit der ergriffenen Maßnahmen und die umfassende Rechenschaftspflicht der Plattformen wird erhöht. 

In bestimmten Fällen und vor allem, wenn es für Online-Plattformen schwierig ist, die Rechtmäßigkeit eines bestimmten Inhalts zu beurteilen und es sich um eine möglicherweise strittige Entscheidung handelt, könnten sie Zweifelsfälle einem Dritten vorlegen und sich beraten lassen. Selbstverwaltungseinrichtungen oder die zuständigen Behörden können diese Rolle in den Mitgliedstaaten übernehmen. Als Teil der verstärkten Zusammenarbeit zwischen Online-Plattformen und zuständigen Behörden wird eine solche Zusammenarbeit nachdrücklich empfohlen.

46 Schließlich sollten Online-Plattformen stets die Strafverfolgungsbehörden einschalten, wenn sie Hinweise auf Straftaten oder sonstige Verstöße erhalten oder auf Belege dafür stoßen, damit die zuständigen Behörden alarmiert sind und ermitteln bzw. Einzelpersonen, die solche Inhalte generieren, verfolgen können, oder wenn sie feststellen, dass im Bereich der organisierten Kriminalität und des Terrorismus agierende Gruppen die Dienste missbrauchen. Dabei sollten sie den geltenden Rechtsvorschriften, darunter der Verordnung (EU) 2016/679 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, nachkommen. Dies kann auch in Bezug auf Angebote und den Verkauf von Produkten und Geschäftspraktiken, die nicht mit dem EU-Recht konform sind, gelten.

Die Notwendigkeit der Zusammenarbeit mit den Strafverfolgungsbehörden bei der Ermittlung und Verfolgung von Straftaten kann in einigen Fällen auch dazu führen, dass Plattformen darauf verzichten, die illegalen Inhalte zu entfernen, wenn dies im Rahmen einer spezifischen laufenden Ermittlung erforderlich ist, wobei dies unter genauer Überwachung durch die nationalen Behörden und unter uneingeschränkter Einhaltung der nationalen Strafverfahrensvorschriften erfolgt.

47 48 49 Die Strafverfolgungsbehörden sollten die notwendigen Kapazitäten aufbauen, um auf diese Meldungen hin geeignete Maßnahmen treffen zu können. Ein Beispiel für vorbildliche Verfahren in Bezug auf die Kontaktstellen ist das bei Europol eingerichtete SIRIUS-Portal zur Unterstützung der Mitgliedstaaten bei den Online-Ermittlungen im Bereich der Terrorismusbekämpfung, das auch die Zusammenarbeit zwischen Plattformen und den Strafverfolgungsbehörden in der EU erleichtert.

Gemäß Artikel 14 der Richtlinie über den elektronischen Geschäftsverkehr müssen Online-Plattformen illegale Inhalte unverzüglich entfernen, sobald sie Bewusstsein von diesen Inhalten erlangen, wenn sie von der Haftung befreit werden wollen. Es ist vor allem wichtig, illegale Inhalte, durch die schwerer Schaden entstehen kann, rasch zu entfernen, z. B. wenn es um die Anstiftung zu terroristischen Handlungen geht. Die Fristen und Verfahren für die Entfernung der verschiedenen Formen illegaler Inhalte sollten in Transparenzberichten klar genannt werden.

Die Frage fester Fristen für die Entfernung wird weiter von der Kommission geprüft.

Beweise für Straftaten, die im Zusammenhang mit der Entfernung illegaler Inhalte erlangt werden, müssen an die Strafverfolgungsbehörden übermittelt werden, sofern dies mit den Anforderungen der Verordnung (EU) 2016/679, insbesondere den rechtlich zulässigen Gründen für die Verarbeitung personenbezogener Daten, im Einklang steht.

14.Verstärkte Transparenz 

15.Transparenz in Bezug auf die Politik der Online-Plattformen zu Plattforminhalten

Die Frage, ob Inhalte legal oder illegal sind, ist durch EU- und nationale Rechtsvorschriften geregelt. Gleichzeitig können die Online-Plattformen in ihren Nutzungsbedingungen bestimmte Arten von Inhalten als unerwünscht oder anstößig einstufen.

50 Online-Plattformen sollten ihre Politik zu Plattforminhalten in ihren Nutzungsbedingungen genau darlegen und ihre Nutzer unmissverständlich darüber informieren. In diesen Nutzungsbedingungen sollten nicht nur die Politik für die Entfernung von Inhalten oder die Sperrung des Zugangs dazu, sondern auch die Sicherheitsvorkehrungen festgelegt werden, die gewährleisten, dass aufgrund inhaltsbezogener Maßnahmen nicht überzogen viele Inhalte entfernt werden. Vor allem sollte in den Nutzungsbedingungen von Online-Plattformen klar dargelegt werden, welche Möglichkeiten die Nutzer haben, im Rahmen einer verbesserten Transparenz der allgemeinen Politik der Plattform für die Entfernung von Inhalten die Entscheidungen über die Entfernung von Inhalten anzufechten. Dies dürfte dazu beitragen, die möglichen negativen Auswirkungen in Bezug auf das Grundrecht auf freie Meinungsäußerung und Informationsfreiheit der Nutzer zu verringern.

Online-Plattformen sollten in ihren Nutzungsbedingungen ihre Politik zu Inhalten klar, leicht verständlich und ausreichend detailliert erläutern. Darin sollte sowohl die Behandlung illegaler Inhalte als auch von Inhalten, die nicht den Nutzungsbedingungen der Plattform genügen, dargelegt werden. Alle Beschränkungen in Bezug auf die Art der Inhalte, die auf einer bestimmten Plattform zulässig sind, sollten klar formuliert und ihren Nutzern mitgeteilt werden. Diese Erläuterung sollte sich auch auf die geltenden Verfahren für die Anfechtung der Entscheidungen über die Entfernung von Inhalten, einschließlich der von vertrauenswürdigen Hinweisgebern ausgelösten Entfernung, erstrecken.

16.Transparenz in Bezug auf Melde- und Abhilfeverfahren

Transparenzberichte sollten auch die Ergebnisse der Anwendung der Politik der Plattform für die Inhaltsverwaltung umfassen.

Online-Plattformen sollten Transparenzberichte veröffentlichen, die ausreichend detaillierte Angaben zu Anzahl und Art der eingegangenen Meldungen und den ergriffenen Maßnahmen sowie dazu, wieviel Zeit für die Verarbeitung aufgewendet wurde, und zur Quelle der Meldung enthalten 51 . Diese Berichte sollten ferner Informationen über Gegendarstellungen (falls zutreffend) und die Reaktion darauf enthalten. Die Kommission regt an, diese Informationen regelmäßig zu veröffentlichen, mindestens jedoch einmal jährlich.

Unter gebührender Berücksichtigung inhaltsspezifischer Unterschiede wäre eine gewisse Standardisierung dieser Transparenzberichte im gesamten digitalen Binnenmarkt wünschenswert. Dadurch würde eine bessere Überwachung ermöglicht, die elektronische Aggregierung solcher Informationen erleichtert und dazu beigetragen, unnötige Hindernisse bei der grenzüberschreitenden Erbringung von Hostingdiensten zu vermeiden.

Besondere Aufmerksamkeit sollte kleineren Online-Plattformen und KMU gewidmet werden, damit sie in die Lage versetzt werden, solche Transparenzdaten zur Verfügung zu stellen, und alle unterstützenden Tätigkeiten, beispielsweise die Standardisierung, sollten sicherstellen, dass der Verwaltungsaufwand auf ein Minimum begrenzt wird.

Die Kommission wird im strukturierten Dialog mit der Industrie weiter prüfen, wie groß das Potenzial der Standardisierung in Bezug auf die Meldeverfahren und die Transparenzberichte über Systeme für die Entfernung von Inhalten und die Ergebnisse ist.

17.Sicherheitsvorkehrungen gegen die überzogene Entfernung und den Missbrauch des Systems

Unverzügliches Handeln, darunter Maßnahmen zum Filtern von Inhalten beim Hochladen oder die automatisierte Erkennung, durch die sichergestellt werden soll, dass illegale Inhalte unverzüglich entfernt werden, vor allem, wenn die Inhalte nicht von Menschen geprüft werden, kann sich auf die Genauigkeit der Entscheidung auswirken und u. a. die Gefahr bergen, dass legale Inhalte entfernt werden. Daher ist es wichtig, dafür zu sorgen, dass ausreichende Sicherheitsvorkehrungen vorhanden sind, damit irrtümlich entfernte Inhalte wieder eingestellt werden können.

18.Anfechtung von Meldungen

Im Allgemeinen sollten diejenigen, die den Inhalt bereitgestellt haben, die Möglichkeit erhalten, diese Entscheidung durch eine Gegendarstellung anzufechten. Dies gilt auch, wenn die Löschung von Inhalten automatisiert wurde.

So müssen beispielsweise gemäß Artikel 28a des Vorschlags zur Änderung der Richtlinie über audiovisuelle Mediendienste die Mitgliedstaaten dafür sorgen, dass Beschwerde- und Rechtsbehelfsmechanismen zur Beilegung von Streitigkeiten zwischen Nutzern und Videoplattformen bezüglich der Anwendung der von diesen Plattformen zu treffenden geeigneten Maßnahmen zur Verfügung stehen.

Enthält die Gegendarstellung berechtigte Gründe für die Annahme, dass die gemeldeten Tätigkeiten oder Informationen nicht illegal sind, sollte der Betreiber der Plattform, ungeachtet der Nutzungsbedingungen der Plattform, den entfernten Inhalt unverzüglich wiederherstellen oder dem Nutzer gestatten, ihn erneut hochzuladen.

Die Möglichkeit, diese Entscheidungen anzufechten, dürfte zu einem Rückgang der nicht gerechtfertigten Entfernung legaler Inhalte führen und könnte außerdem Beweismaterial für die außergerichtliche Streitbeilegung oder gerichtliche Einspruchsverfahren liefern.

Unter bestimmten Umständen wäre die Unterrichtung der Inhalteanbieter und/oder eine Gegendarstellung nicht angemessen – insbesondere in den Fällen, in denen dies Einfluss auf die Ermittlungsbefugnisse der Behörden der Mitgliedstaaten in Bezug auf die Verhütung, Ermittlung und Verfolgung von Straftaten haben könnte, etwa im Fall von Material über sexuellen Missbrauch von Kindern.

Online-Plattformen sollten einfache Gegendarstellungsverfahren anbieten. Wird eine Gegendarstellung eingereicht, sollten Online-Plattformen antworten und im Falle einer ablehnenden Entscheidung die Gründe hierfür angeben. Soweit dies in dem betreffenden Mitgliedstaat möglich ist, wird den Plattformen empfohlen, die Einschaltung von Stellen für die außergerichtliche Beilegung von Streitigkeiten über Gegendarstellungen zu gestatten.

19.Maßnahmen gegen bösgläubige Meldungen und Gegendarstellungen

52 Gleichzeitig können Melde- und Abhilfeverfahren manchmal durch schlechte Praktiken oder bösgläubig missbraucht werden. Diese Praktiken sollten nachdrücklich abgestellt werden, beispielsweise indem die Meldungen von Hinweisgebern, die einen hohen Prozentsatz ungültiger Meldungen senden oder eine große Anzahl von Gegendarstellungen erhalten, nachrangig behandelt werden oder ihnen der Status des vertrauenswürdigen Hinweisgebers entzogen wird, nach bewährten und transparenten Kriterien. Diese Maßnahmen sollten ebenfalls deutlich in den Nutzungsbedingungen einer Online-Plattform beschrieben werden und Teil der allgemeinen Transparenzberichte von Online-Plattformen sein, um die öffentliche Rechenschaftspflicht zu verbessern. Ähnliche Maßnahmen sollten in Bezug auf missbräuchliche Gegendarstellungen eingeführt werden.

20.Verhinderung des erneuten Auftauchens illegaler Inhalte

Illegale Inhalte, die ermittelt und entfernt wurden, sollten nicht erneut im Netz auftauchen. Die effiziente und wirksame Verhinderung des erneuten Auftauchens auf der Grundlage bestehender bewährter Verfahren sowie angemessener Sicherheitsvorkehrungen ist für ein gut funktionierendes System von grundlegender Bedeutung. Um zu verhindern, dass illegales Material plattformübergreifend verbreitet wird, ist eine engere Zusammenarbeit zwischen den Anbietern von Online-Diensten erforderlich Dabei sind die geltenden Wettbewerbsvorschriften uneingeschränkt zu achten. Es ist auch wichtig, die Zusammenarbeit der Strafverfolgungsbehörden mit kleinen, weniger widerstandsfähigen Unternehmen zu stärken, die die bevorzugte Plattform für Straftäter und sonstige Personen, die online rechtsverletzenden Tätigkeiten nachgehen, werden könnten, wenn sie als weniger gut geschützt als andere Plattformen eingeschätzt werden.

21.Maßnahmen gegen Wiederholungstäter

53 Um zu vermeiden, dass illegale Inhalte erneut auftauchen, weil Nutzer rechtsverletzende Inhalte der gleichen Art immer wieder posten, haben viele Online-Plattformen bereits Maßnahmen gegen Wiederholungstäter ergriffen, beispielsweise die Aussetzung oder Kündigung der Konten oder die „heimliche“ Sperrung (shadow banning).

Online-Plattformen sollten Maßnahmen ergreifen, die Nutzer davon abhalten, illegale Inhalte der gleichen Art wiederholt hochzuladen und sich zum Ziel setzen, die Verbreitung illegaler Inhalte wirksam zu unterbinden.

Dies sollte auch dann gelten, wenn es sich um denselben Rechtsverletzer handelt und der wesentliche Inhalt der gleichen Art ist und, wo dies gerechtfertigt ist, der Nutzer umgehend über die eingegangene(n) Meldung(en) sowie über die bevorstehende Aussetzung oder Kündigung informiert wurde. Dies würde es dem Nutzer ermöglichen, die Entscheidung anzufechten, und den Zugang zu Rechtsmitteln gegen die Maßnahme erleichtern, wenn dies nach dem Vertrag zwischen dem Nutzer und der Plattform und geltendem Recht zulässig ist. Auch in solchen Fällen muss die Verarbeitung personenbezogener Daten unter uneingeschränkter Wahrung der einschlägigen Datenschutzbestimmungen erfolgen.

Auch hier sollte der Anbieter der Inhalte keine Meldung oder Mitteilung erhalten, wenn dies Einfluss auf die Ermittlungsbefugnisse der Behörden der Mitgliedstaaten in Bezug auf die Verhütung, Ermittlung und Verfolgung von Straftaten haben könnte, sofern es hierfür die erforderliche Rechtsgrundlage gibt.

22.Automatische Filter für erneutes Hochladen

Neben den in Abschnitt 3.3 genannten Technologien zur Erkennung möglicherweise illegaler Inhalte können technologische Werkzeuge mit einem höheren Zuverlässigkeitsgrad genutzt werden, um Inhalte, die bereits ermittelt und als illegal eingestuft wurden, mit einem Fingerprint/Hashwert zu versehen und herauszufiltern (dauerhafte Entfernung). Die Kommission empfiehlt daher nachdrücklich die weitere Nutzung solcher Werkzeuge, vorbehaltlich der Sicherheitsvorkehrungen, beispielsweise Reversibilität und Ausnahmen (siehe unten).

Dies geschieht gegenwärtig mit der „Hash-Datenbank“, die in Bezug auf terroristische Inhalte im Rahmen des EU-Internetforums eingesetzt wird, oder im Bereich des Urheberrechts oder für Material über sexuellen Missbrauch von Kindern, aber auch für Produkte, die von Strafverfolgungsbehörden als nicht mit den einschlägigen Rechtsvorschriften konform markiert wurden. Diese Verfahren haben gute Ergebnisse gezeitigt. Ihre Wirksamkeit hängt jedoch davon ab, inwieweit die irrtümliche Ermittlung von Inhalten weiter begrenzt, kontextbewusste Entscheidungen erleichtert und die erforderlichen Reversibilitätsvorkehrungen geschaffen werden.

Basierend auf der Praxis auf dem Gebiet des Urheberrechts im Bereich der automatischen Inhaltserkennung werden im Vorschlag der Kommission über das Urheberrecht im digitalen Binnenmarkt beispielsweise derartige Technologien – sofern sie angemessen und verhältnismäßig sind – als eine von mehreren Möglichkeiten anerkannt, um zu verhindern, dass unlizenzierte Inhalte auf den relevanten Online-Diensten verfügbar sind.

Automatische Verfahren für die dauerhafte Entfernung sollten kontextbezogene Ausnahmen sowie Ausnahmen bei entfernten Inhalten, die geändert und mit den rechtlichen und sonstigen Anforderungen in Einklang gebracht wurde, ermöglichen. Umfang und Zeitplanung der kontextbezogenen Ausnahmen sollten die Art der Inhalte und der damit verbundenen Sicherheitsbedrohung sowie die Möglichkeit einer vorübergehenden Sperrung dieser Inhalte, bis eine eingehendere Beurteilung erfolgt ist, berücksichtigen.

Die Kommission fördert nachdrücklich die weitere Entwicklung und Nutzung automatischer Technologien, mit denen verhindert wird, dass illegale Inhalte erneut online auftauchen. 

Werden automatische Werkzeuge genutzt, um zu verhindern, dass illegale Inhalte wieder auftauchen, so sollte eine Reversibilitätsvorkehrung für irrtümliche Entscheidungen verfügbar sein und die Nutzung und Leistungsfähigkeit dieser Technologie sollten den Nutzungsbedingungen der Online-Plattform zu entnehmen sein.

Zugang zu Datenbanken, die genutzt werden, um Inhalte automatisch abzugleichen und erneut auftauchende illegale Inhalte zu erkennen, sollte allen Online-Plattformen offen stehen, sofern die Verarbeitungsprozesse mit den geltenden Rechtsvorschriften über den Schutz personenbezogener Daten und den Wettbewerb konform sind. Datenschutzbestimmungen von Unternehmen sollten transparente Informationen über die Verarbeitung personenbezogener Daten in solchen Datenbanken enthalten.

Online-Plattformen sollten ferner ihre Instrumente kontinuierlich aktualisieren, um zu gewährleisten, dass angesichts der sich verändernden Taktiken und des sich verändernden Verhaltens von Straftätern und anderen an rechtsverletzenden Tätigkeiten im Internet beteiligten Personen alle illegalen Inhalte erkannt werden. Für die Erkennung terroristischer Inhalte genutzte Werkzeuge sollten angepasst werden, um neue und ältere Inhalte aufzufinden und ihre rasche Überprüfung und Entfernung zu gewährleisten. Solche Inhalte sollten zu plattformübergreifenden Werkzeugen wie der Hash-Datenbank (die derzeit in Bezug auf terroristische Inhalte genutzt wird) hinzugefügt werden. Diese technologische Entwicklung sollte in Zusammenarbeit zwischen Online-Plattformen, den zuständigen Behörden und sonstigen Interessenträgern, einschließlich der Zivilgesellschaft, erfolgen.

23.Schlussfolgerungen

Die Zunahme der durch Online-Plattformen gehosteten illegalen Inhalte ist für unsere Gesellschaft schädlich und birgt u. a. Risiken für die Integrität, Würde und Gesundheit unserer Bürger. Wenn nicht angemessen dagegen vorgegangen wird, wird dieser Schaden auch das Vertrauen in digitale Dienste allgemein und letztlich in den digitalen Binnenmarkt – der ein entscheidender Motor für Innovation, Wachstum und die Schaffung von Arbeitsplätzen ist – beeinträchtigen. Selbst wenn diese Inhalte von Dritten erstellt und hochgeladen werden, wächst durch den ständig zunehmenden Einfluss von Online-Plattformen in der Gesellschaft, der sich aus deren Funktion als Zugangstor zu den Inhalten und Informationen ergibt, ihre Verantwortung gegenüber ihren Nutzern und der Gesellschaft. Daher sollten sie proaktiv illegale Inhalte entfernen, ihr Wiederauftauchen verhindern, wirksame Melde- und Abhilfeverfahren einführen, gut funktionierende Schnittstellen zu Dritten (z. B. vertrauenswürdigen Hinweisgebern) schaffen und Meldungen der nationalen Strafverfolgungsbehörden besonderen Vorrang einräumen. Wenn Online-Plattformen entscheiden, welche Inhalte nach geltendem Recht als illegal angesehen werden sollten, sollte ein System der angemessenen Kontrolle und Gegenkontrolle eingeführt werden.

Diese Mitteilung gibt Orientierungshilfe, enthält aber keine Änderung des geltenden Rechtsrahmens oder rechtsverbindliche Vorschriften; sie soll in erster Linie Online-Plattformen Orientierung im Hinblick darauf geben, wie sie ihrer Verantwortung bei der Bekämpfung von ihnen gehosteter illegaler Inhalte gerecht werden können. Sie zielt ferner darauf ab, die einheitliche Anwendung guter Verfahrensweisen in Bezug auf unterschiedliche Formen von illegalen Inhalten und eine engere Zusammenarbeit zwischen Plattformen und den zuständigen Behörden zu fördern. So wird ein europäischer Ansatz für die Bekämpfung illegaler Inhalte durch Online-Plattformen skizziert, der die Notwendigkeit, illegale Inhalte rasch und wirksam zu entfernen, und die Verhütung und Verfolgung von Straftaten mit der Wahrung des Rechts auf freie Meinungsäußerung im Internet verbindet. Diese Orientierungshilfe wird die laufenden sektorspezifischen Dialoge ergänzen und stärken.

Besonders wichtig ist es, zu gewährleisten, dass kleinere Online-Plattformen solche Verfahren anwenden können, und bei vielen Aspekten dieser Mitteilung wurde ihrem besonderen Bedarf Rechnung getragen. Dennoch wird die Kommission prüfen, welche weiteren Möglichkeiten bestehen, die Akzeptanz der Orientierungshilfe auch durch kleinere Plattformen zu steigern.

Der digitale Binnenmarkt erfordert kohärentere politische Antworten über geografische Grenzen hinweg. Mit dieser Mitteilung gibt die Kommission daher den Mitgliedstaaten als ersten Schritt gemeinsame Werkzeuge an die Hand, damit sie die gemeinsame Herausforderung der Entfernung illegaler Inhalte bewältigen können.

In der Absichtserklärung, die der Präsident der Europäischen Kommission am 13. September 2017 an den Präsidenten des Europäischen Parlaments und den Präsidenten des Rates der Europäischen Union gerichtet hat, um einen gemeinsamen Raum des Rechts und der Grundrechte auf der Grundlage gegenseitigen Vertrauens zu schaffen, wurden weitere Maßnahmen angekündigt, um die zügige und proaktive Erkennung und Entfernung illegaler Inhalte, die zu Hass, Gewalt und Terrorismus aufstacheln, sicherzustellen. Diese Mitteilung ist der erste Schritt in Bezug auf diese Maßnahmen. Die Kommission erwartet, dass Online-Plattformen in den kommenden Monaten, auch im Kontext der einschlägigen Dialoge, insbesondere auf dem Gebiet der Bekämpfung des Terrorismus und der illegalen Hassbotschaften, zügig handeln.

Die Kommission wird den Austausch und den Dialog mit Online-Plattformen und anderen einschlägigen Interessenträgern fortsetzen. Sie wird die Fortschritte überwachen und bewerten, ob zusätzliche Maßnahmen erforderlich sind, um die rasche und proaktive Erkennung und Entfernung illegaler Online-Inhalte zu gewährleisten, einschließlich eventueller Legislativmaßnahmen zur Ergänzung des bestehenden Rechtsrahmens. Diese Arbeiten werden bis Mai 2018 abgeschlossen sein.

(1)

Gegenwärtig werden jede Sekunde etwa 8000 Tweets auf Twitter veröffentlicht, 1000 Fotos auf Instagram eingestellt, 60 000 Suchanfragen auf Google gestellt und 70 000 Videos auf YouTube angeschaut. Siehe http://www.internetlivestats.com/.

(2)

Siehe Abschnitt 2.

(3)

Schlussfolgerungen des Europäischen Rates (ST 8 2017 INIT), 22. und 23. Juni 2017, Erklärung des G7-Treffens von Taormina, 26. Mai 2017, Erklärung der Staats- und Regierungschefs der G20, 8. Juli 2017.

(4)

Entschließung des Europäischen Parlaments vom 15. Juni 2017 zu Online-Plattformen (2016/2274(INI)).

(5)

Die hier vorgestellten Elemente beruhen auf einer breiten Reihe öffentlicher wie auch gezielter Konsultationen und Workshops mit Interessenträgern.

(6)

Siehe den jüngsten Bericht der Kommission an das Europäische Parlament und den Rat über die Bewertung der Umsetzung der Maßnahmen nach Artikel 25 der Richtlinie 2011/93/EU vom 13. Dezember 2011 zur Bekämpfung des sexuellen Missbrauchs und der sexuellen Ausbeutung von Kindern sowie der Kinderpornografie.

(7)

Nach der Richtlinie (EU) 2017/541 zur Terrorismusbekämpfung müssen die Mitgliedstaaten die erforderlichen Maßnahmen treffen, damit Inhalte, die zur Begehung terroristischer Handlungen auffordern, unverzüglich entfernt werden (Artikel 21). Auf diesem Gebiet entfernen die Plattformen im Rahmen des EU-Internetforums freiwillig terroristische Inhalte nach den Vorgaben der Europol-Meldestelle für Internetinhalte (EU-IRU).

(8)

COM(2016) 593.

(9)

COM(2016) 287.

(10)

http://ec.europa.eu/justice/fundamental-rights/files/hate_speech_code_of_conduct_en.pdf

(11)

http://europa.eu/rapid/press-release_IP-15-6243_de.htm

(12)

http://ec.europa.eu/transparency/regdoc/rep/3/2016/DE/3-2016-3724-DE-F1-1.PDF

(13)

ABl. C 250 vom 1.8.2017.

(14)

  http://ec.europa.eu/environment/cites/pdf/WAP_EN_WEB.pdf

(15)

SWD(2016) 163 vom 25.5.2016.

(16)

http://ec.europa.eu/internal_market/scoreboard/performance_by_governance_tool/consumer_protection_cooperation_network/index_en.htm

(17)

Mitteilung COM(2012) 196 final (Besseres Internet für Kinder (BIK)): https://ec.europa.eu/digital-single-market/en/alliance-better-protect-minors-online

(18)

COM(2016) 288 und COM(2017) 228.

(19)

  http://europa.eu/rapid/press-release_IP-17-1471_de.htm

(20)

http://ec.europa.eu/newsroom/just/item-detail.cfm?item_id=71674

(21)

http://europa.eu/rapid/press-release_IP-17-544_de.htm

(22)

http://www.inhope.org/Libraries/Annual_reports/INHOPE_Annual_Report_2015.sflb.ashx?download=true

(23)

E-Commerce-Richtlinie 2000/31/EG vom 8. Juni 2000.

(24)

Laut E-Commerce-Richtlinie können sich nur jene Anbieter von Diensten der Informationsgesellschaft auf den Haftungsausschluss der Artikel 12–14 berufen, die Vermittlungsdienste betreiben (d. h. deren Dienstleistungen ausschließlich die reine Durchleitung, das Caching und das Hosting umfassen). In Erwägungsgrund 42 wird klargestellt, dass diese Tätigkeiten, um unter den Haftungsausschluss zu fallen, „rein technischer, automatischer und passiver Art“ sein müssen, „was bedeutet, dass der Anbieter eines Dienstes der Informationsgesellschaft weder Kenntnis noch Kontrolle über die weitergeleitete oder gespeicherte Information besitzt“.

(25)

Die meisten Online-Plattformen bieten Hostingdienste für von ihren Nutzern hochgeladene Inhalte an.

(26)

Erwägungsgrund 40 der Richtlinie über den elektronischen Geschäftsverkehr. In dieser Mitteilung geht es schwerpunktmäßig um Anbieter von Hostingdiensten und nicht um Anbieter reiner Durchleitungsdienste (Artikel 12) und Cachingdienste (Artikel 13).

(27)

Ein Hostingdienst ist ein Dienst der Informationsgesellschaft, der in der Speicherung von durch einen Nutzer des Dienstes bereitgestellten Information besteht. Die Kategorie umfasst eine Vielzahl verschiedener Anbieter, von Online-Marktplätzen, Videoplattformen und sozialen Netzen über Websites für Blogs und Testberichte bis hin zu Leserkommentaren auf Nachrichtenseiten.

(28)

Zu den Bereichen, die durch EU-Recht geregelt werden oder geregelt werden sollen, gehören z. B. Aufstachelung zum Terrorismus, illegale Hassbotschaften, sexueller Kindesmissbrauch, Rechte des geistigen Eigentums, Produktsicherheit, Angebot und Verkauf von Lebensmitteln und Tabakerzeugnissen und gefälschten Arzneimitteln, Verbraucherschutzvorschriften und Produktsicherheitsvorkehrungen. Im Jahr 2016 erörterte die Kommission außerdem die Transparenzanforderungen an Online-Plattformen und ihre beruflichen Sorgfaltspflichten, die sich aus der Richtlinie 2005/29/EG über unlautere Geschäftspraktiken ergeben, wenn Plattformen gegenüber Verbrauchern als Händler auftreten.

(29)

Hierauf wird in Bezug auf audiovisuelle Inhalte daher im Vorschlag für die Überarbeitung der Richtlinie über audiovisuelle Mediendienste eingegangen.

(30)

In Artikel 14 Absatz 3 der Richtlinie über den elektronischen Geschäftsverkehr wird klargestellt, dass dieser Artikel die Möglichkeit unberührt lässt, dass „ein Gericht oder eine Verwaltungsbehörde nach den Rechtssystemen der Mitgliedstaaten vom Diensteanbieter verlangt, die Rechtsverletzung abzustellen oder zu verhindern“. In Artikel 11 der Richtlinie 2004/48/EG zur Durchsetzung der Rechte des geistigen Eigentums beispielsweise ist Folgendes festgelegt: „Unbeschadet des Artikels 8 Absatz 3 der Richtlinie 2001/29/EG stellen die Mitgliedstaaten ferner sicher, dass die Rechtsinhaber eine Anordnung gegen Mittelspersonen beantragen können, deren Dienste von einem Dritten zwecks Verletzung eines Rechts des geistigen Eigentums in Anspruch genommen werden.“

(31)

In Artikel 15 Absatz 2 der Richtlinie über den elektronischen Geschäftsverkehr ist Folgendes festgelegt: „Die Mitgliedstaaten können Anbieter von Diensten der Informationsgesellschaft dazu verpflichten, die zuständigen Behörden unverzüglich über mutmaßliche rechtswidrige Tätigkeiten oder Informationen der Nutzer ihres Dienstes zu unterrichten, oder dazu verpflichten, den zuständigen Behörden auf Verlangen Informationen zu übermitteln, anhand deren die Nutzer ihres Dienstes, mit denen sie Vereinbarungen über die Speicherung geschlossen haben, ermittelt werden können.“

(32)

Im Sinne von Artikel 5 der Richtlinie (EU) 2017/541 zur Terrorismusbekämpfung.

(33)

Erwägungsgrund 42 der Richtlinie über den elektronischen Geschäftsverkehr. Siehe Google France, Randnrn. 114 und 120; Urteil vom 12. Juli 2011, Rs. C-324/09, L’Oréal gegen eBay, Rn. 113.

(34)

Urteil eBay Randnr. 115.

(35)

Urteil eBay Randnr. 116.

(36)

Erwägungsgrund 41 der Richtlinie über den elektronischen Geschäftsverkehr.

(37)

Erwägungsgrund 40 der Richtlinie über den elektronischen Geschäftsverkehr.

(38)

Artikel 15 Absatz 1 der Richtlinie über den elektronischen Geschäftsverkehr.

(39)

Erwägungsgrund 40 der Richtlinie über den elektronischen Geschäftsverkehr.

(40)

Urteil eBay Randnrn. 120-121.

(41)

Erwägungsgrund 40 der Richtlinie über den elektronischen Geschäftsverkehr.

(42)

Erwägungsgrund 40 und Artikel 15 Absatz 1 der Richtlinie über den elektronischen Geschäftsverkehr.

(43)

http://www.consilium.europa.eu/de/press/press-releases/2017/06/22-euco-security-defence/

(44)

Die derzeitigen FuE-Anstrengungen seitens der Industrie sind auf die Entwicklung von Analyseinstrumenten ausgerichtet, die ein besseres Verständnis der natürlichen Sprache, der Informationskaskaden in sozialen Netzwerken, der Identifizierung von Informationsquellen sowie von Verbreitungsmustern und falschen Identitäten ermöglichen. Die Kommission hat zudem die einschlägige FuE durch die Finanzierung von Projekten zur Entwicklung von Instrumenten zur automatischen Überprüfung der Richtigkeit von nutzererzeugten Inhalten in sozialen Netzwerken unterstützt. Diese Instrumente können zur Ermittlung potenzieller Falschinformationen in Texten, Bildern oder Videos dienen und zur Zurückverfolgung von Falschmeldungen („fake news“) beitragen. Allerdings liegt die Feststellung des illegalen Charakters solcher Inhalte außerhalb ihrer derzeitigen funktionellen Möglichkeiten.

(45)

Weitere Informationen unter https://ec.europa.eu/info/law/better-regulation/initiatives/ares-2017-3896097_en und https://ec.europa.eu/home-affairs/what-we-do/policies/organized-crime-and-human-trafficking/e-evidence_en.

(46)

Artikel 6 Absatz 1 Buchstabe c in Verbindung mit Artikel 6 Absatz 4.

(47)

Artikel 15 Absatz 2 der Richtlinie über den elektronischen Geschäftsverkehr besagt Folgendes: „Die Mitgliedstaaten können Anbieter von Diensten der Informationsgesellschaft dazu verpflichten, die zuständigen Behörden unverzüglich über mutmaßliche rechtswidrige Tätigkeiten oder Informationen der Nutzer ihres Dienstes zu unterrichten, oder dazu verpflichten, den zuständigen Behörden auf Verlangen Informationen zu übermitteln, anhand deren die Nutzer ihres Dienstes, mit denen sie Vereinbarungen über die Speicherung geschlossen haben, ermittelt werden können.“

(48)

Shaping Internet Research Investigations Unified System.

(49)

Europol wird die Schaffung neuer einziger Anlaufstellen (SPOC) durch einschlägige Schulungen für die Strafverfolgungsbehörden in den Ländern, in denen noch keine SPOC eingerichtet wurden, weiter erleichtern.

(50)

Werden personenbezogene Daten verarbeitet, so müssen die Plattformen transparente Datenschutzbestimmungen gemäß Artikel 12 der Datenschutz-Grundverordnung gewährleisten.

(51)

Berichte über eigene Ermittlungen, allgemeine Nutzermeldungen, Meldungen von Strafverfolgungsbehörden usw.

(52)

Es gibt Anhaltspunkte dafür, dass solche Informationen von Wettbewerbern verwendet werden (Notice and Takedown in Everyday Practice, J. Urban et al., UC Berkeley 2016) und das Verfahren der automatisierten Erstellung von Meldungen missbraucht wurde, um künstlich geschaffene Inhalte zu verlinken (Google Transparency report).

(53)

Beim „Shadow banning“ werden Nutzer einer Online-Community gesperrt, ohne es zu bemerken.

Top