EUROPÄISCHE KOMMISSION
Brüssel, den 19.12.2023
COM(2023) 797 final
BERICHT DER KOMMISSION AN DAS EUROPÄISCHE PARLAMENT UND DEN RAT
über die Durchführung der Verordnung (EU) 2021/1232 des Europäischen Parlaments und des Rates vom 14. Juli 2021 über eine vorübergehende Ausnahme von bestimmten Vorschriften der Richtlinie 2002/58/EG hinsichtlich der Verwendung von Technologien durch Anbieter nummernunabhängiger interpersoneller Kommunikationsdienste zur Verarbeitung personenbezogener und anderer Daten zwecks Bekämpfung des sexuellen Missbrauchs von Kindern im Internet
INHALTSVERZEICHNIS
VERZEICHNIS DER BEGRIFFE UND ABKÜRZUNGEN
1.
EINLEITUNG
2.
DURCHFÜHRUNGSMAẞNAHMEN
2.1.
Verarbeitung personenbezogener Daten durch die Anbieter (Artikel 3 Buchstabe g Ziffer vii)
2.1.1.
Art und Menge der verarbeiteten Daten
2.1.2 Gründe für die Verarbeitung gemäß der Verordnung (EU) 2016/679
2.1.3.
Grund für die Übermittlung personenbezogener Daten in Länder außerhalb der Union gemäß Kapitel V der DSGVO, falls zutreffend
2.1.4.
Zahl der aufgedeckten Fälle von Missbrauch von Kindern im Internet, wobei zwischen Material über sexuellen Missbrauch von Kindern im Internet und Kontaktaufnahmen zu Kindern zu unterscheiden ist
2.1.5.
Beschwerden von Nutzern und Ergebnisse
2.1.6.
Die Anzahl und der Anteil der mit verschiedenen verwendeten Technologien aufgetretenen Fehler (falsch positive Ergebnisse)
2.1.7.
Maßnahmen zur Begrenzung der Fehlerquote und die erreichte Fehlerquote
2.1.8.
Die Aufbewahrungsregeln und die gemäß der DSGVO angewandten Datenschutzgarantien
2.1.9.
Namen der Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen und mit denen Daten gemäß dieser Verordnung ausgetauscht wurden.
2.2.
Statistiken der Mitgliedstaaten (Artikel 8)
2.2.1 Die Gesamtzahl der Berichte über festgestellten sexuellen Missbrauch von Kindern im Internet
2.2.2 Zahl der ermittelten Kinder
2.2.3 Zahl der verurteilten Täter
2.3.
Entwicklungen des technischen Fortschritts
2.3.1 Aufdeckung von bekanntem Material über sexuellen Missbrauch von Kindern im Internet
2.3.2 Aufdeckung von neuem Material über sexuellen Missbrauch von Kindern im Internet
2.3.3 Aufdeckung von Grooming
2.3.4 Neue Herausforderungen durch KI-Chatbots und Kunst-/Bildgeneratoren
3.
SCHLUSSFOLGERUNGEN
VERZEICHNIS DER BEGRIFFE UND ABKÜRZUNGEN
Begriff/Abkürzung
|
Begriffsbestimmung
|
KI
|
Künstliche Intelligenz
|
API
|
Anwendungsprogrammierschnittstellen (Application Programming Interfaces)
|
CG-CSAM
|
Computergeneriertes Material über sexuellen Missbrauch von Kindern
|
ChatGPT
|
ChatGPT (Chat Generative Pre-trained Transformer) ist eine Form der generativen KI. Es handelt sich um einen von OpenAI entwickelten Chatbot, der auf einem großen Sprachmodell basiert und es den Benutzern ermöglicht, eine Unterhaltung in Bezug auf die Länge, das Format, den Stil, den Grad der Detailgenauigkeit und die Sprache nach eigenen Wünschen zu verfeinern und zu lenken.
|
Klassifikatoren
|
Eine Form der künstlichen Intelligenz, ein Algorithmus, der Daten in bestimmte Klassen oder Kategorien einteilt.
|
Content Safety API-Klassifikator
|
Mithilfe des Google Content Safety API-Klassifikators können Milliarden von Bildern durch programmatischen Zugriff und künstliche Intelligenz klassifiziert und für die Überprüfung priorisiert werden.
|
CSA
|
Sexueller Missbrauch von Kindern
|
CSAI Match
|
CSAI Match ist eine von YouTube-Ingenieuren entwickelte Technologie zur Erkennung von erneut hochgeladenen Videos mit sexuellem Missbrauch von Kindern.
|
CSAM
|
Material über sexuellen Missbrauch von Kindern, z. B. Bilder und Videos, auf denen der sexuelle Missbrauch von Kindern dargestellt wird
|
Richtlinie über den sexuellen Missbrauch von Kindern
|
Richtlinie 2011/93/EU des Europäischen Parlaments und des Rates vom 13. Dezember 2011 zur Bekämpfung des sexuellen Missbrauchs und der sexuellen Ausbeutung von Kindern sowie der Kinderpornografie sowie zur Ersetzung des Rahmenbeschlusses 2004/68/JI des Rates (ABl. L 335 vom 17.12.2011, S. 1)
|
CSEA
|
Sexuelle Ausbeutung und sexueller Missbrauch von Kindern
|
Sexueller Missbrauch von Kindern im Internet
|
Der gemeinsame Begriff für die drei Arten des sexuellen Missbrauchs von Kindern gemäß der Richtlinie über den sexuellen Missbrauch von Kindern: Kinderpornografie, pornografische Darbietung und Kontaktaufnahme zu Kindern („Grooming“), wie in der Übergangsverordnung definiert (Artikel 2 Absatz 4).
|
EU
|
Europäische Union
|
DSGVO
|
Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung) (ABl. L 119 vom 4.5.2016, S. 1).
|
Grooming
|
Aufbauen einer Beziehung zu einem Kind mit der Absicht, sich sein Vertrauen zu erschleichen, um sich Zugang zu dem Kind zu verschaffen und es sexuell auszubeuten oder zu missbrauchen. Formell als Kontaktaufnahme zu Kindern gemäß Artikel 6 der Richtlinie über den sexuellen Missbrauch von Kindern bezeichnet.
|
Hash
|
Ein eindeutiger digitaler Code, der durch einen mathematischen Algorithmus („Hashing“) erzeugt wird und die Signatur oder den Hashwert dieser Datei darstellt.
|
Übergangsverordnung
|
Verordnung (EU) 2021/1232 des Europäischen Parlaments und des Rates vom 14. Juli 2021 über eine vorübergehende Ausnahme von bestimmten Vorschriften der Richtlinie 2002/58/EG hinsichtlich der Verwendung von Technologien durch Anbieter nummernunabhängiger interpersoneller Kommunikationsdienste zur Verarbeitung personenbezogener und anderer Daten zwecks Bekämpfung des sexuellen Missbrauchs von Kindern im Internet (ABl. L 274 vom 30.7.2021, S. 41)
|
LLM
|
Ein großes Sprachmodell (Large Language Model) ist eine Art künstliches Intelligenzmodell, das mit Deep-Learning-Algorithmen trainiert wurde, um große Mengen geschriebener menschlicher Sprache und Textdaten zu erkennen, zu erzeugen, zu übersetzen und/oder zusammenzufassen.
|
MD5
|
Algorithmus für die kryptographische Authentifizierung von Nachrichten für die Internetanwendung
|
Meta SSN++
|
Ein von Meta entwickeltes KI-Modell zur Erkennung nahezu genauer Duplikate.
|
NCMEC
|
National Centre for Missing and Exploited Children (Nationales Zentrum für vermisste und ausgebeutete Kinder) (private, gemeinnützige US-Organisation), an das Anbieter von Online-Diensten nach US-Recht Fälle von möglichem sexuellen Missbrauch von Kindern melden müssen, die sie in ihren Netzwerken entdecken.
|
PDQ und TMK+PDQF
|
Tools, die von Facebook zur Erkennung schädlicher Inhalte verwendet werden. PDQ ist eine Technologie für den Fotoabgleich, TMK+PDQF ist eine Technologie für den Videoabgleich.
|
PhotoDNA
|
Das am weitesten verbreitete Tool, das auf der Hashing-Technologie basiert, kostenlos verfügbar ist und einer Lizenzvereinbarung unterliegt, die speziell entwickelt wurde, um Missbrauch und die Verwendung für andere Zwecke als die Aufdeckung von sexuellem Missbrauch von Kindern zu verhindern.
|
1.EINLEITUNG
Nach Artikel 9 der Übergangsverordnung (im Folgenden auch „Verordnung“) ist die Kommission verpflichtet, auf der Grundlage der von den Anbietern interpersoneller Kommunikationsdienste (im Folgenden „Anbieter“) vorgelegten Berichte über die Verarbeitung personenbezogener Daten und der von den Mitgliedstaaten übermittelten Statistiken einen Bericht über die Durchführung der Verordnung zu erstellen. Gemäß der vorgenannten Bestimmung bewertet die Kommission in ihrem Durchführungsbericht insbesondere
a) die einschlägigen Bedingungen für die Verarbeitung relevanter personenbezogener Daten und sonstiger Daten, die gemäß der Verordnung verarbeitet werden,
b) die Verhältnismäßigkeit der in der Verordnung festgelegten Ausnahme, einschließlich einer Bewertung der von den Mitgliedstaaten gemäß Artikel 8 der Verordnung übermittelten Statistiken,
c) Entwicklungen des technischen Fortschritts in Bezug auf die unter die Verordnung fallenden Maßnahmen und das Ausmaß, in dem derartige Entwicklungen die Genauigkeit verbessern und die Zahl und das Verhältnis der Fehler (falsch positive Ergebnisse) verringern.
Dieser Bericht über die Durchführung der Übergangsverordnung stützt sich auf die Daten, die aus den Berichten der Anbieter und der Mitgliedstaaten gemäß Artikel 3 Absatz 1 Buchstabe g Ziffer vii bzw. Artikel 8 der Verordnung gewonnen wurden. Dabei wurden erhebliche Unterschiede in Bezug auf die Verfügbarkeit von Daten, die Art der erhobenen Daten und damit auch die Vergleichbarkeit der von den Anbietern und den Mitgliedstaaten erhobenen Daten deutlich. Da die Verordnung keine Vorlage für die Berichterstattung vorsieht, haben die Anbieter unterschiedliche Arten von Informationen übermittelt, die nicht unbedingt vergleichbar waren; die Kommissionsdienststellen haben daher Folgemaßnahmen ergriffen, um eine korrekte Auswertung der Daten zu gewährleisten. Die meisten Mitgliedstaaten waren nicht in der Lage, die Daten fristgerecht zu liefern, und eine Reihe von Mitgliedstaaten konnte bis zur Veröffentlichung dieses Berichts keine Daten übermitteln. Dies hatte erhebliche Auswirkungen auf den Zeitplan, die Vollständigkeit und den Nutzen des Berichts. Trotz der Bemühungen, die Kohärenz und Vergleichbarkeit der Daten zu gewährleisten, bestehen nach wie vor erhebliche Unterschiede, die in den folgenden Tabellen zum Ausdruck kommen, in denen auch nicht für alle Anbieter oder Mitgliedstaaten Daten zu allen Aspekten enthalten sind.
Der vorliegende Durchführungsbericht soll auf der Grundlage der verfügbaren Daten einen sachlichen Überblick über den Stand der Durchführung der Übergangsverordnung geben. Im Bericht werden keine Auslegungen der Verordnung vorgenommen und es wird nicht dazu Stellung genommen, wie die Verordnung in der Praxis ausgelegt und angewandt wird.
2.DURCHFÜHRUNGSMAẞNAHMEN
2.1.Verarbeitung personenbezogener Daten durch die Anbieter (Artikel 3 Buchstabe g Ziffer vii)
Artikel 3 Buchstabe g Ziffer vii der Übergangsverordnung legt die Bedingungen fest, unter denen Anbieter, die im Rahmen der darin enthaltenen Ausnahme tätig sind, bis zum 3. Februar 2022 und danach bis zum 31. Januar jedes Jahres einen Bericht über die in den Anwendungsbereich dieser Verordnung fallende Verarbeitung personenbezogener Daten veröffentlichen und der zuständigen Aufsichtsbehörde und der Kommission vorlegen müssen. Google, LinkedIn, Meta, Microsoft und X (ehemals Twitter) haben Berichte für die Jahre 2021 und 2022 vorgelegt.
2.1.1.Art und Menge der verarbeiteten Daten
Die Anbieter gaben an, sowohl Inhaltsdaten als auch Verkehrsdaten zu verarbeiten.
Als Inhaltsdaten, die zur Aufdeckung von sexuellem Missbrauch von Kindern im Internet verarbeitet werden, nannten alle genannten Anbieter Bilder und Videos. Dabei wurden hauptsächlich die Hash-Matching-Technologien PhotoDNA und MD5 verwendet, um Übereinstimmungen mit zuvor identifiziertem Material über sexuellen Missbrauch von Kindern festzustellen. Das Tool CSAI Match von Google wurde verwendet, um digitale Fingerabdrücke von Videos auf Plattformen zu erstellen und diese mit Dateien im Fingerabdruck-Repository von Google/YouTube (LinkedIn) zu vergleichen. Der Einsatz automatisierter Technologien (künstliche Intelligenz, maschinelles Lernen) und die Überprüfung durch Menschen wurden gleichermaßen berichtet (z. B. von Google). Google und LinkedIn bestätigten, dass sie auch Material über sexuellen Missbrauch von Kindern identifiziert haben, das nicht mit dem zuvor identifizierten Material übereinstimmte. Keiner der fünf Anbieter, die Daten zur Verfügung stellten, meldete Daten zur Erkennung von Kontaktaufnahmen zu Kindern durch Texterkennung im Rahmen der Ausnahmeregelung dieser Verordnung.
Hinsichtlich der erhobenen Verkehrsdaten und der jeweiligen Mengen der verschiedenen Arten von verarbeiteten Inhalts- und Verkehrsdaten unterscheiden sich die von den Anbietern gemeldeten Daten erheblich.
Die von den Anbietern gesammelten Verkehrsdaten, die in den CyberTipline-Berichten an das National Centre for Missing and Exploited Children (Nationales Zentrum für vermisste und ausgebeutete Kinder, im Folgenden „NCMEC“) enthalten sind, umfassen die folgenden Daten (alle oder eine Auswahl davon):
a)Nutzer-/Berichts-/Kontodaten (Google, LinkedIn, Microsoft, X),
b)Metadaten zu Inhalten/Transaktionsdaten (Google, LinkedIn, Microsoft),
c)Daten über potenzielle Opfer (Google),
d)Daten über Missbrauchsvorgänge (Google).
In Bezug auf die im Rahmen der Übergangsverordnung verarbeiteten Datenmengen berichtete LinkedIn, dass es zwischen dem 14. Juli und dem 31. Dezember 2021 8 Millionen Bilder und Videos aus der EU und im Jahr 2022 21 Millionen Bilder und 63 000 Videos aus der EU verarbeitet hat. Nach Angaben von Microsoft werden zwischen Juli und Dezember 2021 weltweit 8,9 Milliarden Bilder und Videos und im Jahr 2022 weltweit 12,3 Milliarden Inhalte für die Zwecke der Verordnung verarbeitet; da keine Zahlen für die EU vorlagen, ist es nicht möglich, für diesen Bericht Schlussfolgerungen zu ziehen. Die anderen Anbieter machten keine Angaben zur Menge der verarbeiteten Daten. Von den fünf meldenden Anbietern lieferte somit nur einer Daten in der geforderten Granularität.
Zur Veranschaulichung des Gesamtzusammenhangs gab das NCMEC an, im Jahr 2022 insgesamt 87,2 Millionen Bilder und Videos weltweit und 5,1 Millionen Bilder und Videos aus der EU erhalten zu haben; im Jahr 2021 waren es 84,8 Millionen Bilder und Videos weltweit und 1,8 Millionen Bilder und Videos aus der EU. Dabei handelt es sich nur um Material, das von einem Anbieter als potenzielles Material über sexuellen Missbrauch von Kindern identifiziert wurde, und daher nicht als Indikator für die Gesamtmenge der gemäß der Übergangsverordnung verarbeiteten Daten angesehen werden kann.
2.1.2 Gründe für die Verarbeitung gemäß der Verordnung (EU) 2016/679
Die Anbieter beriefen sich auf die folgenden spezifischen Gründe gemäß der Verordnung (EU) 2016/679 (im Folgenden „DSGVO“):
·Artikel 6 Absatz 1 Buchstabe d der DSGVO, d. h. die Verarbeitung ist erforderlich, um lebenswichtige Interessen von Kindern und Personen zu schützen, die Opfer von sexuellem Missbrauch von Kindern im Internet geworden sind (Google, Meta, X)
·Artikel 6 Absatz 1 Buchstabe e der DSGVO, d. h. die Verarbeitung ist für die Wahrnehmung von Aufgaben erforderlich, die im öffentlichen Interesse liegen (LinkedIn, Microsoft, Meta, X)
·Artikel 6 Absatz 1 Buchstabe f der DSGVO, d. h. die Verarbeitung ist zur Wahrung der berechtigten Interessen folgender Personen erforderlich:
I.des Anbieters zur Aufdeckung, Verhinderung oder sonstigen Bekämpfung des sexuellen Missbrauchs von Kindern im Internet im Rahmen seiner Dienste und zum Schutz anderer Nutzer, Kunden, Partner und der Öffentlichkeit vor derartigen illegalen Inhalten (Google, Meta);
II.der Opfer des sexuellen Missbrauchs von Kindern sowie der Organisation, an die der Anbieter den sexuellen Missbrauch von Kindern im Internet meldet (z. B. das NCMEC), um den sexuellen Missbrauch von Kindern im Internet aufzudecken, zu verhindern und aus seinen Diensten zu entfernen (Google).
2.1.3.Grund für die Übermittlung personenbezogener Daten in Länder außerhalb der Union gemäß Kapitel V der DSGVO, falls zutreffend
Alle Anbieter gaben an, Standardvertragsklauseln zu verwenden, die von der Kommission gemäß Artikel 46 Absatz 2 Buchstabe c der DSGVO genehmigt wurden. In Bezug auf die Übermittlung personenbezogener Daten an das NCMEC berief sich LinkedIn auch auf eine Ausnahme nach Artikel 49 Absatz 1 der DSGVO, soweit diese anwendbar ist.
2.1.4.Zahl der aufgedeckten Fälle von Missbrauch von Kindern im Internet, wobei zwischen Material über sexuellen Missbrauch von Kindern im Internet und Kontaktaufnahmen zu Kindern zu unterscheiden ist
Tabelle 1: Zahl der aufgedeckten Fälle von sexuellem Missbrauch von Kindern im Internet im Jahr 2021
Anbieter
|
Zahl der im Jahr 2021 aufgedeckten Fälle betreffend Material über sexuellen Kindesmissbrauch
|
Bemerkungen
|
Google
|
33 Google Chat-Konten
|
Dies bezieht sich auf die Anzahl der Google Chat-Konten von EU-Nutzern, bei denen im Zeitraum vom 2. August 2021 bis zum 31. Dezember 2021 mithilfe automatisierter Technologien sexueller Kindesmissbrauch im Internet festgestellt wurde. Zur Anzahl der identifizierten Inhalte wurden keine Angaben gemacht.
|
LinkedIn
|
31 Inhalte
|
31 Inhalte wurden durch manuelle Überprüfung als Material über sexuellen Missbrauch von Kindern im Internet bestätigt und dem NCMEC gemeldet; 6 Inhalte waren bekanntes Material über sexuellen Missbrauch von Kindern und die restlichen 25 waren unbekanntes Material über Kindesmissbrauch.
|
Meta
|
340 000 Konten
|
Anzahl der Konten, bei denen festgestellt wurde, dass sie zwischen dem 8. November 2021 und dem 31. Dezember 2021 mindestens ein Medium mit Material über sexuellen Missbrauch von Kindern in Nachrichten-Threads gesendet haben, an denen ein EU-Nutzer beteiligt war.
|
Microsoft
|
6 600 Inhalte
|
6 600 Inhalte (Bilder oder Videos) aus der Europäischen Union, die als Material über sexuellen Missbrauch von Kindern bestätigt wurden, von mehr als 20 000 Inhalten, die zwischen Juli 2021 und Dezember 2021 weltweit identifiziert wurden.
|
X (ehemals Twitter)
|
532 898 Konten
|
Konten (unklar, ob nur innerhalb der EU oder weltweit), die zwischen dem 2. August 2021 und dem 31. Dezember 2021 aufgrund von Verstößen gegen die Unternehmenspolitik von X bezüglich der sexuellen Ausbeutung von Kindern gesperrt wurden.
|
Im Fall von X geht aus den übermittelten Daten nicht hervor, ob es sich ausschließlich um Dienste handelt, die in den Anwendungsbereich der Übergangsverordnung fallen (nummernunabhängige interpersonelle Kommunikationsdienste), oder ob diese Zahl auch andere Dienste umfasst (z. B. Dienste der Informationsgesellschaft). Dies betrifft alle Daten für X in diesem Bericht.
Tabelle 2: Zahl der aufgedeckten Fälle von sexuellem Missbrauch von Kindern im Internet im Jahr 2022
Anbieter
|
Zahl der im Jahre 2022 aufgedeckten Fälle betreffend Material über sexuellen Missbrauch von Kindern
|
Bemerkungen
|
Google
|
2 045 Inhalte
|
Inhalte, die in 752 Google-Konten mittels automatisierter Technologien für EU-Nutzer identifiziert und an das NCMEC gemeldet wurden.
|
LinkedIn
|
2 Inhalte
|
LinkedIn hat 2 Bilder und 0 Videos gefunden, die als Material über sexuellen Missbrauch von Kindern im Internet bestätigt wurden.
|
Meta
|
6,6 Millionen Inhalte
|
Material über sexuellen Missbrauch von Kindern im Internet, das mithilfe der Medienabgleichstechnologie von Meta
in Nachrichten-Threads gefunden wurde, bei denen ein EU-Nutzer beteiligt war.
|
Microsoft
|
12 800 Inhalte
|
12 800 Inhalte (Bilder oder Videos) aus der EU, die als Material über den sexuellen Missbrauch von Kindern im Internet bestätigt wurden, von über 50 000 weltweit identifizierten Inhalten im Jahr 2022.
|
X (ehemals Twitter)
|
2 348 712 Konten
|
Konten (unklar, ob nur innerhalb der EU oder weltweit), die aufgrund von Verstößen gegen die Unternehmenspolitik von X bezüglich der sexuellen Ausbeutung von Kindern gesperrt wurden.
|
2.1.5.Beschwerden von Nutzern und Ergebnisse
Gemäß Artikel 3 Absatz 1 Buchstabe g Ziffer iv der Übergangsverordnung müssen die Anbieter geeignete Verfahren und Beschwerdemechanismen einführen, um sicherzustellen, dass die Nutzer bei ihnen Beschwerden einreichen können. Darüber hinaus enthält Artikel 5 der Verordnung Bestimmungen über Rechtsbehelfe.
Die Anbieter gaben an, dass sie solche internen Beschwerdeverfahren und -mechanismen für Nutzer eingeführt haben, deren Konten wegen der Verbreitung von Material über sexuellen Missbrauch von Kindern gesperrt und/oder deren Inhalte als solche entfernt wurden. Auf diese Weise können die Nutzer gegen die Sperrung/Entfernung vorgehen und ihren Fall auf Fehler überprüfen lassen.
Die Anbieter berichteten über Fälle, in denen sich Nutzer im Rahmen des internen Beschwerdemechanismus oder bei einer Justizbehörde über Angelegenheiten im Anwendungsbereich der Verordnung innerhalb der EU beschwert hatten, sowie über die Ergebnisse dieser Beschwerden. Mit Ausnahme von Microsoft (das in den Jahren 2021 und 2022 in beiden Kanälen keine Beschwerden meldete) hat kein Anbieter getrennte Statistiken für interne und gerichtliche Rechtsbehelfe vorgelegt; daher beziehen sich die folgenden Tabellen sowohl auf interne als auch auf gerichtliche Rechtsbehelfe.
Tabelle 3: Zahl der Fälle, in denen Nutzer Beschwerden über den internen Beschwerdemechanismus oder bei einer Justizbehörde eingereicht haben, und das Ergebnis dieser Beschwerden im Jahr 2021
Anbieter
|
Anzahl der Beschwerden von Nutzern
|
Anzahl der wiederhergestellten Konten
|
Anzahl der wiederhergestellten Inhalte
|
Bemerkungen
|
Google
|
8
|
0
|
n. a.
|
Gesperrte Google Chat-Konten wegen sexuellen Missbrauchs von Kindern im Internet, bei denen der Nutzer Beschwerde eingelegt hat: 8 Es wurden keine Konten wiederhergestellt.
|
LinkedIn
|
0
|
n. a.
|
n. a.
|
|
Meta
|
4 900
|
n. a.
|
207
|
4 900 Nutzer legten Beschwerde ein. Im Anschluss an das Beschwerdeverfahren wurden die Inhalte von 207 Nutzern wiederhergestellt und Sperrungen von Konten rückgängig gemacht.
|
Microsoft
|
0
|
n. a.
|
n. a.
|
|
X (ehemals Twitter)
|
ca. 90 000
|
ca. 3 000
|
n. a.
|
ca. 90 000 Beschwerden X hat ca. 3 000 dieser Konten wiederhergestellt.
|
Tabelle 4: Die Zahl der Fälle, in denen Nutzer Beschwerden über den internen Beschwerdemechanismus oder bei einer Justizbehörde eingereicht haben, und das Ergebnis dieser Beschwerden im Jahr 2022
Anbieter
|
Anzahl der Beschwerden von Nutzern
|
Anzahl der wiederhergestellten Konten
|
Anzahl der wiederhergestellten Inhalte
|
Bemerkungen
|
Google
|
378
|
0
|
n. a.
|
Gesperrte Google-Konten wegen sexuellen Missbrauchs von Kindern im Internet, bei denen der Nutzer Beschwerde eingelegt hat: 378 Es wurden keine Konten wiederhergestellt.
|
LinkedIn
|
0
|
n. a.
|
n. a.
|
|
Meta
|
29 000
|
n. a.
|
3 700
|
Nutzer legten Beschwerde gegen die Entfernung von rund 29 000 ihrer geteilten Inhalte ein. Im Anschluss an das Beschwerdeverfahren wurden rund 3 700 Inhalte wiederhergestellt und Sperrungen von Konten rückgängig gemacht.
|
Microsoft
|
0
|
n. a.
|
n. a.
|
|
X (ehemals Twitter)
|
ca. 430 000
|
ca. 4 000
|
n. a.
|
ca. 430 000 Beschwerden X hat ca. 4 000 dieser Konten wiederhergestellt.
|
2.1.6.Die Anzahl und der Anteil der mit verschiedenen verwendeten Technologien aufgetretenen Fehler (falsch positive Ergebnisse)
Nach Artikel 3 Absatz 1 Buchstabe e der Übergangsverordnung müssen die Anbieter sicherstellen, dass die verwendeten Technologien an sich hinreichend zuverlässig sind, da sie die Fehlerquote bei der Erkennung von Inhalten, die sexuellen Missbrauch von Kindern im Internet darstellen, weitestmöglich begrenzen.
In diesem Zusammenhang gaben die Anbieter an, dass sie nicht jede Technologie zur Aufdeckung von sexuellem Missbrauch von Kindern im Internet isoliert einsetzen. Vielmehr verfolgen sie einen mehrstufigen Ansatz zur Aufdeckung von sexuellem Missbrauch von Kindern im Internet, indem sie verschiedene Aufdeckungstechnologien kombinieren, um die Genauigkeit zu erhöhen. Um die Zahl der Fehler oder falsch positiven Ergebnisse zu reduzieren, ergänzen alle Anbieter diese durch eine Überprüfung durch einen Menschen. Die Anbieter machten keine Angaben zur Anzahl und zum Anteil der Fehler (falsch positive Ergebnisse) für die einzelnen verwendeten Technologien, sondern meldeten aggregierte Daten für alle verwendeten Technologien.
Die meisten Anbieter messen die Anzahl und den Anteil von Fehlern als Aufhebung von Durchsetzungsentscheidungen, d. h. als die allgemeine Wiederherstellungs-/Aufhebungsrate von Beschwerden (z. B. die Rate, mit der die Anbieter aufgrund einer Beschwerde eines Nutzers gesperrte Konten oder Inhalte wiederherstellen). Der von den Anbietern gewählte Ansatz entspricht nicht unbedingt der Definition von „falsch positiven“ Fällen in der Statistik.
Es wurden die folgenden Wiederherstellungs-/Aufhebungsraten nach Beschwerden gemeldet:
Tabelle 5: Wiederherstellungs-/Aufhebungsraten nach Beschwerden
|
2021*
|
2022
|
|
Anbieter
|
% der wiederher-gestellten Konten im Vergleich zur Anzahl der Beschwerden
|
% der wiederher-gestellten Konten im Vergleich zu gesperrten Konten
|
% der wiederher-gestellten Konten im Vergleich zur Anzahl der Beschwerden
|
% der wiederher-gestellten Konten im Vergleich zu gesperrten Konten
|
Bemerkungen
|
Google
|
0 % (0 gegenüber 8)
|
0 % (0 gegenüber 33)
|
0 % (0 gegenüber 378)
|
0 %
(siehe Bemerkungen)
|
Die Anzahl der gesperrten Konten wurde für 2022 nicht angegeben. Stattdessen wurde die Anzahl der identifizierten und an das NCMEC gemeldeten Inhalte (2045) angegeben. Nach der Beschwerde wurde kein Konto wiederhergestellt.
|
LinkedIn
|
0 %
|
0 %
|
0 %
|
0 %
|
Keine Beschwerden. Für den Zeitraum vom 13. Juli 2021 bis zum 31. Dezember 2021 meldete LinkedIn außerdem, dass von den 75 als potenzielles Material über sexuellen Kindesmissbrauch aus der EU überprüften Dateien 31 nach einer Überprüfung durch einen Menschen als Material über sexuellen Missbrauch bestätigt wurden. Für das Jahr 2022 legte LinkedIn keine derartigen Daten vor.
|
Meta
|
4,22 %
(207 gegenüber 4 900)
|
0,06 %
(207 gegenüber 340 000)
|
Siehe Bemerkungen
|
Siehe Bemerkungen
|
Es wurden keine Informationen zur Verfügung gestellt, um den Umfang, den Inhalt der Beschwerden und die Gründe für die Wiederherstellung genau zu bestimmen.
Die Daten für 2022 beziehen sich auf Inhalte und nicht auf Konten:
-Anzahl der gesperrten („beanstandeten“) Inhalte: 6,6 Mio.
-Anzahl der angefochtenen Inhalte: 29 000
-Anzahl der wiederhergestellten Inhalte: 3 700
Daher gilt:
-% der wiederhergestellten Inhalte im Vergleich zur Anzahl der Beschwerden: 12,8 % (3 700 gegenüber 29 000)
-% der wiederhergestellten Inhalte im Vergleich zur Anzahl der gesperrten Inhalte: 0,06 % (3 700 gegenüber 6,6 Millionen)
|
Microsoft
|
0 %
|
-
|
-
|
-
|
Unzureichende Daten für die Berechnung der Wiederherstellungs-/Aufhebungsrate nach Beschwerden. Für die insgesamt 17 Aufhebungen der ursprünglichen Entscheidung zur Inhaltsmoderation im Jahr 2022 wurden keine Angaben hinsichtlich der Gesamtzahl der Beschwerden vorgelegt.
|
X (ehemals Twitter)
|
1,43 %
(100 gegenüber 7 000)
|
0,06 %
(100 gegenüber 166 000)
|
2,17 %
(500 gegenüber 23 000)
|
0,10 %
(500 gegenüber 501 000)
|
Im zweiten Halbjahr 2021 wurden ca. 166 000 Nutzer wegen sexuellen Missbrauchs von Kindern über automatische Mechanismen gesperrt. Davon haben ca. 7 000 Nutzer Beschwerde eingelegt, was zu ca. 100 Entsperrungen geführt hat.
Im Jahr 2022 wurden 501 000 Nutzerkonten mithilfe automatischer Mechanismen aufgrund von sexuellem Missbrauch von Kindern gesperrt. Davon haben ca. 23 000 Nutzer Beschwerde eingelegt, was zu ca. 500 Entsperrungen geführt hat.
|
* Die Berichtszeiträume im Jahr 2021 sind je nach Anbieter unterschiedlich.
2.1.7.Maßnahmen zur Begrenzung der Fehlerquote und die erreichte Fehlerquote
Nach Artikel 3 Absatz 1 Buchstabe e der Übergangsverordnung müssen die eingesetzten Technologien hinreichend zuverlässig sein, und die Folgen gelegentlich auftretender Fehler müssen unverzüglich berichtigt werden. Darüber hinaus sind nach Artikel 3 Absatz 1 Buchstabe g Ziffer ii menschliche Aufsicht und erforderlichenfalls menschliche Eingriffe zu gewährleisten.
Alle Anbieter gaben an, einen mehrstufigen Ansatz zu verfolgen, um die Verbreitung von sexuellem Missbrauch von Kindern im Internet aufzudecken und zu bekämpfen. Dies umfasst den Einsatz von Hash-Matching-Technologien (einschließlich PhotoDNA) zur Aufdeckung von Material über sexuellen Missbrauch von Kindern in Kombination mit menschlicher Überprüfung zur Bestätigung, dass eine Mediendatei (Bild und Video) Material über sexuellen Missbrauch von Kindern enthält, sowie die menschliche Aufsicht über die Verarbeitung von Material über sexuellen Missbrauch von Kindern.
Die Anbieter gaben an, dass sie verschiedene Maßnahmen und Sicherheitsvorkehrungen anwenden, um die Fehlerrate bei der Aufdeckung, Meldung und Entfernung von Kindesmissbrauch im Internet zu begrenzen und zu verringern. Dazu gehören folgende Tätigkeiten (nicht erschöpfende Liste):
I.Überwachung und Qualitätsbewertung der Leistung von Tools zur Aufdeckung von sexuellem Missbrauch von Kindern, um sowohl die Genauigkeit (d. h. nur Aufdeckung von sexuellem Missbrauch von Kindern im Internet) als auch die Rückrufquote (d. h. kein Übersehen von sexuellem Missbrauch von Kindern im Internet auf ihren Plattformen) zu verbessern (Google, X),
II.menschliche Überprüfung und Aufsicht: Stichproben von Medien, die durch Hash-Matching-Technologien als Material über sexuellen Missbrauch von Kindern identifiziert wurden, werden von menschlichen Prüfern/geschulten Analysten überprüft (Google, LinkedIn, Meta, Microsoft),
III.Kennzeichnung und Überprüfung von Clustern mit hohem Aufkommen (Meta),
IV.Einführung zusätzlicher manueller Überprüfungsprozesse als ständige Hash-Qualitätskontrollen (LinkedIn, Microsoft),
V.Einsatz von menschlichen Prüfern, die unter Anleitung von Beratern eine spezielle Schulung zur Erkennung von Material über sexuellen Missbrauch von Kindern erhalten, um die Genauigkeit der menschlichen Prüfung zu gewährleisten (Google),
VI.regelmäßige Bewertung der Qualitätskontrollen menschlicher Prüfer und der vorgenommenen Bewertungen (Google, X),
VII.andere Qualitätskontrollverfahren zur Verringerung von Fehlern und zur sofortigen Korrektur, z. B. unabhängige Hash-Verifizierung (Google, LinkedIn), menschliche Überprüfung jedes Materials über sexuellen Missbrauch von Kindern vor der Meldung (Google),
VIII.Entwicklung und regelmäßige Überprüfung von Regelungen und Durchsetzungsstrategien durch Experten, die im Bereich des sexuellen Missbrauchs von Kindern im Internet spezialisiert sind,
IX.Überprüfung der Qualität der NCMEC-CyberTipline-Berichte und möglicher falsch positiver Ergebnisse (Google, LinkedIn, Meta, Microsoft, X).
2.1.8.Die Aufbewahrungsregeln und die gemäß der DSGVO angewandten Datenschutzgarantien
Gemäß Artikel 3 Absatz 1 Buchstaben h und i der Übergangsverordnung dürfen personenbezogene Daten nur für bestimmte Zwecke auf sichere Weise gespeichert werden, und die Dauer der Speicherung ist festgelegt. Darüber hinaus müssen die geltenden Anforderungen der DSGVO eingehalten werden.
Die Anbieter gaben an, über robuste Regelungen zur Datenaufbewahrung und Garantien für den Schutz personenbezogener Daten zu verfügen. Die Regelungen zur Datenaufbewahrung sind je nach Art der Daten unterschiedlich. In jedem Fall ist die Aufbewahrungsfrist auf einen Zeitraum begrenzt, der im Hinblick auf die Art der Daten und den Zweck der Verarbeitung angemessen ist, und die Daten werden nach Ablauf der Aufbewahrungsfrist gelöscht. Die Anbieter haben in ihren Datenschutzerklärungen und Dienst-/Nutzungsverträgen nähere Angaben zur Datenaufbewahrung gemacht.
Die meisten Anbieter (LinkedIn, Meta, Microsoft) wenden eine Aufbewahrungsfrist von 90 Tagen für Medien an, die nachweislich Material über sexuellen Missbrauch von Kindern enthalten, das in den Anwendungsbereich der Verordnung fällt. Während dieses Zeitraums wird Material, das als Material über sexuellen Missbrauch von Kindern bestätigt wurde, in einem separaten und sicheren Speicher aufbewahrt, der von spezialisierten Teams verwaltet wird (z. B. dem Team für Strafverfolgung und nationale Sicherheit von Microsoft). Das gespeicherte Material über den sexuellen Missbrauch von Kindern wird von diesen Speichersystemen automatisch nach 90 Tagen gelöscht, es sei denn, die Aufbewahrungsfrist wird aufgrund rechtmäßiger gerichtlicher Anträge verlängert, die in der Regel von Strafverfolgungsbehörden gestellt werden, die NCMEC-Berichten nachgehen.
Google hat mitgeteilt, dass Material über sexuellen Missbrauch von Kindern, das im Rahmen der Verordnung aufgedeckt wurde, nicht länger gespeichert wird, als es für die Zwecke der Verordnung unbedingt erforderlich ist, und auf keinen Fall länger als 12 Monate ab dem Zeitpunkt, zu dem das Material über sexuellen Missbrauch von Kindern aufgedeckt und gemeldet wurde, mit der Möglichkeit einer Verlängerung auf der Grundlage eines gültigen rechtlichen Antrags auf Aufbewahrung.
X (ehemals Twitter) gab an, Profildaten und -inhalte für die Dauer des Nutzerkontos und personenbezogene Daten, die bei der Nutzung des Dienstes erhoben werden, für maximal 18 Monate aufzubewahren. Im Falle der Deaktivierung eines Kontos durch den Nutzer werden die Daten in der Regel weitere 30 Tage von X aufbewahrt, danach wird das Konto gelöscht. Nutzerdaten im Zusammenhang mit Beschwerden und Regelverstößen, einschließlich Kontoinformationen von Zuwiderhandelnden (z. B. Identifikatoren, die zur Erstellung des Kontos verwendet wurden: E-Mail-Adresse oder Telefonnummer), werden unbestimmte Zeit aufbewahrt, um zu verhindern, dass Wiederholungstäter neue Konten erstellen, und um sicherzustellen, dass Zuwiderhandelnde nicht einfach die Löschungsfrist abwarten und dann erneut gegen Richtlinien von X verstoßen können.
Die von den Anbietern verwendeten Garantien für den Schutz personenbezogener Daten umfassen branchenübliche Maßnahmen (alle oder eine Auswahl), wie beispielsweise (nicht erschöpfende Liste):
I.Einsatz von Techniken zur De-Identifizierung, Pseudonymisierung und Anonymisierung von Daten (z. B. Maskierung, Hashing, differenzielle Privatsphäre) (Google, LinkedIn, Meta, Microsoft),
II.Bereitstellung nur von Hashwerten an Dritte zur Aufdeckung von sexuellem Missbrauch von Kindern im Internet (Google, LinkedIn),
III.Verwendung von Industriestandard-Verschlüsselung (Algorithmen und Protokolle) für Daten bei der Übertragung zwischen privater Infrastruktur und öffentlichen Netzen (Meta),
IV.Umsetzung von Strategien zur Daten-Governance/umfassenden Datenschutzprogrammen (X (ehemals Twitter), Google) und strikten internen Zugangsbeschränkungen zu Daten (Meta) (z. B. für Mitarbeiter, Auftragnehmer, Agenten, die die Informationen für die Verarbeitung benötigen), Verwendung von Zugriffskontrolllisten für Material über sexuellen Missbrauch von Kindern im Internet und Verbot von Hashing (Meta) sowie strenge vertragliche Vertraulichkeitsverpflichtungen für diejenigen, die Zugang haben,
V.Überprüfung von Strategien zur Anonymisierung und Daten-Governance, d. h. Durchführung von Datenschutzprüfungen, um potenzielle Risiken für den Schutz der Privatsphäre bei der Erhebung, Verarbeitung, Speicherung und Weitergabe personenbezogener Daten zu ermitteln, abzurufen und zu mindern, Überprüfung der Datenschutzpraktiken (Microsoft),
VI.Aufrechterhaltung von Reaktionsplänen für Sicherheitsvorfälle zur Überwachung, Erkennung und Behandlung potenzieller Sicherheitslücken und -vorfälle in der gesamten Infrastruktur (Google, Meta).
2.1.9.Namen der Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen und mit denen Daten gemäß dieser Verordnung ausgetauscht wurden.
In beiden Berichtszeiträumen (Juli/August 2021 bis Dezember 2021 und Januar 2022 bis Dezember 2022) haben alle Anbieter angegeben, die im Rahmen dieser Verordnung verarbeiteten Daten mit dem NCMEC auszutauschen. Alle meldenden Anbieter haben der Kommission gemäß Artikel 7 Absatz 1 der Übergangsverordnung auch mitgeteilt, dass sie Fälle von sexuellem Missbrauch von Kindern im Internet gemäß dieser Verordnung an NCMEC gemeldet haben.
2.2.Statistiken der Mitgliedstaaten (Artikel 8)
Die Mitgliedstaaten sind gemäß Artikel 8 Absatz 1 der Übergangsverordnung verpflichtet, Statistiken vorzulegen über
(a)die Gesamtzahl der Berichte über festgestellten sexuellen Missbrauch von Kindern im Internet, die den zuständigen nationalen Strafverfolgungsbehörden von Anbietern und Organisationen, die im öffentlichen Interesse gegen sexuellen Kindesmissbrauch vorgehen, übermittelt wurden, wobei zwischen der absoluten Zahl der Fälle und jenen Fällen, die mehrmals gemeldet werden, sowie nach der Art des Anbieters, in dessen Diensten sexueller Missbrauch von Kindern im Internet festgestellt wurde, unterschieden wird, sofern solche Daten vorhanden sind,
(b)die Zahl der Kinder, die im Rahmen von Maßnahmen gemäß Artikel 3 ermittelt wurden, aufgeschlüsselt nach Geschlecht,
(c)die Zahl der verurteilten Täter.
Die meisten Mitgliedstaaten haben zwar zumindest Teilinformationen übermittelt, die entsprechenden Datenerhebungs- und Berichterstattungssysteme waren jedoch in vielen Mitgliedstaaten noch nicht eingerichtet. Infolgedessen beziehen sich die Statistiken, soweit sie vorgelegt wurden, auf sehr unterschiedliche Berichtszeiträume und unterscheiden sich erheblich in ihrer Granularität. Einige Mitgliedstaaten haben jährliche Statistiken ab dem Datum des Inkrafttretens der Verordnung vorgelegt. Die meisten Mitgliedstaaten haben Daten für Kalenderjahre übermittelt, da sie möglicherweise technisch nicht in der Lage waren, die verlangten Statistiken nach Jahren ab dem Datum des Inkrafttretens der Verordnung aufzuschlüsseln. Einige wenige Mitgliedstaaten haben überhaupt keine Daten übermittelt.
Zu beachten ist auch, dass die statistischen Daten in einigen Fällen aus sogenannten aktuellen Datenbanken oder aus Journalisierungs- und Fallverwaltungssystemen stammen, d. h. nicht aus Statistiksystemen im eigentlichen Sinne. In einigen Fällen beruhen die Zahlen auf dynamischen Daten, d. h. die Daten sind nicht endgültig und können sich ändern. Änderungen ergeben sich z. B. je nach Zeitpunkt der Datenerhebung (z. B. in Slowenien und Dänemark), wenn mehr Ermittlungen und Gerichtsverfahren abgeschlossen werden.
In mehreren Mitgliedstaaten richten die zuständigen Behörden neue Abteilungen für die Untersuchung von Straftaten im Zusammenhang mit dem sexuellen Missbrauch von Kindern im Internet ein und schaffen eine zentrale Meldestelle für den sexuellen Missbrauch von Kindern im Internet (Lettland, Tschechien). Dies dürfte dazu beitragen, dass in Zukunft genauere Statistiken zur Verfügung stehen.
Deutschland erklärte, dass es keine Statistiken gemäß Artikel 8 Absatz 1 der Übergangsverordnung vorlegen konnte, da es seiner Ansicht nach keine Rechtsgrundlage für die freiwillige Aufdeckung hatte. Das Bundeskriminalamt (BKA) gibt jedoch auf seiner Website an, dass im Jahr 2022 insgesamt 89 844 Meldungen vom NCMEC eingegangen sind und dass das NCMEC 138 193 Meldungen an die deutschen Behörden weitergeleitet hat.
Drei Mitgliedstaaten (Malta, Portugal und Rumänien) haben keine Daten oder Begründungen für die Nichtberichterstattung gemäß dieser Bestimmung vorgelegt.
2.2.1 Die Gesamtzahl der Berichte über festgestellten sexuellen Missbrauch von Kindern im Internet
Die meisten Mitgliedstaaten haben gemäß Artikel 8 Absatz 1 Buchstabe a der Übergangsverordnung Statistiken über die Gesamtzahl der Meldungen von sexuellem Missbrauch von Kindern im Internet vorgelegt. Da die Mitgliedstaaten Daten für unterschiedliche Berichtszeiträume übermittelt haben, war es nicht möglich, eine Gesamtzahl der auf EU-Ebene eingegangenen Meldungen über festgestellten sexuellen Missbrauch von Kindern im Internet für einen bestimmten Zeitraum, z. B. den Zeitraum der Umsetzung der Verordnung, zu erheben.
Die Mitgliedstaaten gaben in der Regel die Gesamtzahl der Meldungen an, die die nationalen Strafverfolgungsbehörden von Anbietern oder anderen Organisationen, die im öffentlichen Interesse gegen den sexuellen Missbrauch von Kindern vorgehen, erhalten haben. Da die meisten in den USA ansässigen Anbieter an das NCMEC berichten, gaben die meisten Mitgliedstaaten an, die meisten oder alle Berichte vom NCMEC zu erhalten. Die Mitgliedstaaten machten keine Angaben zur Zahl der verfolgbaren Meldungen, d. h. der Meldungen, die für eine Ermittlung geeignet sind; einige gaben jedoch die Zahl der eingeleiteten Verfahren an, die deutlich niedriger ist. Die Diskrepanz zwischen den eingegangenen Meldungen und den untersuchten Fällen wurde auf verschiedene Gründe zurückgeführt, beispielsweise darauf, dass die Meldung zwar Material über sexuellen Missbrauch von Kindern enthielt, aber nicht genügend Informationen, um Ermittlungen einzuleiten, auf die Zusammenführung von Meldungen, wenn sich mehrere Meldungen auf einen bestimmten Verdächtigen bezogen, oder darauf, dass das Material zwar Ausbeutungssituationen zeigte, aber nach nationalem Recht nicht als strafbar eingestuft wurde. Darüber hinaus unterschieden die Mitgliedstaaten in den meisten Fällen nicht zwischen der absoluten Zahl der Fälle und den mehrfach gemeldeten Fällen. In den Fällen, in denen das NCMEC Berichte vorlegte, hatte das NCMEC die von den Anbietern erhaltenen Berichte bereits als „verfolgbar“ oder „informativ“ kategorisiert. Das NCMEC definiert eine verfolgbare Meldung als eine Meldung, die genügend Informationen enthält, um Ermittlungen einzuleiten. Dazu gehören in der Regel Benutzerdetails, Bilder und ein möglicher Standort. Die Meldung wird als „informativ“ eingestuft, wenn sie unzureichende Informationen enthält oder wenn das Bildmaterial als viral gilt und bereits mehrfach gemeldet wurde. Im Jahr 2022 stufte das NCMEC 49 % der Meldungen als „verfolgbar“ und 51 % als „informativ“ ein.
Nur sehr wenige Mitgliedstaaten haben die Art der Anbieter angegeben, bei denen der sexuelle Missbrauch von Kindern im Internet festgestellt wurde (z. B. Belgien, Tschechien, Estland, Frankreich und Polen), und nur ein Mitgliedstaat (Belgien) hat eine detaillierte Aufschlüsselung vorgelegt.
Slowenien gab an, dass es keine Zahlen zu Straftaten vorlegen kann, die nur aufgrund von Meldungen von Anbietern und Organisationen ermittelt werden, sondern nur Zahlen zu allen Ermittlungen wegen sexuellen Missbrauchs von Kindern im Internet, unabhängig von der Quelle der Informationen, die zur Einleitung der Ermittlungen geführt haben.
Tabelle 6: Gesamtzahl der von den Mitgliedstaaten gemeldeten Fälle von festgestelltem sexuellem Missbrauch von Kindern im Internet
Land
|
Berichtszeitraum
|
Gesamtzahl der Berichte über sexuellen Missbrauch von Kindern im Internet
|
Quelle der Meldungen
|
Bemerkungen
|
Österreich
|
2021 bis 2022
|
16 311
|
NCMEC
|
|
Belgien
|
1. August 2021 bis 31. Juli 2022
|
26 226
|
Berichte von Anbietern (soziale Medien) und der Child Focus Hotline
|
|
Bulgarien
|
2021 bis 2022
|
9 120
|
Anbieter und die INHOPE-Hotline über „Safenet“ und andere.
|
Davon betrafen 9 112 Warnmeldungen Webseiten mit Material über sexuellen Missbrauch von Kindern, die von bulgarischen Anbietern bereitgestellt wurden.
|
Kroatien
|
1. Januar 2021 bis 31. Oktober 2022
|
9 044
|
NCMEC
|
|
Zypern
|
1. Juli 2021 bis 31. Dezember 2022
|
3 570
|
NCMEC
|
|
Tschechien
|
1. Januar 2022 bis 31. Juli 2022
|
13 279
|
NCMEC
|
|
Dänemark
|
2. August 2021 bis 20. Januar 2023
|
10 744
|
NCMEC
|
|
Estland
|
-
|
-
|
NCMEC, Child Helpline 116 111
|
Estland berichtete, dass die Polizei- und Grenzschutzstatistiken, einschließlich vom NCMEC, nicht öffentlich zugänglich sind. Für das Jahr 2021 meldete Estland 360 Sexualstraftaten gegen Kinder ohne Körperkontakt. Darüber hinaus wurden 86 % aller Sexualstraftaten ohne Körperkontakt im Internet oder mittels Informationstechnologie begangen.
|
Finnland
|
2022
|
25 000
|
NCMEC und Save the Children
|
|
Frankreich
|
1. August 2021 bis 1. August 2022
|
120 000
|
NCMEC
|
|
Deutschland
|
-
|
-
|
-
|
Daten nicht verfügbar/nicht gemeldet.
|
Griechenland
|
2021 bis 2022
|
142
|
NCMEC, Griechische Hotline für illegale Internetinhalte – Safeline, Nationale Kommission für Telekommunikation und Post, Nationale Hotline SOS 1056 – Das Lächeln des Kindes, Griechischer Bürgerbeauftragter
|
|
Ungarn
|
2022
|
0
|
Keine der von den Anbietern übermittelten Meldungen erfolgte im Rahmen der Übergangsverordnung.
|
|
Irland
|
2021 bis 2022
|
15 355
|
NCMEC
|
|
Italien
|
2022
|
4 607
|
Keine Angabe
|
|
Lettland
|
1. August 2022 bis 6. März 2023
|
Ungefähr 115 bis 220 Meldungen monatlich
|
Von nicht-lettischen Anbietern und Organisationen, die im öffentlichen Interesse gegen den sexuellen Missbrauch von Kindern vorgehen (hauptsächlich das NCMEC) und von lettischen Anbietern und Organisationen (hauptsächlich das Latvian Safer Internet Center)
|
|
Litauen
|
1. Januar 2021 bis 30. Juni 2022
|
4 142
|
Keine Angabe
|
|
Luxemburg
|
2021 bis 2022
|
2 491
|
Keine Angabe
|
|
Malta
|
-
|
-
|
-
|
Daten nicht übermittelt/gemeldet.
|
Niederlande
|
2021
|
36 537
|
Anbieter und Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen
|
|
Polen
|
3. August 2021 bis 3. August 2023
|
227
|
Anbieter und Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen
|
Für den Zeitraum vom 3. August 2022 bis zum 3. August 2023 verzeichnete Polen 1 Meldung über Grooming von Kindern und 105 Meldungen über sexuellen Missbrauch von Kindern.
|
Portugal
|
-
|
-
|
-
|
Daten nicht übermittelt/gemeldet.
|
Rumänien
|
-
|
-
|
-
|
Daten nicht übermittelt/gemeldet.
|
Slowakei
|
1. August 2021 bis 31. Juli 2022
|
7 206
|
Anbieter und Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen
|
|
Slowenien
|
1. Januar 2021 bis 14. Juli 2023
|
452
|
Diese Zahl bezieht sich auf Straftaten im Zusammenhang mit Internetaktivitäten. Anhand der verfügbaren statistischen Daten ist es Slowenien derzeit nicht möglich, statistische Daten über Straftaten, die aufgrund von Meldungen von Anbietern und Organisationen ermittelt werden, von statistischen Daten über andere Meldungen zu trennen.
|
|
Spanien
|
2022
|
31 474
|
Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen
|
|
Schweden
|
August 2021 bis 31. Dezember 2022
|
32 830
|
Meistens das NCMEC
|
|
Da das NCMEC die Hauptquelle für die Meldungen ist, sind die Zahlen der von den Mitgliedstaaten erhaltenen Meldungen mit den Zahlen der vom NCMEC an die Mitgliedstaaten weitergeleiteten Meldungen zu vergleichen. Im Jahr 2021 erhielt das NCMEC insgesamt 29 397 681 Meldungen aus der Industrie, von denen 99,7 % (29 309 106) ein oder mehrere Bilder oder Videos von sexuellem Missbrauch von Kindern, 0,15 % (44 155) Grooming und 0,05 % (16 032) Kinderhandel zum Zwecke der sexuellen Ausbeutung betrafen. Im Jahr 2022 erhielt das NCMEC insgesamt 32 059 029 Meldungen, von denen 99,5 % (31 901 234) Bilder oder Videos von sexuellem Missbrauch von Kindern, 0,25 % (80 524) Grooming und 0,06 % (18 336) Kinderhandel zum Zwecke der sexuellen Ausbeutung betrafen. Für die EU ergibt sich folgende Aufteilung:
Tabelle 7: Meldungen vom NCMEC über mutmaßlichen sexuellen Missbrauch von Kindern im Internet an die EU-Mitgliedstaaten in den Jahren 2021 und 2022
Land
|
Meldungen insgesamt 2021
|
% der EU insgesamt 2021
|
Meldungen insgesamt 2022
|
% der EU insgesamt 2022
|
% der EU-Bevölkerung
|
Österreich
|
7 580
|
1,36 %
|
18 501
|
1,23 %
|
2,00 %
|
Belgien
|
15 762
|
2,84 %
|
50 255
|
3,34 %
|
2,60 %
|
Bulgarien
|
13 584
|
2,44 %
|
31 937
|
2,12 %
|
1,53 %
|
Kroatien
|
4 744
|
0,85 %
|
11 693
|
0,78 %
|
0,86 %
|
Zypern
|
2 657
|
0,48 %
|
7 361
|
0,49 %
|
0,20 %
|
Tschechien
|
15 004
|
2,70 %
|
61 994
|
4,12 %
|
2,36 %
|
Dänemark
|
5 891
|
1,06 %
|
30 215
|
2,01 %
|
1,31 %
|
Estland
|
2 729
|
0,49 %
|
6 408
|
0,43 %
|
0,30 %
|
Finnland
|
6 079
|
1,09 %
|
10 904
|
0,73 %
|
1,24 %
|
Frankreich
|
98 233
|
17,67 %
|
227 465
|
15,13 %
|
15,16 %
|
Deutschland
|
79 701
|
14,34 %
|
138 193
|
9,19 %
|
18,59 %
|
Griechenland
|
14 616
|
2,63 %
|
43 345
|
2,88 %
|
2,37 %
|
Ungarn
|
31 710
|
5,70 %
|
109 434
|
7,28 %
|
2,16 %
|
Irland
|
7 327
|
1,32 %
|
19 770
|
1,31 %
|
1,13 %
|
Italien
|
37 480
|
6,74 %
|
96 512
|
6,42 %
|
13,32 %
|
Lettland
|
1 537
|
0,28 %
|
3 688
|
0,25 %
|
0,42 %
|
Litauen
|
3 509
|
0,63 %
|
16 603
|
1,10 %
|
0,63 %
|
Luxemburg
|
2 005
|
0,36 %
|
2 004
|
0,13 %
|
0,14 %
|
Malta
|
750
|
0,13 %
|
4 713
|
0,31 %
|
0,12 %
|
Niederlande
|
36 790
|
6,62 %
|
57 012
|
3,79 %
|
3,96 %
|
Polen
|
37 758
|
6,79 %
|
235 310
|
15,65 %
|
8,41 %
|
Portugal
|
34 415
|
6,19 %
|
42 674
|
2,84 %
|
2,31 %
|
Rumänien
|
32 765
|
5,89 %
|
96 287
|
6,40 %
|
4,25 %
|
Slowakei
|
7 275
|
1,31 %
|
39 748
|
2,64 %
|
1,21 %
|
Slowenien
|
3 162
|
0,57 %
|
14 795
|
0,98 %
|
0,47 %
|
Spanien
|
33 136
|
5,96 %
|
77 727
|
5,17 %
|
10,60 %
|
Schweden
|
19 635
|
3,53 %
|
48 883
|
3,25 %
|
2,33 %
|
Insgesamt
|
555 834
|
|
1 503 431
|
|
|
Die erheblichen Unterschiede zwischen der Anzahl der Meldungen in den Jahren 2021 und 2022 mit einem starken Anstieg der Meldungen im Jahr 2022, sind größtenteils auf den Rückgang der freiwilligen Maßnahmen zur Aufdeckung zwischen Januar und August 2021 zurückzuführen, als die Übergangsverordnung noch nicht in Kraft war.
Das NCMEC unterscheidet in seinen Statistiken nicht nach der Quelle der Meldung, insbesondere nicht danach, ob die Meldung von einem nummernunabhängigen interpersonellen Kommunikationsdienst stammt oder nicht. Das NCMEC stellt jedoch Statistiken über die Gesamtzahl der die EU betreffenden Meldungen zur Verfügung, die von nummernunabhängigen interpersonellen Kommunikationsdiensten stammen. Insgesamt 283 265 Meldungen, die die Mitgliedstaaten betrafen, stammten im Jahr 2021 von einem Chat-, Messaging- oder E-Mail-Dienst, d. h. 51 % aller Meldungen, die die EU betrafen. Weitere 164 645 Meldungen (30 % der Gesamtzahl) stammten von sozialen Medien oder Online-Gaming-Plattformen, in die auch Messaging- oder Chat-Dienste eingebunden sein können. Im Jahr 2021 bezogen sich 3 565 die EU betreffende Meldungen auf Grooming. Im Jahr 2022 stammten 1 015 231 die Mitgliedstaaten betreffenden Meldungen von einem Chat-, Messaging- oder E-Mail-Dienst, d. h. 68 % aller Meldungen, die die EU betrafen. Weitere 325 847 Meldungen (22 % der Gesamtzahl) stammten von sozialen Medien oder Online-Gaming-Plattformen, in die auch Messaging- oder Chat-Dienste eingebunden sein können. Im Jahr 2022 bezogen sich 7 561 die EU betreffende Meldungen auf Grooming. Auch hier ist der Unterschied in der Anzahl der Meldungen von nummernunabhängigen interpersonellen Kommunikationsdiensten in den Jahren 2021 und 2022 auf den Rückgang der freiwilligen Maßnahmen zur Aufdeckung zwischen Januar und August 2021 zurückzuführen, als die Übergangsverordnung noch nicht in Kraft war.
Der Anteil der Meldungen pro Mitgliedstaat entspricht in vielen Fällen in etwa dem Anteil der Bevölkerung des Mitgliedstaats an der Gesamtbevölkerung der EU, was darauf hindeuten könnte, dass der sexuelle Missbrauch von Kindern im Internet in den Mitgliedstaaten vergleichbar häufig vorkommt. Bemerkenswerte Abweichungen sind in Bezug auf Spanien und Italien festzustellen, deren Prozentsätze im Vergleich zum Prozentsatz der EU-Bevölkerung in beiden Jahren niedrig erscheinen, während der Anteil der Meldungen in anderen Mitgliedstaaten (z. B. Deutschland, Polen, Niederlande, Slowakei) erheblich zu schwanken scheint. Diese Veränderungen spiegeln sich nicht in den Berichten über die Zahl der Fälle wider, was wiederum Schlussfolgerungen über die Korrelation zwischen Meldungen und Ermittlungen erschwert.
Aufgrund der unterschiedlichen Berichtszeiträume ist ein direkter Vergleich nicht möglich, dennoch gibt es erhebliche Unterschiede zwischen den vom NCMEC vorgelegten Statistiken und den von den Mitgliedstaaten gemeldeten Zahlen. Darüber hinaus können die NCMEC-Zahlen für die Mitgliedstaaten nicht vollständig mit den im vorhergehenden Abschnitt genannten Zahlen der Industrie abgeglichen werden. Einige der Unterschiede könnten auf Meldungen über sexuellen Missbrauch von Kindern im Internet aus anderen Quellen als der interpersonellen Kommunikation zurückzuführen sein. Dies würde jedoch eine weitere Analyse erfordern, da es auch möglich ist, dass freiwillige Aufdeckungsmaßnahmen, die die EU betreffen, von anderen Anbietern durchgeführt werden als jenen, die bisher Berichte bei der Kommission eingereicht haben, wenn die Liste der an das NCMEC meldenden Anbieter betrachtet wird. Die Tatsache, dass für die meisten Mitgliedstaaten eine erhebliche Diskrepanz zwischen der Anzahl der vom NCMEC an den Mitgliedstaat übermittelten Berichte und der Anzahl der vom Mitgliedstaat als eingegangen angegebenen Berichten besteht, deutet jedoch darauf hin, dass die Datenerfassung und Berichterstattung der Mitgliedstaaten unvollständig ist.
Bei jedem der vorgenannten NCMEC-Berichte wurden die entsprechenden Bilder und Videos mit sexuellem Missbrauch von Kindern gelöscht und aus dem Verkehr gezogen. Dies ist besonders wichtig für aktuelle Opfer und Überlebende von sexuellem Missbrauch von Kindern. Studien haben gezeigt, dass die anhaltende Verbreitung von Bildern und Videos, die den Missbrauch zeigen, die Fähigkeit der Opfer, die psychologischen Auswirkungen des Missbrauchs zu überwinden, einschränkt und eine sekundäre Form der Viktimisierung verursacht.
2.2.2 Zahl der ermittelten Kinder
Die meisten Mitgliedstaaten haben gemäß Artikel 8 Absatz 1 Buchstabe b der Übergangsverordnung vollständige oder teilweise Statistiken über die Zahl der ermittelten Kinder, aufgeschlüsselt nach Geschlecht, vorgelegt. Mehrere Mitgliedstaaten haben jedoch keine Daten oder Begründungen für die Nichtberichterstattung gemäß dieser Bestimmung vorgelegt.
Mehrere Mitgliedstaaten haben für den Berichtszeitraum keine oder nur unvollständige Statistiken vorgelegt, dies aber begründet. Folgende Gründe wurden angeführt:
-Kinder, die Opfer von sexuellem Missbrauch im Internet geworden sind, können zahlenmäßig nicht erfasst werden (Frankreich),
-Daten sind nicht verfügbar, da sie nicht im Rahmen der nationalen statistischen Erhebungen erfasst werden bzw. die nationalen Behörden haben diese Statistiken nicht erfasst (Dänemark, Litauen),
-Daten werden in den nationalen statistischen Erhebungen nicht nach Geschlecht aufgeschlüsselt (Belgien, Zypern, Tschechien, Griechenland, Irland, Italien, Litauen, Niederlande),
-die Informationen sind in den bestehenden Informationssystemen nicht in dem gewünschten Detaillierungsgrad verfügbar (Finnland),
-die Daten werden nicht erhoben (Deutschland).
Einige der Mitgliedstaaten, die angegeben haben, keine Statistiken vorlegen zu können, bestätigten, dass ihre nationalen Behörden aufgefordert wurden, ihre Verfahren zur Registrierung freiwilliger Meldungen und Ermittlungen sowie zur statistischen Erfassung zu ändern (Dänemark) und/oder neue Informationssysteme einzuführen, die eine Berichterstattung mit dem erforderlichen Detaillierungsgrad ermöglichen (Finnland).
In einem Mitgliedstaat wird in den nachstehenden Daten nicht zwischen Opfern von sexuellem Missbrauch von Kindern online und offline unterschieden (Ungarn). In einigen Fällen umfassen die Statistiken auch Kinder, die das Material nachweislich selbst produziert und hochgeladen haben (selbst erstelltes Material, meist Videos) (Tschechien, Estland).
Da die Mitgliedstaaten in den meisten Fällen Meldungen für unterschiedliche Berichtszeiträume übermittelt haben, war es nicht möglich, die Gesamtzahl der Kinder, die in der EU als Opfer sexuellen Missbrauchs im Internet identifiziert wurden, nach Jahren und/oder Berichtszeiträumen zu berechnen.
Tabelle 8: Anzahl der identifizierten Opfer im Kindesalter nach Geschlecht
Land
|
Berichtszeit-raum
|
Weib-lich
|
Männ-lich
|
Insge-samt
|
Bemerkungen
|
Österreich
|
2021 bis 2022
|
11
|
6
|
17
|
|
Belgien
|
2021 bis 2022
|
-
|
-
|
63
|
Es liegen keine Daten nach Geschlecht vor.
|
Bulgarien
|
2022
|
50
|
12
|
62
|
|
Kroatien
|
1. Januar 2021 bis 31. Oktober 2022
|
20
|
0
|
20
|
|
Zypern
|
2022
|
-
|
-
|
102
|
Es liegen keine Daten nach Geschlecht vor.
|
Tschechien
|
2022
|
-
|
-
|
30
|
Es liegen keine Daten nach Geschlecht vor.
|
Dänemark
|
-
|
-
|
-
|
-
|
Daten nicht verfügbar.
|
Estland
|
2021
|
6
|
12
|
18
|
|
Finnland
|
-
|
-
|
-
|
-
|
Daten nicht verfügbar.
|
Frankreich
|
-
|
-
|
-
|
-
|
Daten nicht verfügbar.
|
Deutschland
|
-
|
-
|
-
|
-
|
Daten nicht verfügbar.
|
Griechenland
|
2021 bis 2022
|
-
|
-
|
4
|
Es liegen keine Daten nach Geschlecht vor.
|
Ungarn
|
2021 bis 2022
|
379
|
47
|
426
|
Eine Unterscheidung zwischen Opfern von sexuellem Kindesmissbrauch online und offline ist nicht möglich. Berücksichtigt wurden nur Kinder unter 16 Jahren.
|
Irland
|
2021 bis 2022
|
-
|
-
|
101
|
Die Daten für 2021 (50 Opfer) können nicht nach Geschlecht differenziert werden. Nach Geschlecht differenzierte Daten liegen für 2022 vor: 25 weibliche und 26 männliche Opfer.
|
Italien
|
2022
|
-
|
-
|
385
|
Es liegen keine Daten nach Geschlecht vor.
|
Lettland
|
1. August 2022 bis 6. März 2023
|
1
|
-
|
1
|
|
Litauen
|
-
|
-
|
-
|
-
|
Daten nicht verfügbar.
|
Luxemburg
|
2021 bis 2022
|
0
|
0
|
0
|
|
Malta
|
-
|
-
|
-
|
-
|
Daten nicht übermittelt/gemeldet.
|
Niederlande
|
2021
|
-
|
-
|
222
|
Es liegen keine Daten nach Geschlecht vor.
|
Polen
|
2022
|
2368
|
487
|
3014
|
Aus dem nationalen Polizeiinformations-system in Polen liegen für das Jahr 2022 Daten zu 3 014 Opfern von Straftaten im Zusammenhang mit sexuellem Missbrauch von Kindern vor (2 368 weibliche Opfer, 487 männliche Opfer und 159 Opfer ohne Angabe des Geschlechts).
|
Portugal
|
-
|
-
|
-
|
-
|
Daten nicht übermittelt/gemeldet.
|
Rumänien
|
-
|
-
|
-
|
-
|
Daten nicht übermittelt/gemeldet.
|
Slowakei
|
August 2021 bis Juli 2022
|
13
|
8
|
21
|
|
Slowenien
|
1. Januar 2021 bis 14. Juli 2023
|
220
|
85
|
305
|
|
Spanien
|
2022
|
80
|
39
|
119
|
|
Schweden
|
2022
|
8
|
4
|
12
|
|
GESAMT FÜR ALLE MITGLIEDS-STAATEN
|
1. Januar 2021 bis 6. März 2023
|
3 156
|
700
|
4 922
|
|
Die vorstehenden Daten unterliegen einer Reihe von Vorbehalten. Anhand der verfügbaren statistischen Daten können die Mitgliedstaaten nicht immer zwischen Opfern unterscheiden, die aufgrund der Meldung eines Anbieters ermittelt wurden, und Opfern, bei denen z. B. das Opfer selbst oder eine andere Person, die das Opfer kannte oder die Straftat entdeckt hat, die Straftat gemeldet hat (wie von Slowenien angegeben). Schweden berichtet, dass auch Kinder, die anhand von Chatprotokollen identifiziert wurden, in die Berichterstattung aufgenommen werden, selbst wenn keine Fotos oder Videos des Missbrauchs gefunden wurden oder nicht festgestellt werden konnte, dass sie von diesem bestimmten Opfer stammen.
Die in Tabelle 8 dargestellten Daten entsprechen insgesamt nicht unbedingt den Berichtspflichten gemäß der Übergangsverordnung, die sich nur auf Opfer beziehen, die aufgrund von Meldungen der Anbieter und von Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen, im Rahmen der Verordnung gerettet wurden. In einigen Fällen umfassen die Daten auch Opfer, die aus anderen Gründen und auf andere Weise ermittelt wurden.
Somit geben die Daten keinen umfassenden Überblick über die Zahl der Kinder, die in der EU als Opfer von sexuellem Missbrauch von Kindern im Internet identifiziert wurden.
Selbst wenn ein Opfer identifiziert wurde, bedeutet dies nicht zwangsläufig, dass es im Zusammenhang mit dieser Identifizierung zu einer Verurteilung gekommen ist. In einigen Fällen wurde das Opfer zwar identifiziert, die Ermittlungen führten jedoch nicht zur Identifizierung eines Verdächtigen oder zu einer Verurteilung (Schweden).
Aus den Daten geht jedoch hervor, dass eine beträchtliche Anzahl von Opfern durch die freiwillige Meldung gemäß der Übergangsverordnung identifiziert wurde. Dies wird durch Berichte von Strafverfolgungsbehörden bestätigt, die häufig nur auf der Grundlage freiwilliger Meldungen tätig werden.
2.2.3 Zahl der verurteilten Täter
Während die meisten Mitgliedstaaten ihren Verpflichtungen nachgekommen sind, haben zwei Mitgliedstaaten keine Daten übermittelt und auch nicht begründet, warum sie keine Daten gemäß Artikel 8 Absatz 1 Buchstabe c der Übergangsverordnung übermittelt haben.
Mehrere Mitgliedstaaten haben für den Berichtszeitraum keine Statistiken gemäß dieser Bestimmung vorgelegt und dies wie folgt begründet:
-die Daten sind noch nicht verfügbar (Belgien und Spanien),
-die Art der ersten Befassung muss in der zentralen Datenbank für Verstöße nicht angegeben werden (Irland),
-die Daten werden nicht erhoben (Deutschland).
Wie aus Tabelle 8 hervorgeht, haben die Mitgliedstaaten sehr unterschiedliche Angaben zur Zahl der verurteilten Täter und zu den Berichtszeiträumen übermittelt.
Tabelle 9: Zahl der verurteilten Täter
Land
|
Berichtszeit-raum
|
Anzahl der Verurtei-lungen
|
Bemerkungen
|
Österreich
|
2021
|
850
|
In den Daten wird nicht zwischen online und offline begangenen Straftaten unterschieden.
|
Belgien
|
-
|
-
|
Daten nicht verfügbar.
|
Bulgarien
|
2021 bis 2022
|
52
|
|
Kroatien
|
-
|
-
|
Daten nicht verfügbar.
|
Zypern
|
2022
|
0
|
Bisher keine Verurteilungen.
|
Tschechien
|
1. Januar 2022 bis 31. Juli 2022
|
20
|
|
Dänemark
|
2. August 2021 bis 20. Januar 2023
|
224
|
|
Estland
|
2021
|
2
|
Es sind nur Verurteilungen aufgrund von NCMEC-Berichten enthalten.
|
Finnland
|
2021
|
240
|
|
Frankreich
|
4. August 2021 bis 3. August 2022
|
820
|
|
Deutschland
|
-
|
-
|
Daten nicht verfügbar.
|
Griechenland
|
2021 bis 2022
|
62
|
|
Ungarn
|
2021 bis 2022
|
126
|
|
Irland
|
-
|
-
|
Daten nicht verfügbar.
|
Italien
|
2021 bis 2022
|
5 835
|
In den Daten wird nicht zwischen online und offline begangenen Straftaten unterschieden.
|
Lettland
|
2021 bis 2022
|
33
|
In den Daten wird nicht zwischen online und offline begangenen Straftaten unterschieden.
|
Litauen
|
1. Januar 2021 bis 30. Juni 2022
|
10
|
|
Luxemburg
|
2022
|
11
|
In den Daten wird nicht zwischen online und offline begangenen Straftaten unterschieden.
|
Malta
|
-
|
-
|
Daten nicht übermittelt/gemeldet.
|
Niederlande
|
2021
|
217
|
|
Polen
|
Zweites Halbjahr 2021 bis erstes Halbjahr 2022/2022/erstes Halbjahr 2023
|
185/194/81
|
|
Portugal
|
-
|
-
|
Daten nicht übermittelt/gemeldet.
|
Rumänien
|
-
|
-
|
Daten nicht übermittelt/gemeldet.
|
Slowakei
|
2021
|
10
|
|
Slowenien
|
2021 bis 2022
|
45
|
|
Spanien
|
2022
|
-
|
Daten nicht verfügbar.
|
Schweden
|
2022
|
55
|
|
Es ist darauf hinzuweisen, dass die Zahl der Verurteilungen nicht mit der Zahl der verurteilten Täter gleichzusetzen ist, da eine Person wegen einer oder mehrerer Straftaten des sexuellen Missbrauchs von Kindern im Internet verurteilt werden kann.
Die Statistiken über die für einen bestimmten Zeitraum gemeldeten Verurteilungen sind nicht unbedingt mit den in diesem Zeitraum eingegangenen Meldungen verknüpft (d. h. eine Verurteilung im Jahr 2022 könnte beispielsweise auf eine Meldung aus dem Jahr 2021 oder 2020 zurückzuführen sein, und eine Meldung aus dem Jahr 2022 könnte erst zu einer Verurteilung im Jahr 2023 oder später führen). Mehrere Mitgliedstaaten haben dies in ihren Berichten ausdrücklich hervorgehoben (Irland, Luxemburg, Schweden).
In einigen Fällen wurden keine statistischen Daten darüber erhoben, ob Meldungen über verdächtige Handlungen (z. B. über das NCMEC) zu Verurteilungen geführt haben, d. h. ob die Verurteilungen auf Informationen zurückzuführen waren, die von einem Anbieter oder einer öffentlichen Organisation übermittelt wurden (Österreich, Lettland). Nur Estland bestätigte ausdrücklich, dass in den Statistiken nur Verurteilungen aufgrund von NCMEC-Berichten erfasst werden. Es ist auch möglich, dass die Meldungen zu anderen Straftätern führen, gegen die im Zuge der Ermittlungen ermittelt wird und die verurteilt werden (Österreich).
In den meisten Fällen wird davon ausgegangen, dass die Zahl der gemeldeten Verurteilungen dem Zeitpunkt entspricht, zu dem ein Fall endgültig abgeschlossen wurde, nachdem wahrscheinlich Rechtsmittel eingelegt wurden. In einem Mitgliedstaat (Dänemark), in dem die Zahlen auf der Grundlage der letzten Entscheidung zusammengestellt werden, sind die Zahlen nicht endgültig, da gegen die Entscheidungen später Rechtsmittel eingelegt worden sein können.
In einigen Fällen wird bei den in den nationalen IT-Systemen enthaltenen und von den Mitgliedstaaten gemeldeten Daten nicht zwischen online und offline begangenen Straftaten unterschieden (Österreich, Luxemburg, Lettland).
Aufgrund der sehr unterschiedlichen Berichterstattung der Mitgliedstaaten und der Art und Weise, wie die statistischen Daten auf nationaler Ebene erhoben werden, ist es daher nicht möglich, einen umfassenden Überblick über die Zahl der wegen sexuellen Missbrauchs von Kindern im Internet verurteilten Straftäter in der EU zu geben. Eine eindeutige Zuordnung dieser Verurteilungen zu den Meldungen von Anbietern und Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen, in konkreten Berichtszeiträumen nach dieser Verordnung ist auf der Grundlage der verfügbaren Daten derzeit nicht möglich.
2.3.Entwicklungen des technischen Fortschritts
Zu den Technologien, die derzeit zur Aufdeckung von sexuellem Missbrauch von Kindern im Internet eingesetzt werden, gehören Technologien und Tools zur Aufdeckung von „bekanntem“ (d. h. bereits aufgedecktem) sexuellem Missbrauch von Kindern, „neuem“ (d. h. noch nicht aufgedecktem) sexuellem Missbrauch von Kindern und zur Kontaktaufnahme zu Kindern (sogenanntes „Grooming“).
Die folgenden Beispiele umfassen einige der am weitesten verbreiteten Tools und erheben keinen Anspruch auf Vollständigkeit. Viele dieser Tools werden Anbietern, Strafverfolgungsbehörden und anderen Organisationen zur Verfügung gestellt, die ein berechtigtes Interesse nachweisen können. In der Regel werden diese Tools mit einer Überprüfung durch einen Menschen kombiniert, um die größtmögliche Genauigkeit zu gewährleisten.
Dieser Abschnitt befasst sich auch mit anderen technologischen Entwicklungen im Bereich der künstlichen Intelligenz.
2.3.1 Aufdeckung von bekanntem Material über sexuellen Missbrauch von Kindern im Internet
Bestehende Technologien zur Erkennung von bekanntem Material über sexuellen Missbrauch von Kindern im Internet stützen sich ausschließlich auf die automatische Analyse von Inhalten und basieren in der Regel auf Hashing. Die Hashing-Technologie ist eine Art digitaler Fingerabdruck. Dabei wird eine eindeutige digitale Signatur (ein sogenannter „Hash“) eines Bildes erstellt, die dann mit den Signaturen (Hashes) anderer Fotos verglichen wird, um Kopien desselben Bildes zu finden. Diese Technologie erkennt nur übereinstimmende Hashes und „sieht“ kein Material, das nicht mit dem Hash übereinstimmt. Hash-Werte sind nicht umkehrbar und können daher nicht zur Wiederherstellung eines Bildes verwendet werden.
Es gibt viele Varianten und Umsetzungen der Hashing-Technologie. Zu den Tools, die zur Aufdeckung von bekanntem Material über sexuellen Missbrauch von Kindern im Internet eingesetzt wurden, gehören: i)
Microsoft PhotoDNA
, ii)
Google CSAI Match
, iii) Apple
NeuralHash + Private Set Intersection
, iv)
Meta SSN++
, v)
PDQ und TMK+PDQF
, vi)
MD5 Hash generator
(Skype), vii)
Safer
(Thorn).
Das am weitesten verbreitete Tool ist Microsoft PhotoDNA, das von mehr als 150 Organisationen verwendet wird. PhotoDNA ist seit über 10 Jahren im Einsatz und zeichnet sich durch eine hohe Genauigkeit aus. Die Rate falsch positiver Ergebnisse wird auf der Grundlage von Tests auf nicht mehr als 1 in 50 Milliarden geschätzt. Die Fehlerrate von PhotoDNA ist aufgrund der Art der Technologie äußerst gering. Es werden nur Kopien von zuvor identifizierten Inhalten erkannt. Während das ursprüngliche PhotoDNA bekanntes Material von sexuellem Missbrauch von Kindern in Bildern erkennt, ist auch eine Version für die Erkennung von sexuellem Missbrauch von Kindern in Videos verfügbar.
Die Technologie wird ständig weiterentwickelt und verbessert. Im Mai 2023 kündigte Microsoft die Einführung neuer Abgleichsfunktionen an, die eine schnellere Suche (ca. 350-mal schneller) ermöglichen und gleichzeitig die Kosten des Abgleichsprozesses senken, ohne die Genauigkeit zu beeinträchtigen. Laut Microsoft ermöglicht die neue Bibliothek auch eine umfassendere Erkennung von gespiegelten oder gedrehten Bildern. Darüber hinaus berichtete die Internet Watch Foundation (IWF), dass sie vor Kurzem ihre Hashing-Technologie verbessert hat.
2.3.2 Aufdeckung von neuem Material über sexuellen Missbrauch von Kindern im Internet
Zu den Technologien, die derzeit zur Aufdeckung von neuem Material über sexuellen Missbrauch von Kindern im Internet eingesetzt werden, gehören Klassifikatoren und künstliche Intelligenz (KI), mit denen Bilder und Videos analysiert werden, um Inhaltsmuster zu erkennen, die mit Mustern auf der Grundlage von zuvor identifiziertem Material über sexuellen Missbrauch von Kindern übereinstimmen. Ein Klassifikator ist ein Algorithmus, der Daten durch Mustererkennung in gekennzeichnete Klassen oder Informationskategorien sortiert. Klassifikatoren müssen mit Daten trainiert werden, und ihre Genauigkeit nimmt mit der Menge der eingespeisten Daten zu.
Zu den Tools zur Aufdeckung von neuem Material über sexuellen Missbrauch von Kindern im Internet gehören: i)
Safer
(Thorn), ii)
Google Content Safety API
, iii) KI-Technologie von Facebook, iv)
Amazon Rekognition
, v)
Hive KI für visuelle Inhalte
.
Studien haben gezeigt, dass automatisierte Tools und Systeme wie Klassifikatoren die nützlichsten Mittel zur Aufdeckung von Material über sexuellen Missbrauch von Kindern im Internet sind. Bei der Aufdeckung neuen Materials über sexuellen Kindesmissbrauch liegt die Genauigkeitsrate derzeit deutlich über 90 %. Thorn gibt beispielsweise an, dass sein Klassifikator für Material über sexuellen Missbrauch von Kindern im Internet eine Genauigkeitsrate von 99 % erreichen kann (sowohl für bekannte als auch für neue Missbrauchsfälle), was einer falsch positiven Rate von 0,1 % entspricht. Diese Werte werden sich wahrscheinlich mit zunehmender Nutzung und Rückmeldungen verbessern.
2.3.3 Aufdeckung von Grooming
Tools zur Erkennung von Grooming (Kontaktaufnahme zu Kindern) in textbasierter Kommunikation nutzen Technologien, mit denen lediglich Muster erkannt werden, die auf einen möglichen konkreten Verdacht auf sexuellen Missbrauch von Kindern im Internet hindeuten, ohne auf den Inhalt des Textes schließen zu können. Die Technologie wird für textbasierte Chatgespräche eingesetzt. Die Gespräche werden anhand mehrerer Merkmale bewertet und mit einem Gesamtwahrscheinlichkeitswert versehen, der angibt, wie wahrscheinlich es ist, dass es sich bei dem Gespräch um Grooming handelt. Diese Bewertungen dienen als Determinanten, die von den einzelnen Unternehmen festgelegt werden, um Gespräche für eine weitere Überprüfung durch einen Menschen zu kennzeichnen.
Für die Texterkennung werden u. a. die folgenden Tools verwendet: i)
Microsoft’s Project Artemis
, ii)
Amazon Rekognition
, iii) Twitch's
Spirit KI-
Technologie (auf Basis maschineller Sprachverarbeitung, Textklassifikatoren), iv) intern entwickelter Meta-Klassifikator mit maschinellem Lernen (Kombination aus interner Sprachanalysetechnik und Metadaten), v) die Chat-Filterung von
Roblox
, vi) die technische Lösung von Thorn und der Tech Coalition, die auf maschinellem Lernen und Klassifikatoren beruht.
Wie bei der Identifizierung von neuem Material über sexuellen Missbrauch von Kindern im Internet ist es auch bei der Identifizierung von Grooming-Inhalten erforderlich, die Technologie mit solchen Inhalten zu trainieren. Der Zugang zu solchen Trainingsdaten bleibt die größte Herausforderung bei der Entwicklung und Verbesserung solcher Technologien.
Thorn hat in Zusammenarbeit mit der Tech Coalition und ihren Mitgliedern eine neue Initiative ins Leben gerufen, die darauf abzielt, technische Lösungen zur Erkennung und Bekämpfung von Online-Grooming-Versuchen zu entwickeln, die für eine Reihe von Plattformen, die textbasierte Kommunikation anbieten, nützlich und anwendbar sind. Sie wird auf der Arbeit von Thorns Team an einem NLP-Klassifikator (Natural Language Processing – natürliche Sprachverarbeitung) oder einem Modell für maschinelles Lernen basieren, das erkennt und kategorisiert, wenn Online-Inhalte oder -Verhalten in definierte „Klassen“ fallen, die mit Grooming in Verbindung stehen (z. B. das Zeigen von sexuellem Material oder die Frage nach einem persönlichen Treffen mit einem Minderjährigen), und eine Gesamtbewertung darüber liefert, inwieweit ein Gespräch mit Grooming zusammenhängt.
2.3.4 Neue Herausforderungen durch KI-Chatbots und Kunst-/Bildgeneratoren
Die Entwicklung und Veröffentlichung von KI-Chatbots wie
ChatGPT
(ein von
OpenAI
entwickeltes großes Sprachmodell (LLM)) und Kunst-/Bildgeneratoren wie
DALL-E
und
Midjourney
haben in der Öffentlichkeit große Aufmerksamkeit erregt, vor allem wegen ihrer Fähigkeit, schnelle Antworten zu geben oder realistische Bilder zu erzeugen, die in einer Vielzahl von Kontexten verwendet werden können. Diese neuen Tools haben schnell an Popularität gewonnen und sind weitverbreitet. Führende Produkte werden von Technologieunternehmen wie Microsoft und Google finanziert und entwickelt, und neue Technologien werden regelmäßig verfeinert und in verbesserten Versionen auf den Markt gebracht.
Diese Technologien bieten Unternehmen und der Öffentlichkeit große Chancen, können aber auch Risiken bergen. Zu den Bedenken hinsichtlich solcher Programme gehört, dass sie von Kriminellen für ihre verwerflichen Zwecke, einschließlich der sexuellen Ausbeutung von Kindern, missbraucht werden könnten.
Laut Europol sind zwar alle Informationen, die ChatGPT zur Verfügung stellt, frei im Internet verfügbar, aber das Tool erleichtert es böswilligen Akteuren erheblich, „sich ohne Vorkenntnisse über eine Vielzahl potenzieller Kriminalitätsbereiche zu informieren, die von Einbrüchen über Cyberkriminalität und sexuellen Missbrauch von Kindern bis hin zu Terrorismus reichen“. Dadurch wird es den oben genannten Personen ermöglicht, diese Art von Verbrechen besser zu verstehen und in der Folge auch zu begehen.
Aufgrund der Regelungen von OpenAI ist ChatGPT nur eingeschränkt in der Lage, auf Anfragen zu sexuellen, hasserfüllten, gewaltverherrlichenden oder zur Selbstverstümmelung auffordernden Inhalten zu antworten. Diese Sicherheitsvorkehrungen können jedoch relativ leicht durch Prompt-Engineering umgangen werden. Die jüngste Verwendung von KI-Chatbots (z. B. durch Snapchat) zeigt, wie diese die Grenze zu anstößigen oder gefährlichen Interaktionen, einschließlich des sexuellen Missbrauchs von Kindern, überschreiten können.Da immer mehr Unternehmen erwägen, KI-Chatbots auf ihren Plattformen zu testen (Instagram, möglicherweise WhatsApp und Messenger), müssen die Auswirkungen auf die Nutzer, insbesondere auf Kinder und Jugendliche, sorgfältig geprüft werden.
Diese neuen Tools erfordern auch angemessene Sicherheitsvorkehrungen, um zu verhindern, dass sie missbraucht werden, um mithilfe von KI gefälschtes Material über den sexuellen Missbrauch von Kindern zu produzieren. Angesichts der Geschwindigkeit, mit der KI-Tools entwickelt werden, ist es wahrscheinlich, dass es bald viel einfacher sein wird, Bilder zu erstellen, die nicht von echten Bildern zu unterscheiden sind. Dies stellt die Bekämpfung des sexuellen Missbrauchs von Kindern vor eine Reihe von Herausforderungen, da die Möglichkeiten der Strafverfolgungsbehörden, Fälle von sexuellem Missbrauch von Kindern im Internet zu ermitteln und zu verfolgen und die tatsächlichen Opfer zu identifizieren, erheblich eingeschränkt werden könnten, wenn sehr realistisches computergeneriertes Material über sexuellen Missbrauch von Kindern im Internet weitverbreitet ist.
Aus Studien geht hervor, dass der Zugang zu Material über sexuellen Missbrauch von Kindern häufig der erste Schritt zu tatsächlichem Missbrauch ist, und zwar unabhängig davon, ob das Material tatsächlichen oder realistisch erscheinenden Missbrauch und Ausbeutung darstellt. Die Eindämmung der Verbreitung von KI-generiertem Deepfake-Material über sexuellen Missbrauch von Kindern ist daher eine wichtige Form der Täterprävention. Problematisch ist auch, dass Personen, die zu Missbrauchszwecken Kontakt zu Kindern aufnehmen (sogenannte Groomer) die erweiterten Textgenerierungsfunktionen von ChatGPT in Verbindung mit der vorhandenen kostenlosen Text-zu-Bild-KI nutzen können, um schnell und einfach Inhalte für gefälschte Profile und plausible Unterhaltungen mit jungen Menschen zu generieren, um Kinder online zu erreichen. „Während ChatGPT an sich niemanden dazu ermutigt, ein Online-Groomer zu werden, ermöglicht es jedem, die Gespräche, die er mit Kindern online führt, mit KI-Technologie zu füttern, um überzeugender und glaubwürdiger für seine Opfer zu wirken, was die Manipulation erleichtert.“ Der Einsatz generativer KI könnte dazu beitragen, die Zahl der Fälle von Online-Grooming zu erhöhen und sogar „das Grooming von Kindern in großem Maßstab zu automatisieren“.
3.SCHLUSSFOLGERUNGEN
Von den Anbietern ergriffene Durchführungsmaßnahmen
Aus den Berichten der Anbieter ging hervor, dass sie die Aufdeckung und Meldung von sexuellem Missbrauch von Kindern im Internet im Rahmen der Übergangsverordnung mit einer Vielzahl von Aufdeckungstechnologien und -verfahren durchführen. Alle Anbieter gaben an, diese Berichte an das NCMEC zu übermitteln. Was die Art und Menge der von den Anbietern verarbeiteten personenbezogenen Daten anbelangt, so wurden in den Berichten unterschiedliche Verkehrsdaten und eine unterschiedliche Granularität der verarbeiteten Datenmengen angegeben, was die Kommission daran hindert, für den betreffenden Berichtszeitraum (Juli 2021 bis 31. Januar 2023) einheitliche Daten auf EU-Ebene über die Anbieter zu erhalten.
Die Anbieter haben die Anzahl und den Anteil der mit verschiedenen Technologien aufgetretenen Fehler (falsch positive Ergebnisse) nicht nach Technologien aufgeschlüsselt, was darauf hindeutet, dass sie einen mehrstufigen Ansatz zur Erkennung von sexuellem Missbrauch von Kindern im Internet verwenden, der durch eine menschliche Überprüfung ergänzt wird. Gleichzeitig haben die Anbieter eine Vielzahl von Maßnahmen und Sicherheitsvorkehrungen getroffen, um die Fehlerquote bei der Aufdeckung zu begrenzen und zu verringern. Die Anbieter gaben zudem an, dass sie über Regelungen zur Datenaufbewahrung und Datenschutzgarantien verfügen, die in ihren Datenschutzrichtlinien oder -erklärungen festgelegt sind und durch branchenübliche Datenschutzgarantien und -maßnahmen unterstützt werden.
Von den Mitgliedstaaten ergriffene Durchführungsmaßnahmen
Nach der Übergangsverordnung sind die Mitgliedstaaten auch verpflichtet (Artikel 8), Schlüsselstatistiken über die festgestellten und den nationalen Strafverfolgungsbehörden gemeldeten Fälle von sexuellem Missbrauch von Kindern im Internet, die Zahl der identifizierten Opfer und die Zahl der verurteilten Täter vorzulegen. Da die Mitgliedstaaten in den meisten Fällen Daten für unterschiedliche Berichtszeiträume übermittelt haben, war es nicht möglich, anhand der übermittelten Daten die Gesamtzahl der auf EU-Ebene eingegangenen Meldungen über den festgestellten sexuellen Missbrauch von Kindern im Internet zu berechnen. Darüber hinaus können sich die bei den Mitgliedstaaten eingegangenen und von ihnen übermittelten Meldungen von den rechtlich verfolgbaren Meldungen, d. h. den Meldungen, die für Ermittlungen verwendet werden können, oder von der Zahl der gemeldeten Fälle unterscheiden. Nur wenige Mitgliedstaaten haben die Art der Anbieter angegeben, über deren Dienste der sexuelle Missbrauch von Kindern im Internet festgestellt wurde. In einigen Fällen wird in den nationalen Statistiken nicht zwischen Straftaten unterschieden, die auf der Grundlage von Meldungen von Anbietern und anderen Organisationen, die im öffentlichen Interesse gegen den sexuellen Missbrauch von Kindern vorgehen, ermittelt werden, und Straftaten, die auf der Grundlage anderer Meldungen ermittelt werden.
Daher war es nicht möglich, anhand der eingegangenen Berichte die Gesamtzahl der Kinder, die in der EU als Opfer von sexuellem Kindesmissbrauch im Internet identifiziert wurden, aufgeschlüsselt nach Geschlecht zu ermitteln. Gründe hierfür sind beispielsweise Meldedaten für unterschiedliche Zeiträume, unterschiedliche Altersgrenzen für die Definition von Opfern des sexuellen Missbrauchs von Kindern im Internet, keine Erhebung von Statistiken in diesem Detaillierungsgrad auf nationaler Ebene aufgrund technischer oder anderer Beschränkungen, keine Unterscheidung zwischen Opfern von sexuellem Missbrauch von Kindern online und offline usw. Auch Kinder, die eigenes Material erstellt haben, werden in einigen Mitgliedstaaten statistisch erfasst. Vor allem aber wird in den Statistiken häufig nicht unterschieden zwischen Opfern, die aufgrund von Meldungen von Anbietern und Organisationen, die im öffentlichen Interesse gegen sexuellen Kindesmissbrauch vorgehen, im Rahmen der Verordnung identifiziert wurden, und Opfern, die aus anderen Gründen und auf andere Weise identifiziert wurden.
Auch der Überblick über die Anzahl der verurteilten Täter ist lückenhaft. In einigen Fällen sind solche Daten nicht verfügbar, da in den Datenbanken die Quelle der ersten Befassung nicht erfasst wurde und die Daten daher nicht zwischen Tätern, die aufgrund von nach der Verordnung eingereichten Meldungen verurteilt wurden, und Tätern, die aufgrund anderer Meldungen verurteilt wurden, unterscheiden. In einigen Fällen wird in den Daten der nationalen IT-Systeme nicht zwischen online und offline begangenen Straftaten unterschieden. Darüber hinaus beziehen sich Statistiken über Verurteilungen, die für einen bestimmten Zeitraum gemeldet wurden, nicht unbedingt auf die in diesem Zeitraum eingegangenen Meldungen, sondern können auch Meldungen aus früheren Zeiträumen betreffen. Die erhobenen Statistiken über die Zahl der Verurteilungen können auch von der Zahl der verurteilten Täter abweichen (da ein Täter mehrfach verurteilt worden sein kann).
Aufgrund der Heterogenität der von den Mitgliedstaaten vorgelegten Statistiken, in denen die Daten offenbar nicht immer systematisch und ordnungsgemäß erfasst werden, und der vorstehend genannten Faktoren ist es nicht möglich, einen umfassenden Überblick über die eingegangenen Meldungen betreffend den sexuellen Missbrauch von Kindern im Internet, die Zahl der als Opfer dieser Straftaten identifizierten Kinder oder die Zahl der auf EU-Ebene gemäß der Verordnung verurteilten Täter zu erhalten. Die Tatsache, dass für die meisten Mitgliedstaaten eine erhebliche Diskrepanz zwischen der Anzahl der vom NCMEC an den Mitgliedstaat übermittelten Meldungen und der Anzahl der vom Mitgliedstaat als eingegangen angegebenen Meldungen besteht, deutet darauf hin, dass die Datenerfassung und Berichterstattung nicht vollständig sind. Einige Mitgliedstaaten bestätigten, dass ihre zuständigen Behörden derzeit strukturelle Veränderungen oder Umstrukturierungen vornehmen und neue Abteilungen einrichten, die für die Untersuchung von Straftaten im Zusammenhang mit dem sexuellen Missbrauch von Kindern im Internet zuständig sind. Darüber hinaus werden neue IT-Systeme eingeführt, und in einigen Mitgliedstaaten wurden die nationalen Behörden aufgefordert, ihre Registrierungsverfahren und Statistiken zu ändern. Dadurch sollten günstigere Voraussetzungen für eine künftige Vorlage genauerer Statistiken durch die Mitgliedstaaten geschaffen werden. Die Kommission wird erforderlichenfalls von ihren Befugnissen gemäß den Verträgen Gebrauch machen, um sicherzustellen, dass die Mitgliedstaaten ihren Berichtspflichten gemäß der Übergangsverordnung nachkommen.
Allgemeine Erwägungen
Insgesamt werden in diesem Bericht erhebliche Unterschiede bei der Berichterstattung über Daten zur Bekämpfung des sexuellen Missbrauchs von Kindern im Internet im Rahmen der Übergangsverordnung sowohl durch die Anbieter als auch durch die Mitgliedstaaten deutlich. Eine stärkere Standardisierung der verfügbaren Daten und der Berichterstattung darüber, wie sie im Vorschlag für eine Verordnung zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern vorgesehen ist, würde dazu beitragen, ein besseres Bild von den einschlägigen Maßnahmen zur Bekämpfung dieses Verbrechens zu erhalten. Es scheint, dass zusätzliche Anstrengungen seitens der Anbieter und der Mitgliedstaaten erforderlich sind, um die Datenerhebung und Berichterstattung in Übereinstimmung mit den Anforderungen der Übergangsverordnung zu gewährleisten.
Die verfügbaren Daten deuten darauf hin, dass Material, das im Rahmen des derzeitigen freiwilligen Aufdeckungs- und Meldesystems automatisch als Material über möglichen sexuellen Kindesmissbrauch gekennzeichnet wurde, nach menschlicher Überprüfung möglicherweise nicht als solches eingestuft wird. Dies kann darauf zurückzuführen sein, dass es keine gemeinsame Reihe von Hashwerten und anderen Indikatoren für die Erkennung von in der EU als illegal bestätigtem Material über sexuellen Missbrauch von Kindern im Internet gibt, oder auch darauf, dass in den verschiedenen Rechtsordnungen, insbesondere zwischen der EU und den USA, unterschiedliche Rechtsnormen gelten, vor allem in Bezug auf die einschlägigen Definitionen. Aus den Daten geht auch hervor, dass die Zahl der Überprüfungsanträge und die Erfolgsquote der Überprüfungen stark schwanken, sodass keine Schlussfolgerungen gezogen werden können, da insbesondere keine Informationen über den Umfang der Überprüfungsanträge und die Gründe für die Wiederherstellung vorliegen.
In Bezug auf die Anforderungen von Artikel 9 Absatz 2 über die Bedingungen für die Verarbeitung geht aus den übermittelten Informationen hervor, dass es sich bei den verwendeten Technologien um technologische Anwendungen handelt, die ausschließlich dazu bestimmt sind, Material über sexuellen Missbrauch von Kindern im Internet aufzuspüren und zu entfernen und dieses Material den Strafverfolgungsbehörden und Organisationen, die im öffentlichen Interesse gegen den sexuellen Missbrauch von Kindern vorgehen, zu melden. Es wurden keine Informationen darüber vorgelegt, ob der Einsatz der Technologien dem Stand der Technik entspricht und so wenig wie möglich in die Privatsphäre eingreift und ob eine vorherige Datenschutz-Folgenabschätzung gemäß Artikel 35 der Verordnung (EU) 2016/679 und eine vorherige Konsultation gemäß Artikel 36 der genannten Verordnung durchgeführt wurden.
In Bezug auf die Verhältnismäßigkeit der Verordnung stellt sich die zentrale Frage, ob mit der Übergangsverordnung das vom EU-Gesetzgeber angestrebte Gleichgewicht zwischen dem im Allgemeininteresse liegenden Ziel der wirksamen Bekämpfung der in Rede stehenden schwersten Straftaten und der Notwendigkeit des Schutzes der Grundrechte von Kindern (Würde, Unversehrtheit, Verbot unmenschlicher oder erniedrigender Behandlung, Schutz der Privatsphäre, Rechte des Kindes) einerseits und dem Schutz der Grundrechte der Nutzer der betreffenden Dienste (Schutz der Privatsphäre, Schutz personenbezogener Daten, Recht auf freie Meinungsäußerung, Recht auf einen wirksamen Rechtsbehelf) andererseits gewahrt wird. Die verfügbaren Daten reichen nicht aus, um diesbezüglich endgültige Schlussfolgerungen zu ziehen. Angesichts der Tatsache, dass sexueller Missbrauch erhebliche negative Auswirkungen auf das Leben und die Rechte eines Kindes hat, ist es weder möglich noch angemessen, bei der Bewertung der Verhältnismäßigkeit einen numerischen Maßstab in Bezug auf die Zahl der geretteten Kinder anzuwenden. In Anbetracht der vorstehenden Ausführungen liegen jedoch keine Anhaltspunkte dafür vor, dass die Ausnahme nicht verhältnismäßig ist.
Obwohl die verfügbaren Daten lückenhaft sind und keinen Aufschluss darüber geben, inwieweit in vielen Mitgliedstaaten von der Möglichkeit der freiwilligen Meldung Gebrauch gemacht wurde, deuten sie doch darauf hin, dass im Berichtszeitraum Tausende von Kindern identifiziert, mehr als 2 000 Verurteilungen ausgesprochen und Millionen von Bildern und Videos aus dem Verkehr gezogen wurden, wodurch die sekundäre Viktimisierung verringert wurde. Es kann daher der Schluss gezogen werden, dass die freiwillige Meldung wesentlich zum Schutz einer großen Zahl von Kindern, auch vor weiterem Missbrauch, beigetragen hat und dass die Übergangsverordnung wirksam zu sein scheint.