EUROPÄISCHE KOMMISSION
Brüssel, den 27.11.2025
COM(2025) 740 final
BERICHT DER KOMMISSION AN DAS EUROPÄISCHE PARLAMENT UND DEN RAT
über die Durchführung der Verordnung (EU) 2021/1232 des Europäischen Parlaments und des Rates vom 14. Juli 2021 über eine vorübergehende Ausnahme von bestimmten Vorschriften der Richtlinie 2002/58/EG hinsichtlich der Verwendung von Technologien durch Anbieter nummernunabhängiger interpersoneller Kommunikationsdienste zur Verarbeitung personenbezogener und anderer Daten zwecks Bekämpfung des sexuellen Missbrauchs von Kindern im Internet
INHALTSVERZEICHNIS
1.
EINLEITUNG
2.
DURCHFÜHRUNGSMAẞNAHMEN
2.1.
Verarbeitung personenbezogener Daten durch die Anbieter (Artikel 3 Absatz 1 Buchstabe g Ziffer vii)
2.1.1.
Art und Menge der verarbeiteten Daten
2.1.2. Gründe für die Verarbeitung gemäß der Verordnung (EU) 2016/679
2.1.3.
Grund für die Übermittlung personenbezogener Daten in Länder außerhalb der EU
2.1.4.
Zahl der aufgedeckten Fälle von sexuellem Missbrauch von Kindern im Internet, unterschieden nach Material über sexuellen Missbrauch von Kindern im Internet und Kontaktaufnahmen zu Kindern
2.1.5.
Beschwerden von Nutzern und Ergebnisse
2.1.6.
Die Anzahl und der Anteil der mit verschiedenen verwendeten Technologien aufgetretenen Fehler (falsch positive Ergebnisse)
2.1.7.
Maßnahmen zur Begrenzung der Fehlerquote und die erreichte Fehlerquote
2.1.8.
Aufbewahrungsregeln und Datenschutzvorkehrungen
2.1.9.
Organisationen, die im öffentlichen Interesse handeln und mit denen Daten ausgetauscht wurden
2.2.
Statistiken der Mitgliedstaaten (Artikel 8)
2.2.1. Die Gesamtzahl der Berichte über festgestellten sexuellen Missbrauch von Kindern im Internet
2.2.2. Zahl der ermittelten Kinder
2.2.3. Zahl der verurteilten Täter
2.3.
Entwicklungen des technischen Fortschritts
2.3.1. Aufdeckung von bekanntem Material über sexuellen Missbrauch von Kindern
2.3.2. Aufdeckung von neuem Material über sexuellen Missbrauch von Kindern
2.3.3. Aufdeckung von Kontaktaufnahmen zu Kindern für sexuelle Zwecke
2.3.4. Einsatz generativer KI zum Zweck des sexuellen Missbrauchs von Kindern
3.
SCHLUSSFOLGERUNGEN
1.EINLEITUNG
Interpersonelle Kommunikationsdienste werden zunehmend für den Austausch von Material über sexuellen Missbrauch von Kindern und für die Kontaktaufnahme zu Kindern für sexuelle Zwecke („Grooming“) missbraucht. Dies hat Anbieter bestimmter nummernunabhängiger interpersoneller Kommunikationsdienste wie Webmail- und Messaging-Dienste (im Folgenden „Anbieter“) dazu veranlasst, auf freiwilliger Basis spezifische Technologien einzusetzen, um in ihren Diensten sexuellen Missbrauch von Kindern im Internet aufzudecken und den Strafverfolgungsbehörden und Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen, zu melden. Solchen freiwilligen Maßnahmen kommt eine wertvolle Rolle dabei zu, Opfer zu identifizieren und zu retten, die Kontaktaufnahme zu Kindern und die Verbreitung von Online-Material über sexuellen Missbrauch von Kindern zu verringern und Straftaten im Zusammenhang mit dem sexuellen Missbrauch von Kindern zu verhindern, aufzudecken, zu untersuchen und zu verfolgen. Um die Fortsetzung der freiwilligen Anstrengungen für die Ermittlung von sexuellem Missbrauch von Kindern zu ermöglichen, ist in der Verordnung (EU) 2021/1232
(im Folgenden „Verordnung“) in der durch die Verordnung (EU) 2024/1307 vom 29. April 2024 geänderten Fassung eine vorübergehende Ausnahme von Artikel 5 Absatz 1 und Artikel 6 Absatz 1 der Richtlinie 2002/58/EG vorgesehen.
Gemäß Artikel 9 der Verordnung muss die Kommission einen Durchführungsbericht vorlegen, der auf Daten der Anbieter und der Mitgliedstaaten gestützt ist und in dem insbesondere Folgendes bewertet wird:
a)die Bedingungen für die Verarbeitung relevanter personenbezogener Daten und sonstiger Daten, die gemäß der Verordnung verarbeitet werden,
b)die Verhältnismäßigkeit der in der Verordnung festgelegten Ausnahme, einschließlich einer Bewertung der von den Mitgliedstaaten gemäß Artikel 8 der Verordnung übermittelten Statistiken,
c)Entwicklungen des technischen Fortschritts in Bezug auf die unter die Verordnung fallenden Maßnahmen und das Ausmaß, in dem derartige Entwicklungen die Genauigkeit verbessern und die Zahl und das Verhältnis der Fehler (falsch positive Ergebnisse) verringern.
Dies ist der zweite Durchführungsbericht gemäß der Verordnung, der auf den am 19. Dezember 2023 angenommenen ersten Bericht folgt. Er stützt sich auf die Daten, die seither aus den Berichten der Anbieter und der Mitgliedstaaten gemäß Artikel 3 Absatz 1 Buchstabe g Ziffer vii bzw. Artikel 8 gewonnen wurden.
Im ersten Bericht wurden erhebliche Unterschiede in Bezug auf die Verfügbarkeit von Daten, die Art der erhobenen Daten und damit auch die Vergleichbarkeit der von den Anbietern und den Mitgliedstaaten erhobenen Daten deutlich. An diesem zweiten Bericht ist abzulesen, dass diese Probleme nach wie vor bestehen. Die Anbieter verwendeten nicht, wie in Artikel 3 Absatz 4 der Verordnung vorgeschrieben, das mit der am 25. November 2024 angenommenen Durchführungsverordnung der Kommission festgelegte Standardformular für die Berichterstattung, und begründeten dies damit, dass es erst gegen Ende des Berichtszeitraums zur Verfügung stand. Außerdem übermittelten sie andere Arten von Informationen, die nicht unbedingt vergleichbar sind. Viele Mitgliedstaaten übermittelten die Daten verspätet, und einige übermittelten nur unvollständige Daten oder waren nicht in der Lage, vor der Veröffentlichung dieses Berichts Daten vorzulegen. Die Kommission hat Folgemaßnahmen ergriffen, um die Übermittlung der Daten zu unterstützen und ihre korrekte Auswertung zu ermöglichen. Dies hatte erhebliche Auswirkungen auf den Zeitplan und die Vollständigkeit des Berichts insgesamt. Trotz der Bemühungen, die Kohärenz und Vergleichbarkeit der Daten sicherzustellen, bestehen nach wie vor Unterschiede.
Der vorliegende Bericht soll auf der Grundlage der verfügbaren Daten einen sachlichen Überblick über den Stand der Durchführung der Verordnung geben. Im Bericht wird keine Auslegung der Verordnung vorgenommen und es wird nicht dazu Stellung genommen, wie die Verordnung in der Praxis ausgelegt und angewandt wird.
2.DURCHFÜHRUNGSMAẞNAHMEN
2.1.Verarbeitung personenbezogener Daten durch die Anbieter (Artikel 3 Absatz 1 Buchstabe g Ziffer vii)
In Artikel 3 Absatz 1 Buchstabe g Ziffer vii der Verordnung sind die Bedingungen festgelegt, unter denen Anbieter, die im Rahmen der darin enthaltenen Ausnahme tätig sind, bis zum 3. Februar 2022 und danach bis zum 31. Januar jedes Jahres einen Bericht über die in den Anwendungsbereich dieser Verordnung fallende Verarbeitung personenbezogener Daten veröffentlichen und der zuständigen Aufsichtsbehörde und der Kommission vorlegen müssen. Google, LinkedIn, Meta, Microsoft und Yubo legten sowohl für 2023 als auch für 2024 Berichte vor. Dieser Bericht bezieht sich auf die von den Anbietern für die Jahre 2023 und 2024 übermittelten Daten, während die Daten für 2021 und 2022 Gegenstand des vorangegangenen Berichts sind.
2.1.1.Art und Menge der verarbeiteten Daten
Die Anbieter gaben an, sowohl Inhaltsdaten als auch Verkehrsdaten zu verarbeiten. Als Inhaltsdaten, die zur Aufdeckung von sexuellem Missbrauch von Kindern im Internet verarbeitet werden, nannten alle Anbieter Bilder und Videos. Google verwies zudem auf die Verarbeitung anderer Medienarten.
Hinsichtlich der erhobenen Verkehrsdaten unterscheiden sich die von den Anbietern gemeldeten Daten erheblich:
a)Daten im Zusammenhang mit dem Nutzerkonto (Google, LinkedIn, Microsoft, Yubo), z. B. Benutzerkennung, Benutzername und IP-Adresse,
b)Metadaten zu Inhalten (Google, LinkedIn, Microsoft, Yubo),
c)Daten über potenzielle Opfer (Google),
d)Daten über Missbrauchsvorgänge (Google).
LinkedIn und Microsoft legten Informationen über die im Rahmen der Verordnung verarbeiteten Datenmengen vor, während die anderen Anbieter diesbezüglich keine Daten übermittelten. LinkedIn berichtete, dass im Jahr 2023 mehr als 24 Millionen Bilder und mehr als 1 Million Videos und im Jahr 2024 mehr als 22 Millionen Bilder und mehr als 2 Millionen Videos aus der EU verarbeitet wurden. Microsoft gab an, im Jahr 2023 weltweit mehr als 11,7 Milliarden Inhalte und im Jahr 2024 weltweit 9,6 Milliarden Inhalte verarbeitet zu haben, ohne den Umfang an Daten aus der EU zu spezifizieren.
2.1.2. Gründe für die Verarbeitung gemäß der Verordnung (EU) 2016/679
Alle Anbieter beriefen sich auf einen oder mehrere der spezifischen Gründe gemäß der Verordnung (EU) 2016/679 (Datenschutz-Grundverordnung, im Folgenden „DSGVO“): Artikel 6 Absatz 1 Buchstabe d (Google, Meta, Yubo), Buchstabe e (LinkedIn, Microsoft, Meta, Yubo) und Buchstabe f (Google, Meta, Yubo).
2.1.3.Grund für die Übermittlung personenbezogener Daten in Länder außerhalb der EU
Alle Anbieter gaben an, Datenübermittlungsmechanismen gemäß der DSGVO zu verwenden, einschließlich der Standarddatenschutzklauseln, die von der Kommission gemäß Artikel 46 Absatz 2 Buchstabe c der DSGVO erlassen wurden. Google, Microsoft, LinkedIn und Yubo gaben zudem an, dass sie dem Datenschutzrahmen EU-USA entsprechen.
2.1.4.Zahl der aufgedeckten Fälle von sexuellem Missbrauch von Kindern im Internet, unterschieden nach Material über sexuellen Missbrauch von Kindern im Internet und Kontaktaufnahmen zu Kindern
Tabelle 1: Zahl der im Jahr 2023 aufgedeckten Fälle von sexuellem Missbrauch von Kindern
|
Anbieter
|
Anzahl der Fälle
|
Bemerkungen
|
|
Google
|
1 558 Inhalte
|
734 Meldungen über Material über sexuellen Missbrauch von Kindern wurden an das Nationale Zentrum für vermisste und ausgebeutete Kinder (National Center for Missing and Exploited Children, NCMEC) übermittelt. Es wurde gemeldet, dass über 635 Google-Konten mindestens ein Inhalt von Material über sexuellen Missbrauch von Kindern gesendet wurde.
|
|
LinkedIn
|
2 Inhalte
|
LinkedIn hat 2 Bilder und 0 Videos identifiziert, die Material über sexuellen Missbrauch von Kindern im Internet darstellen.
|
|
Meta
|
3,6 Millionen Inhalte
|
Inhalte, die Material über sexuellen Missbrauch von Kindern darstellen und mit EU-Nutzern in Verbindung stehen.
|
|
Microsoft
|
9 000 Inhalte
|
Mehr als 32 000 Inhalte wurden im Berichtszeitraum weltweit als Material über sexuellen Missbrauch von Kindern identifiziert, davon mehr als 9 000 aus der EU.
|
|
Yubo
|
7 720 Fälle
|
Im Jahr 2023 sperrte Yubo 7 720 Konten in der EU, davon zwei wegen der Verbreitung bekannten Materials über sexuellen Missbrauch von Kindern, 938 wegen der Verbreitung neuen Materials über sexuellen Missbrauch von Kindern und 6 780 wegen der Kontaktaufnahme zu einem Kind oder seiner sexuellen Ausbeutung.
|
Tabelle 2: Zahl der im Jahr 2024 aufgedeckten Fälle betreffend Online-Material über sexuellen Missbrauch von Kindern
|
Anbieter
|
Anzahl der Fälle
|
Bemerkungen
|
|
Google
|
1 824 Inhalte
|
508 Meldungen über Material über sexuellen Missbrauch von Kindern wurden an das NCMEC übermittelt. Es wurde gemeldet, dass über 503 Google-Konten mindestens ein Inhalt von Material über sexuellen Missbrauch von Kindern gesendet wurde.
|
|
LinkedIn
|
1 Inhalt
|
LinkedIn hat 1 Bild und 0 Videos identifiziert, das Material über sexuellen Missbrauch von Kindern im Internet darstellt.
|
|
Meta
|
1,5 Millionen Inhalte
|
Inhalte, die Material über sexuellen Missbrauch von Kindern darstellen und mit EU-Nutzern in Verbindung stehen.
|
|
Microsoft
|
Mehr als 5 800 Inhalte
|
Mehr als 26 000 Inhalte wurden weltweit als Material über sexuellen Missbrauch von Kindern identifiziert, davon mehr als 5 800 aus der EU.
|
|
Yubo
|
4 484 Fälle
|
Yubo identifizierte 742 Fälle im Zusammenhang mit neuem Material über sexuellen Missbrauch von Kindern und 3 742 Fälle im Zusammenhang mit der Kontaktaufnahme zu Kindern.
|
Da alle oben genannten Anbieter wie auch andere Anbieter, die der Kommission keine Meldungen übermittelt haben, Meldungen an das NCMEC in den USA weitergeben (siehe Abschnitt 2.1.9.), bieten die Daten des NCMEC grundsätzlich einen umfassenderen Überblick über die Meldungen über sexuellen Missbrauch von Kindern in der EU. Das NCMEC teilte mit, pro Jahr die folgende Anzahl an Inhalten (Bilder, Videos und andere Dateien) und Fällen von Kontaktaufnahme zu Kindern in Verbindung mit der EU erhalten zu haben:
2.1.5.Beschwerden von Nutzern und Ergebnisse
Nach Artikel 3 Absatz 1 Buchstabe g Ziffer iv der Verordnung müssen die Anbieter geeignete Verfahren und Beschwerdemechanismen einführen, damit die Nutzer bei ihnen Beschwerden einreichen können. Darüber hinaus enthält Artikel 5 Vorschriften über den gerichtlichen Rechtsbehelf.
Alle Anbieter meldeten die Anzahl der Nutzerbeschwerden zu Angelegenheiten, die in der EU in den Anwendungsbereich der Verordnung fallen, und die Ergebnisse solcher Beschwerden. Die Anbieter verwiesen entweder auf Beschwerden gegen die Entfernung von Inhalten oder auf Beschwerden gegen die Sperrung von Nutzerkonten, ohne separate Informationen zu beiden Kategorien zu übermitteln. Google und Yubo berichteten zudem gesondert über Beschwerden, die bei einer Justizbehörde eingereicht wurden. In der nachstehenden Tabelle sind dementsprechend die internen Beschwerdeverfahren aufgeführt. Darüber hinaus enthält sie in der Spalte „Bemerkungen“ Informationen über gerichtliche Rechtsbehelfe, sofern die Daten verfügbar sind. Bislang wurden keine Fälle von Beschwerden bei einer Justizbehörde gemeldet.
Tabelle 3: Zahl der Fälle, in denen Nutzer Beschwerden über den internen Beschwerdemechanismus oder bei einer Justizbehörde eingereicht haben, und das Ergebnis dieser Beschwerden im Jahr 2023
|
Anbieter
|
Nutzerbeschwerden
|
Wiederhergestellte Konten
|
Wiederhergestellte Inhalte
|
Bemerkungen
|
|
Google
|
297
|
10
|
k. A.
|
Die Zahl der Fälle von Nutzerbeschwerden bezieht sich auf Beschwerden gegen die Sperrung eines Nutzerkontos, die über den internen Beschwerdemechanismus eingereicht wurden. Kein Nutzer hat eine Beschwerde bei einer Justizbehörde eingereicht.
|
|
LinkedIn
|
0
|
k. A.
|
k. A.
|
|
|
Meta
|
ca. 254 500
|
k. A.
|
ca. 11 600
|
Die Nutzer legten Rechtsmittel gegen die Maßnahmen ein, die in Verbindung mit rund 254 500 Inhalten ergriffen wurden. Im Anschluss an das Beschwerdeverfahren wurden rund 11 600 Inhalte wiederhergestellt und Sperrungen von Konten rückgängig gemacht.
|
|
Microsoft
|
0
|
k. A.
|
k. A.
|
|
|
Yubo
|
1 159
|
50
|
k. A.
|
Nach Schätzungen von Yubo wurden nach solchen Beschwerden etwa 50 Konten in der EU wiederhergestellt. Kein Nutzer hat bei einer Justizbehörde in der EU eine Beschwerde eingereicht.
|
Tabelle 4: Zahl der Fälle, in denen Nutzer Beschwerden über den internen Beschwerdemechanismus oder bei einer Justizbehörde eingereicht haben, und das Ergebnis dieser Beschwerden im Jahr 2024
|
Anbieter
|
Nutzerbeschwerden
|
Wiederhergestellte Konten
|
Wiederhergestellte Inhalte
|
Bemerkungen
|
|
Google
|
216
|
19
|
k. A.
|
Die Zahl der Fälle von Nutzerbeschwerden bezieht sich auf Beschwerden gegen die Sperrung eines Nutzerkontos, die über den internen Beschwerdemechanismus eingereicht wurden. Kein Nutzer hat eine Beschwerde bei einer Justizbehörde eingereicht.
|
|
LinkedIn
|
1
|
k. A.
|
k. A.
|
|
|
Meta
|
ca. 76 900
|
k. A.
|
ca. 1 800
|
Die Nutzer legten Rechtsmittel gegen die Maßnahmen ein, die in Verbindung mit rund 76 900 Inhalten ergriffen wurden. Im Anschluss an das Beschwerdeverfahren wurden rund 1 800 Inhalte wiederhergestellt und Sperrungen von Konten rückgängig gemacht.
|
|
Microsoft
|
0
|
k. A.
|
k. A.
|
|
|
Yubo
|
31
|
0
|
k. A.
|
Bei Yubo gingen 31 Beschwerden gegen eine Sperrung im Zusammenhang mit der Sicherheit von Kindern in der EU ein. 0 Konten wurden wiederhergestellt.
|
2.1.6.Die Anzahl und der Anteil der mit verschiedenen verwendeten Technologien aufgetretenen Fehler (falsch positive Ergebnisse)
Gemäß Artikel 3 Absatz 1 Buchstabe e der Verordnung müssen die Anbieter sicherstellen, dass die verwendeten Technologien an sich hinreichend zuverlässig sind, da sie die Fehlerquote bei der Erkennung von Inhalten, die sexuellen Missbrauch von Kindern im Internet darstellen, weitestmöglich begrenzen.
In diesem Zusammenhang berichteten alle Anbieter, dass sie einen mehrstufigen Ansatz für die Erkennung von sexuellem Missbrauch von Kindern umgesetzt haben, indem sie verschiedene Erkennungstechnologien kombiniert haben, um die Genauigkeit zu erhöhen. Darüber hinaus besteht ein Zusammenhang zwischen falsch positiven Ergebnissen (wenn das Tool z. B. ein Bild fälschlicherweise als potenzielles Material über sexuellen Missbrauch von Kindern markiert) und falsch negativen Ergebnissen (wenn das Tool z. B. Material über sexuellen Missbrauch von Kindern nicht markiert), da die Verringerung der einen Fehlerquote in der Regel eine Erhöhung der anderen zur Folge hat. Das heißt, dass der Anbieter die Genauigkeitseinstellungen anpassen kann, um auf der Grundlage des spezifischen Kontexts und der Art des Dienstes das angemessene Gleichgewicht auszuwählen.
Die Anbieter verwendeten Hash-Matching-Technologie wie PhotoDNA, MD5 und CSAI Match, um Übereinstimmungen mit zuvor identifiziertem Material über sexuellen Missbrauch von Kindern festzustellen. Ebenfalls wurde über den Einsatz von Klassifikatoren mit künstlicher Intelligenz (KI) und maschinellem Lernen zur Erkennung neuen Materials über sexuellen Missbrauch von Kindern berichtet (Google, Yubo). Yubo berichtete zudem über die Erkennung von Kontaktaufnahmen zu Kindern.
Die Anbieter machten keine Angaben zur Anzahl und zum Anteil der Fehler (falsch positive Ergebnisse) für die einzelnen verwendeten Technologien. Stattdessen meldeten sie aggregierte Daten für alle verwendeten Technologien.
Bei den übermittelten Daten ist zu erkennen, dass unterschiedliche Methoden zur Berechnung der Fehlerquote verwendet wurden. Einige Anbieter verfügten nicht über ausreichende Daten zur Berechnung der Fehlerquote (Microsoft). Andere wandten eine Berechnungsmethode an, die auf dem Gesamtverhältnis der wiederhergestellten Inhalte und/oder rückgängig gemachten Kontosperrungen zu den bearbeiteten Inhalten oder auf der Anzahl der Beschwerden gegen Kontobeschränkungen beruhte (Meta, LinkedIn). Weitere Anbieter (Google und Yubo) verwiesen auf die Anzahl der automatisch als Material über sexuellen Missbrauch von Kindern gekennzeichneten Inhalte, die dann nach menschlicher Überprüfung nicht als Material über sexuellen Missbrauch von Kindern bestätigt wurden (falsch positive Ergebnisse), geteilt durch die Anzahl der automatisch als Material über sexuellen Missbrauch von Kindern gekennzeichneten Inhalte. In den nachstehenden Tabellen werden daher die Unterschiede in den von den Anbietern vorgelegten Datensätzen wiedergegeben.
Die Anbieter gaben auch an, dass sie diese Technologien durch eine menschliche Überprüfung ergänzten, um Fehler und falsch positive Ergebnisse weiter zu verringern. Diese Überprüfung durch Menschen wurde in die nachstehenden Statistiken, in denen nur die Genauigkeit der Technologien selbst berücksichtigt ist, nicht einbezogen.
Tabelle 5: Anzahl und Anteil von Fehlern in den Jahren 2023 und 2024
|
Anbieter
|
Fehlerquote 2023
|
Fehlerquote 2024
|
Berechnungsverfahren
|
Bemerkungen
|
|
Google
|
1,14 % (18 : 1 576)
|
0,54 % (10 : 1 834)
|
Verhältnis der Anzahl der automatisch als Material über sexuellen Missbrauch von Kindern gekennzeichneten Inhalte, die nach menschlicher Überprüfung nicht bestätigt wurden, zur Anzahl der automatisch als Material über sexuellen Missbrauch von Kindern gekennzeichneten Inhalte
|
Die Daten beziehen sich auf die Hash-Matching-Technologie von Google.
|
|
LinkedIn
|
0 % (0 : 0)
|
0 % (0 : 0)
|
Verhältnis der rückgängig gemachten Kontosperrungen zu den Beschwerden über Kontobeschränkungen
|
|
|
Meta
|
0,32 % (11 600 : 3,6 Mio.)
|
0,12 % (1 800 : 1,5 Mio.)
|
Verhältnis der wiederhergestellten Inhalte und der rückgängig gemachten Kontosperrungen zu den bearbeiteten Inhalten
|
|
|
Microsoft
|
k. A.
|
k. A.
|
k. A.
|
Microsoft gab an, dass die Daten nicht ausreichten, um eine Fehlerquote zu berechnen. Im Zusammenhang mit 34 Inhalten wurden ursprüngliche Entscheidungen über die Moderation von Inhalten rückgängig gemacht. Es wurden keine Beschwerden gemeldet.
|
|
Yubo
|
20 %
|
13 %
|
Fälle, die automatisch als Grooming gekennzeichnet wurden und in denen die Moderatoren nicht tätig wurden
|
Die von Yubo vorgelegten Daten beziehen sich ausschließlich auf die Erkennung von neuem Material über sexuellen Missbrauch von Kindern und Grooming.
|
2.1.7.Maßnahmen zur Begrenzung der Fehlerquote und die erreichte Fehlerquote
Gemäß Artikel 3 Absatz 1 Buchstabe e der Verordnung müssen die eingesetzten Technologien hinreichend zuverlässig sein und die Folgen gelegentlich auftretender Fehler unverzüglich berichtigt werden. Darüber hinaus müssen die Anbieter nach Artikel 3 Absatz 1 Buchstabe g Ziffer ii menschliche Aufsicht und erforderlichenfalls menschliche Eingriffe gewährleisten.
Die Anbieter gaben an, verschiedene Maßnahmen und Sicherheitsvorkehrungen anzuwenden, um die Fehlerquote bei der Erkennung von sexuellem Missbrauch von Kindern im Internet zu begrenzen und zu verringern. Dazu zählen:
I.Überwachung und Qualitätsbewertung der Leistung von Tools zur Erkennung von sexuellem Missbrauch von Kindern, um sowohl die Genauigkeit (d. h. nur Erkennung von sexuellem Missbrauch von Kindern im Internet) als auch die Rückrufquote (d. h. kein Übersehen von sexuellem Missbrauch von Kindern im Internet auf ihren Plattformen) zu verbessern (Google),
II.Anwendung von Hash-Überprüfungsverfahren, bei denen Analysten Elemente in Verbindung mit Hash-Datenbanken überprüfen und/oder die Qualität bestehender Hashs überprüfen (Google, Microsoft, LinkedIn),
III.menschliche Überprüfung und Aufsicht: Medien, die durch Hash-Matching-Technologien als Material über sexuellen Missbrauch von Kindern identifiziert wurden, durch menschliche Prüfer/geschulte Analysten (Google, LinkedIn, Meta, Microsoft, Yubo),
IV.systematische menschliche Überprüfung von Medien, die vor der Berichterstattung als mögliches neues Material über sexuellen Missbrauch von Kindern identifiziert wurden (Google im Jahr 2023),
V.Einsatz von menschlichen Prüfern, die eine spezielle Schulung absolvieren und/oder regelmäßig neu zertifiziert werden müssen (Google, Yubo),
VI.Bewertung der Qualitätskontrollen menschlicher Prüfer und der vorgenommenen Bewertungen (Google, Yubo),
VII.Entwicklung und regelmäßige Überprüfung von Richtlinien und Durchsetzungsstrategien im Hinblick auf sexuellen Missbrauch von Kindern im Internet durch geschulte Experten (Google),
VIII.regelmäßige Konsultationen mit Sachverständigen zur Verbesserung der Genauigkeit bei der Ermittlung von Material über sexuellen Missbrauch von Kindern, einschließlich Kanälen für Rückmeldungen von vertrauenswürdigen Organisationen, die gegen sexuellen Missbrauch von Kindern vorgehen, wie das NCMEC und Thorn (Google),
IX.Warnsystem, mit dem sichergestellt wird, dass Cluster mit hohem Volumen gekennzeichnet und überprüft werden (Meta),
X.Maßnahmen zur Verbesserung der Qualität von Sicherheitsalgorithmen (Yubo).
2.1.8.Aufbewahrungsregeln und Datenschutzvorkehrungen
Gemäß Artikel 3 Absatz 1 Buchstaben h und i der Verordnung dürfen personenbezogene Daten nur für bestimmte Zwecke auf sichere Weise und für eine festgelegte Dauer gespeichert werden. Darüber hinaus müssen die geltenden Anforderungen der DSGVO eingehalten werden.
Alle Anbieter gaben an, über Regelungen zur Datenaufbewahrung und Vorkehrungen für den Schutz personenbezogener Daten zu verfügen. Die Regelungen zur Datenaufbewahrung sind je nach Art der Daten unterschiedlich. Die Anbieter wiesen darauf hin, dass die Aufbewahrungsfrist abhängig von der Art der Daten und dem Zweck der Verarbeitung in jedem Fall zeitlich begrenzt sei und die Daten nach Ablauf der Aufbewahrungsfrist gelöscht würden. Die meisten Anbieter (Google; Meta und LinkedIn für 2024) gaben zudem an, die Regel anzuwenden, aufgedecktes Material über sexuellen Missbrauch von Kindern höchstens 12 Monate lang aufzubewahren. Yubo gab an, dass Daten über die Moderation von Inhalten in der Regel 12 Monate lang gespeichert würden und dass die Speicherfristen von der Art der Inhalte, der Art des Verstoßes und den Speicherbedingungen abhingen. Meta gab im Jahr 2024 an, dass die Daten zu den Beschwerden der Nutzer für einen Zeitraum von 195 Tagen aufbewahrt würden.
Zu den von den Anbietern gemeldeten Datenschutzvorkehrungen gehören:
I.Einsatz von Techniken zur De-Identifizierung oder Pseudonymisierung (z. B. Maskierung, Hashing, differenzielle Privatsphäre) (Microsoft),
II.Einsatz von Datenverschlüsselung bei der Übertragung (z. B. TLS-Protokolle) (Meta, Yubo),
III.Zugangskontrollen (Meta, Yubo),
IV.Umsetzung von Daten-Governance-Strategien und/oder Datenschutzprogrammen, damit Daten nur in zulässiger Weise abgerufen, verwendet oder ausgetauscht werden (Google),
V.Durchführung von Datenschutzüberprüfungen, um potenzielle Risiken für den Schutz der Privatsphäre bei der Erhebung, Verarbeitung, Speicherung und Weitergabe personenbezogener Daten zu ermitteln, abzurufen und zu mindern, und Überprüfung der Datenschutzverfahren, wenn neue Systemfunktionen oder -prozesse entwickelt werden (Microsoft),
VI.unverzügliche Untersuchung gemeldeter Vorfälle durch das Reaktionsteam (Google),
VII.Maßnahmen zu internen Beschwerdemechanismen und zur Information der Nutzer, einschließlich Maßnahmen zur Sicherstellung des Rechts auf Zugang zu Nutzerdaten (Google 2024).
2.1.9.Organisationen, die im öffentlichen Interesse handeln und mit denen Daten ausgetauscht wurden
Alle Anbieter gaben an, die Daten gemäß dieser Verordnung an das NCMEC zu übermitteln. Alle meldenden Anbieter haben der Kommission gemäß Artikel 7 Absatz 1 der Verordnung auch mitgeteilt, dass sie Fälle von sexuellem Missbrauch von Kindern im Internet gemäß dieser Verordnung an das NCMEC gemeldet haben. Yubo berichtete zudem über die Weitergabe der Daten an die Internet Watch Foundation (IWF) im Vereinigten Königreich und an PHAROS (Plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements) in Frankreich.
2.2.Statistiken der Mitgliedstaaten (Artikel 8)
Gemäß Artikel 8 Absatz 1 der Verordnung müssen die Mitgliedstaaten Berichte mit Statistiken zu folgenden Aspekten öffentlich zugänglich machen und der Kommission vorlegen:
a)die Gesamtzahl der Berichte über festgestellten sexuellen Missbrauch von Kindern im Internet, die den zuständigen nationalen Strafverfolgungsbehörden von Anbietern und Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen, übermittelt wurden, wobei zwischen der absoluten Zahl der Fälle und jenen Fällen, die mehrmals gemeldet werden, sowie nach der Art des Anbieters, in dessen Diensten sexueller Missbrauch von Kindern im Internet festgestellt wurde, unterschieden wird, sofern solche Daten vorhanden sind,
b)die Zahl der Kinder, die im Rahmen von Maßnahmen gemäß Artikel 3 ermittelt wurden, aufgeschlüsselt nach Geschlecht,
c)die Zahl der verurteilten Täter.
Da einige Mitgliedstaaten für den vorangegangenen Bericht Daten bis Juli 2022 und andere für das gesamte Jahr 2022 übermittelt haben, werden in diesem Bericht die gesamten Kalenderjahre 2022, 2023 und 2024 behandelt, um die Vergleichbarkeit zu erleichtern. Allerdings unterscheiden sich die von den Mitgliedstaaten gemeldeten Daten hinsichtlich Vollständigkeit und Detailgenauigkeit erheblich. Einige Mitgliedstaaten (Belgien, Estland, Irland, Spanien, Kroatien, Portugal und Rumänien) übermittelten nicht für jedes der betreffenden Jahre alle erforderlichen Daten.
2.2.1. Die Gesamtzahl der Berichte über festgestellten sexuellen Missbrauch von Kindern im Internet
Die meisten Mitgliedstaaten legten gemäß Artikel 8 Absatz 1 Buchstabe a der Verordnung für die Kalenderjahre 2022, 2023 und 2024 jährliche Statistiken über die Gesamtzahl der Berichte über sexuellen Missbrauch von Kindern im Internet vor. Portugal legte für keines der betreffenden Jahre Daten vor, während Spanien für 2023 oder 2024 keine Daten vorlegte.
Die Mitgliedstaaten gaben in der Regel die Gesamtzahl der Meldungen an, die den nationalen Strafverfolgungsbehörden von Anbietern oder anderen Organisationen, die im öffentlichen Interesse gegen den sexuellen Missbrauch von Kindern vorgehen, übermittelt wurden. Die meisten Mitgliedstaaten gaben an, die meisten oder alle ihrer Berichte vom NCMEC zu erhalten. Die Mitgliedstaaten machten keine Angaben zur Zahl der verfolgbaren Meldungen (d. h. der Meldungen, die für eine Ermittlung geeignet sind); einige nannten jedoch die Zahl der eingeleiteten Verfahren, die deutlich niedriger ist. Ebenso unterschieden die Mitgliedstaaten – mit Ausnahme Finnlands und Dänemarks – nicht zwischen der Gesamtzahl der Fälle und den mehrfach gemeldeten Fällen. Nur wenige Mitgliedstaaten (z. B. Belgien, Irland, Polen und Rumänien) gaben die Art der Anbieter an, in deren Diensten sexueller Missbrauch von Kindern im Internet aufgedeckt wurde. Einige legten eine detaillierte Aufschlüsselung vor (Belgien, Tschechien, Frankreich, Luxemburg, Rumänien und Finnland).
Tabelle 6: Gesamtzahl der von den Mitgliedstaaten gemeldeten Fälle von festgestelltem sexuellem Missbrauch von Kindern
|
Land
|
Berichte im Jahr 2022
|
Berichte im Jahr 2023
|
Berichte im Jahr 2024
|
Quelle der Meldungen
|
Bemerkungen
|
|
AT
|
10 130
|
15 882
|
18 276
|
NCMEC
|
|
|
BE
|
19 919
|
11 910
|
4 284
|
Berichte von Anbietern (soziale Medien)
|
Die Zahl der Anbieter, die sexuellen Missbrauch von Kindern im Internet aufdecken, ist von 2022 bis 2024 gestiegen. Für 2024 meldete Belgien nur die Zahl der verfolgbaren Meldungen und änderte damit die in den Vorjahren angewandte Methodik.
|
|
BG
|
25 303
|
38 026
|
71 187
|
NCMEC und INHOPE (Internationaler Verband der Internet-Meldestellen)
|
In den drei betreffenden Jahren gingen 42 596 Berichte vom NCMEC und 92 010 von Safenet ein.
|
|
CY
|
2 809
|
3 516
|
5 380
|
NCMEC
|
|
|
CZ
|
23 854
|
21 658
|
22 580
|
NCMEC, CZ.NIC (Tschechischer Verband der Internetdiensteanbieter)
|
Im Jahr 2024 gingen Berichte von 57 verschiedenen Diensteanbietern ein, die meisten davon von Instagram (11 857 Berichte), gefolgt von Facebook (4 461), Snapchat (3 610), Imgur (1 705), Discord (1 510), Google (1 439), Microsoft – Online Operations (870), TikTok (825) und WhatsApp (620).
|
|
DE
|
136 437
|
180 287
|
205 728
|
NCMEC
|
Deutschland teilte mit, dass es keine eigenen Statistiken gemäß Artikel 8 Absatz 1 der Verordnung vorlegen könne, da es keine Rechtsgrundlage für eine freiwillige Aufdeckung gebe. Jedoch legte Deutschland Polizeistatistiken zur Kriminalität vor und wies darauf hin, dass das Jahr, in dem eine Straftat begangen wurde, nicht unbedingt mit dem Jahr übereinstimme, in dem sie in den Statistiken auftauche: In Verbindung mit sexuellem Missbrauch von Kindern und Jugendlichen gab es 16 655 Fälle im Jahr 2022 und 17 575 Fälle im Jahr 2023 (+ 6 %). In Verbindung mit der Verbreitung, dem Erwerb und dem Besitz von Darstellungen sexuellen Missbrauchs von Kindern und Jugendlichen gab es 48 853 Fälle im Jahr 2022 und 54 042 Fälle im Jahr 2023 (+ 11 %).
|
|
DK
|
7 556
|
9 938
|
10 918
|
NCMEC
|
Im Jahr 2022 wurden 2 474 Verfahren eingeleitet, 2 278 im Jahr 2023 und 2 097 im Jahr 2024. Von den eingeleiteten Verfahren basierten 90 auf Material über sexuellen Missbrauch von Kindern, das in verschiedenen Jahren mehrmals gemeldet wurde.
|
|
EE
|
250
|
305
|
274
|
NCMEC, Child Helpline 116 111
|
Estland teilte mit, dass die Polizei- und Grenzschutzstatistiken, einschließlich der Daten des NCMEC, nicht öffentlich zugänglich seien. 2022 wurden 250 Sexualstraftaten gegen Kinder ohne Körperkontakt gemeldet, 2023 waren es 305. 88 % aller Sexualstraftaten ohne Körperkontakt im Jahr 2022 wurden im Online-Bereich begangen.
Die für 2024 verfügbaren Daten entsprechen Fällen, die von der Polizei registriert und der Öffentlichkeit im Rahmen der vom Ministerium für Justiz und digitale Angelegenheiten durchgeführten Kriminalitätserhebung zur Kenntnis gebracht wurden. Diese Statistiken sind aus den Daten des NCMEC abgeleitet, es handelt sich also nicht um nationale Statistiken.
|
|
EL
|
121
|
103
|
123
|
NCMEC, Griechische Hotline für illegale Internetinhalte – Safeline, INTERPOL, Europol, Griechische gemeinnützige Organisation – the Smile of the Child
|
|
|
ES
|
31 474
|
–
|
–
|
Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen
|
Für 2023 und 2024 wurden keine Daten übermittelt.
|
|
FI
|
11 248
|
16 781
|
13 954
|
NCMEC und andere Kanäle
|
Was die Daten für 2024 betrifft, so lässt sich die genaue Zahl der mehrfach gemeldeten Fälle nicht aus Datenbanken ableiten, aber das NCMEC schätzt die Zahl dieser Doppelmeldungen auf 20 bis 300. Bei Snapchat scheinen am häufigsten Doppelmeldungen vorzuliegen. Zusätzlich zu den Daten des NCMEC meldete Save the Children Finnland 71 Domains und 439 URL, die nationale Initiative Sua varten somessa („Für Sie in den sozialen Medien“) 90 Vorfälle und andere Organisationen/Anbieter weniger als 10 Vorfälle.
|
|
FR
|
227 645
|
335 408
|
164 516
|
NCMEC, NCECC (Canada’s National Child Exploitation Crime Centre), Nationale Zentralbüros von INTERPOL, Europol-Netzanwendung für sicheren Datenaustausch (SIENA), Plattform des Innenministeriums – PHAROS
|
Im Jahr 2024 gingen insgesamt 158 503 Meldungen des NCMEC ein, von denen 28 737 die finanziell motivierte sexuelle Erpressung von Minderjährigen und die Korruption von Minderjährigen betrafen.
|
|
HR
|
11 693
|
8 010
|
8 900
|
Anbieter von Internetdiensten
|
|
|
HU
|
109 477
|
25 720
|
25 092
|
Anbieter und Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen
|
Es liegen keine Informationen über Fälle vor, die mehrfach gemeldet wurden, oder darüber, in welchen Diensten das Material aufgedeckt wurde.
|
|
IE
|
9 168
|
10 785
|
13 334
|
NCMEC
|
Die Behörden registrieren Bilder oder Videos, die mehrfach gemeldet wurden, nicht.
|
|
IT
|
4 607
|
7 389
|
9 001
|
Verbände und Anbieter
|
Da noch nicht alle Daten aus dem Jahr 2024 verarbeitet wurden, sind die Zahlen noch nicht endgültig.
|
|
LT
|
4 992
|
6 353
|
6 803
|
Keine Angabe
|
|
|
LU
|
789
|
1 641
|
2 112
|
NCMEC und BeeSecure (luxemburgisches Safer-Internet-Zentrum)
|
Daten zur Aufschlüsselung der Meldungen nach NCMEC und BeeSecure für 2023 und 2024 wurden übermittelt, sind jedoch unklar, da die Anzahl der Meldungen der Anbieter nicht die angegebene Gesamtsumme ergibt.
|
|
LV
|
6
|
29
|
30
|
NCMEC, GRID COP, Online-Schutzsystem für Internetkriminalität gegen Kinder (ICACCOPS), lettisches Safer-Internet-Zentrum
|
In der Gesamtzahl der eingereichten Meldungen sind keine Meldungen enthalten, bei denen nach der Überprüfung kein Strafverfahren eingeleitet wurde, da sie nicht getrennt gezählt werden. Nur ein Teil der Meldungen enthält Hinweise darauf, dass die Straftat im Zusammenhang mit Lettland steht.
|
|
MT
|
840
|
1 943
|
272
|
Nationale Hotline (childwebalert.gov.mt), Europäisches Netz von Safer-Internet-Zentren und von INSAFE und INHOPE verwaltete Hotlines – BeSmartOnline
|
|
|
NL
|
36 536
|
70 057
|
70 351
|
Anbieter und Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen
|
|
|
PL
|
145
|
117
|
9 293
|
Anbieter und Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen, darunter Dyżurnet.pl
|
|
|
PT
|
–
|
–
|
–
|
–
|
Daten nicht übermittelt
|
|
RO
|
5 705
|
1 254
|
13 384
|
Save the Children
|
Die Zahl der Meldungen von sexuellem Missbrauch von Kindern im Internet bezieht sich Rumänien zufolge auf Material über sexuellen Missbrauch von Kindern, das bei rumänischen Anbietern gehostet wurde, wobei die meisten Kunden jedoch nicht aus Rumänien stammten.
|
|
SE
|
16 800
|
22 592
|
23 834
|
NCMEC
|
Die Gesamtzahl der eingehenden Meldungen entspricht nicht der tatsächlichen Zahl der zu untersuchenden polizeilichen Meldungen, da eine polizeiliche Meldung mehrere Meldungen von Anbietern über denselben Nutzer enthalten kann und nicht alle Meldungen nach schwedischem Strafrecht Straftaten darstellen. Die Zahl der polizeilichen Meldungen ist im Jahr 2023 deutlich höher als in den Jahren 2022 und 2024. Dies ist auf eine im Jahr 2023 durchgeführte nationale Operation zurückzuführen, in deren Rahmen alle nicht priorisierten NCMEC-Meldungen aus dem Jahr 2018 bearbeitet werden sollten.
|
|
SI
|
165
|
203
|
251
|
Anbieter und Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen
|
Anhand der verfügbaren statistischen Daten ist es Slowenien nicht möglich, statistische Daten über Straftaten, die aufgrund von Meldungen von Anbietern und Organisationen ermittelt werden, von statistischen Daten über andere Meldungen zu trennen. Es liegen keine Daten über die absolute Zahl der Fälle, über mehrfach gemeldete Fälle oder über Aufschlüsselungen nach der Art des Anbieters vor, über dessen Dienst sexueller Missbrauch von Kindern im Internet aufgedeckt wurde. Darüber hinaus wurde der Straftatbestand des sexuellen Übergriffs gegen eine Person unter 15 Jahren gemäß Artikel 173 des Strafgesetzbuchs nicht in die bereitgestellten Statistiken aufgenommen, da sich dieser Straftatbestand in den meisten Fällen im physischen Umfeld ereignet, auch wenn er in geringerem Maße im Internet vorkommen kann.
|
|
SK
|
7 628
|
9 601
|
9 017
|
Anbieter und Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen
|
Es liegen keine Informationen über Fälle vor, die mehrfach gemeldet wurden.
|
|
Insgesamt
|
705 297
|
799 508
|
708 894
|
|
|
Da das NCMEC die Hauptquelle für die Meldungen ist, ist die Zahl der Meldungen betreffend die Mitgliedstaaten, die das NCMEC erhalten und an die Mitgliedstaaten weitergeleitet hat, aufschlussreich:
Die Gesamtzahl der Meldungen verteilt sich wie folgt auf die Mitgliedstaaten:
Tabelle 7: Meldungen des NCMEC über sexuellen Missbrauch von Kindern im Internet betreffend die EU-Mitgliedstaaten in den Jahren 2022, 2023 und 2024
|
Land
|
Meldungen insgesamt 2022
|
Meldungen insgesamt 2023
|
Meldungen insgesamt 2024
|
|
Österreich
|
18 501
|
19 630
|
17 425
|
|
Belgien
|
50 255
|
41 926
|
26 752
|
|
Bulgarien
|
31 937
|
17 726
|
30 684
|
|
Kroatien
|
11 693
|
16 339
|
8 821
|
|
Zypern
|
7 361
|
7 564
|
5 750
|
|
Tschechien
|
61 994
|
34 342
|
21 589
|
|
Dänemark
|
30 215
|
12 048
|
10 330
|
|
Estland
|
6 408
|
4 338
|
4 540
|
|
Finnland
|
10 904
|
16 364
|
12 779
|
|
Frankreich
|
227 465
|
310 519
|
150 684
|
|
Deutschland
|
138 193
|
173 560
|
197 201
|
|
Griechenland
|
43 345
|
24 985
|
16 737
|
|
Ungarn
|
109 434
|
25 643
|
16 718
|
|
Irland
|
19 770
|
13 265
|
13 604
|
|
Italien
|
96 512
|
90 424
|
75 274
|
|
Lettland
|
3 688
|
4 671
|
6 618
|
|
Litauen
|
16 603
|
12 005
|
7 682
|
|
Luxemburg
|
2 004
|
3 000
|
2 115
|
|
Malta
|
4 713
|
1 713
|
1 233
|
|
Niederlande
|
57 012
|
72 913
|
68 611
|
|
Polen
|
235 310
|
108 800
|
79 174
|
|
Portugal
|
42 674
|
45 675
|
24 707
|
|
Rumänien
|
96 287
|
133 054
|
44 424
|
|
Slowakei
|
39 748
|
13 164
|
8 647
|
|
Slowenien
|
14 795
|
6 204
|
4 685
|
|
Spanien
|
77 727
|
104 748
|
68 733
|
|
Schweden
|
48 883
|
29 237
|
25 300
|
|
Insgesamt
|
1 503 431
|
1 343 857
|
950 817
|
Die erhebliche Diskrepanz zwischen der Anzahl der vom NCMEC an den Mitgliedstaat übermittelten Meldungen und der Anzahl der vom Mitgliedstaat als eingegangen angegebenen Meldungen deutet darauf hin, dass die Datenerfassung und Berichterstattung der Mitgliedstaaten nicht vollständig sind.
In den Statistiken des NCMEC zu den einzelnen Mitgliedstaaten werden die Meldungen nicht nach Quelle aufgeschlüsselt, insbesondere nicht danach, ob die Meldung von einem nummernunabhängigen interpersonellen Kommunikationsdienst stammt. Das NCMEC stellt jedoch Statistiken über die Gesamtzahl der die EU betreffenden Meldungen zur Verfügung, die von nummernunabhängigen interpersonellen Kommunikationsdiensten, zum Beispiel von einem Chat-, Messaging- oder E-Mail-Dienst, stammen. Das NCMEC übermittelte außerdem Zahlen zu Meldungen von sozialen Medien oder Online-Gaming-Plattformen, einschließlich ihrer integrierten Messaging- oder Chat-Dienste.
Im Jahr 2024 ging die Zahl der die EU betreffenden Meldungen erheblich zurück (30 %). Darin schlägt sich ein globaler Trend nieder: Die Meldungen beliefen sich 2022 auf 31,9 Millionen und 2023 auf 35,93 Millionen, bevor sie 2024 auf 19,85 Millionen zurückgingen. Das NCMEC führt diesen Rückgang zum Teil auf eine Verringerung der Meldungen von interpersonellen Messaging-Diensten zurück, da diese Dienste die Ende-zu-Ende-Verschlüsselung einführen und die Anbieter ihre Aufdeckungsbemühungen einstellen. Der Rückgang des Anteils der Meldungen interpersoneller Messaging-Dienste scheint in der Tat darauf hinzudeuten, dass ein großer Teil des Rückgangs auf die geringere Zahl der Meldungen solcher Dienste zurückzuführen ist.
2.2.2. Zahl der ermittelten Kinder
Die meisten Mitgliedstaaten haben gemäß Artikel 8 Absatz 1 Buchstabe b der Verordnung Statistiken über die Zahl der ermittelten Kinder vorgelegt. Drei Mitgliedstaaten haben keine Daten vorgelegt (Belgien, Portugal und Rumänien), während andere nur Daten für bestimmte Jahre vorgelegt haben (z. B. Finnland für 2023 und 2024 und Spanien für 2022). Viele Mitgliedstaaten waren nicht in der Lage, nach Geschlecht zu differenzieren.
Mehrere Mitgliedstaaten meldeten nur unvollständige Statistiken und wiesen beispielsweise darauf hin, dass keine Daten verfügbar seien, weil sie im Rahmen der nationalen statistischen Datenerhebung nicht erfasst würden, oder dass die nationalen Behörden diese Statistiken nicht aufzeichneten (Belgien, Frankreich und Finnland) oder dass die Daten bei der nationalen Erhebung von Statistikdaten nicht nach Geschlecht aufgeschlüsselt würden (Tschechien, Zypern, Litauen, Ungarn und die Niederlande). In vielen Mitgliedstaaten wird bei den nachstehenden Daten nicht zwischen Opfern von sexuellem Missbrauch von Kindern im Internet und offline unterschieden, sodass es möglich ist, dass die Daten nicht der tatsächlichen Zahl der Fälle von sexuellem Missbrauch von Kindern im Internet entsprechen (z. B. Deutschland, Zypern und Luxemburg). Die Daten umfassen daher sowohl Opfer, die auf der Grundlage einer Meldung eines Anbieters identifiziert wurden, als auch Fälle, in denen beispielsweise die Opfer selbst oder ein Dritter die Straftat angezeigt haben könnten (z. B. Deutschland und Luxemburg). In anderen Fällen bezieht sich die Zahl der identifizierten Opfer von sexuellem Missbrauch von Kindern nur auf Staatsangehörige des jeweiligen Landes oder auf Personen, die dort wohnen, sodass Kinder anderer Staatsangehörigkeit und nicht identifizierte Kinder ausgeschlossen sind (z. B. Lettland und Litauen).
Tabelle 8: Anzahl der identifizierten Opfer im Kindesalter nach Geschlecht
|
Land
|
2022
|
2023
|
2024
|
Bemerkungen
|
|
|
Weiblich (W)/
Männlich (M)/
Geschlecht nicht identifiziert
|
Insgesamt
|
W/M/Geschlecht nicht identifiziert
|
Insgesamt
|
W/M/Geschlecht nicht identifiziert
|
Insgesamt
|
|
|
AT
|
4/2
|
6
|
9/4
|
13
|
3/3
|
6
|
Zahl der Kinder, die auf der Grundlage der Meldungen des NCMEC identifiziert wurden.
|
|
BE
|
–
|
–
|
–
|
–
|
–
|
–
|
Daten nicht verfügbar.
|
|
BG
|
50/12
|
62
|
25/27
|
52
|
32/28
|
60
|
|
|
CY
|
–
|
102
|
–
|
106
|
–
|
131
|
Es liegen keine Daten nach Geschlecht vor. Die Gesamtzahlen beziehen sich auf Opfer in allen untersuchten Fällen der sexuellen Ausbeutung von Kindern.
|
|
CZ
|
–
|
45
|
–
|
53
|
5/15
|
20
|
Nur für 2024 liegen nach Geschlecht aufgeschlüsselte Daten vor. Die im Jahr 2024 erfassten Kinder waren Opfer von sexueller Erpressung.
|
|
DE
|
–
|
18 379
|
14 979/
4 795
|
19 774
|
–
|
19 344
|
Da in den Statistiken nicht nach dem Grund oder Ursprung der Ermittlungen unterschieden wird, können die Daten Fälle umfassen, die ausschließlich aufgrund einer Meldung eines Anbieters aufgedeckt wurden, aber auch Fälle, die in keiner Weise mit dem Internet in Zusammenhang stehen.
|
|
DK
|
62/70
|
132
|
22/35
|
57
|
62/43
|
105
|
Die Statistiken basieren auf Zahlen aus dem Fallbearbeitungssystem der Polizei (POLSAS) und sind nicht endgültig, da einige Fälle noch anhängig sind.
Ebenso sind Kinder, die auf andere Weise identifiziert wurden, zum Beispiel in früheren Fällen oder in einem internationalen Kontext, in den Statistiken nicht vertreten.
|
|
EE
|
24/23
|
47
|
22/29
|
51
|
19/14
|
33
|
|
|
EL
|
9/0
|
9
|
26/1
|
27
|
14/0
|
14
|
|
|
ES
|
80/39
|
119
|
–
|
–
|
–
|
–
|
Daten für 2023 und 2024 nicht übermittelt.
|
|
FI
|
–
|
Nicht verfügbar
|
–
|
526
|
–
|
1 045
|
Die Zahl der Opfer im Kindesalter dürfte höher sein, da ein manueller Aufwand erforderlich ist, um einen Fall als Fall mit einem Opfer von sexuellem Missbrauch von Kindern im Internet zu klassifizieren.
|
|
FR
|
–
|
k. A.
|
–
|
5
|
–
|
60
|
|
|
HR
|
4/0
|
4
|
6/0
|
6
|
6/17
|
23
|
|
|
HU
|
–
|
30
|
–
|
12
|
–
|
200
|
Es liegen keine Daten nach Geschlecht vor.
|
|
IE
|
25/26
|
51
|
50/65
|
115
|
20/53
|
73
|
|
|
IT
|
–
|
385
|
–
|
434
|
–
|
500
|
Die festgestellten Fälle von sexueller Erpressung betrafen: 21 W und 111 M im Jahr 2022, 20 W und 117 M im Jahr 2023, 21 W und 109 M im Jahr 2024.
Die Fälle von Grooming betrafen: 75 W und 46 M im Jahr 2022, 81 W und 82 M im Jahr 2023, 124 W und 11 M im Jahr 2024.
|
|
LT
|
–
|
10
|
–
|
25
|
–
|
21
|
Die Zahlen beziehen sich auf Kinder, die als Opfer identifiziert wurden und Staatsangehörige Litauens sind oder dort ihren Wohnsitz haben. Die meisten Ermittlungen betreffen nicht identifizierte Kinder, vor allem im Zusammenhang mit Material, das im Ausland angefertigt wurde.
|
|
LU
|
–
|
0
|
3/0
|
3
|
1/0
|
1
|
Die Zahlen stehen nicht unbedingt mit der Online-Aufdeckung im Zusammenhang.
|
|
LV
|
–
|
0
|
5/1
|
6
|
8/0
|
8
|
Die Zahlen beziehen sich ausschließlich auf Kinder, die in Lettland wohnen.
|
|
MT
|
2/4
|
6
|
408/470/11
|
889
|
9/9
|
18
|
Die Daten für 2023 beziehen sich auf Kinder, die von der Stiftung für Sozialfürsorgedienste (FSWS) identifiziert wurden, während sich die Daten für 2022 und 2024 auf Strafverfolgungsstatistiken beziehen.
|
|
NL
|
–
|
k. A.
|
–
|
676
|
–
|
359
|
Es liegen keine Daten nach Geschlecht vor.
|
|
PL
|
520/82/23
|
566
|
133/34/140
|
307
|
109/25
|
134
|
|
|
PT
|
–
|
–
|
–
|
–
|
–
|
–
|
Daten nicht übermittelt
|
|
RO
|
–
|
–
|
–
|
–
|
–
|
–
|
Daten nicht übermittelt Es wurden keine rumänischen Opfer oder in Rumänien angefertigten Materialien identifiziert, was RO darauf zurückführt, dass die meisten Materialien bereits international bekannt sind.
|
|
SE
|
3/0
|
3
|
16/10/2
|
28
|
53/65
|
118
|
Kinder, die in Fällen identifiziert wurden, die nicht zu polizeilichen Meldungen führten, werden aus den Statistiken ausgeschlossen. In einigen Fällen führten die Ermittlungen, selbst wenn das Opfer identifiziert wurde, nicht notwendigerweise zu einer Verurteilung.
Die Zahl der über Chatprotokolle identifizierten Kinder ist in den Statistiken enthalten.
|
|
SI
|
83/15
|
98
|
121/38
|
159
|
161/30
|
191
|
Die statistischen Daten stammen aus der aktuellen Datenbank und können sich noch ändern.
|
|
SK
|
11/6
|
17
|
3/2
|
5
|
7/2
|
9
|
|
|
INSGESAMT
|
|
20 071
|
|
23 329
|
|
22 473
|
|
Da die Mitgliedstaaten für die betreffenden Zeiträume zumeist unvollständige Zahlen meldeten oder nicht differenzieren konnten, ob die Ermittlungen durch freiwillige Aufdeckung angestoßen wurden, und einige Mitgliedstaaten keine Daten übermittelten, ist es nicht möglich, die Gesamtzahl der Kinder, die auf der Grundlage von Meldungen über sexuellen Missbrauch von Kindern im Internet in der EU als Opfer identifiziert wurden, zu berechnen. Aus den von den Mitgliedstaaten bereitgestellten Daten und Informationen geht jedoch hervor, dass eine beträchtliche Anzahl von Opfern durch die freiwillige Meldung gemäß der Verordnung identifiziert wurde.
2.2.3. Zahl der verurteilten Täter
Während die meisten Mitgliedstaaten ihrer Verpflichtung nachgekommen sind, Statistiken über die Zahl der verurteilten Täter vorzulegen, haben drei Mitgliedstaaten keine Daten gemäß Artikel 8 Absatz 1 Buchstabe c der Verordnung vorgelegt (Belgien, Zypern und Spanien). Mehrere Mitgliedstaaten haben für mindestens eines der betreffenden Jahre keine Statistiken gemäß Artikel 8 Absatz 1 Buchstabe c vorgelegt, hauptsächlich weil keine Daten verfügbar waren (Belgien, Deutschland, Irland, Spanien, Frankreich, Zypern, Malta, Portugal und Finnland).
Die Mitgliedstaaten meldeten zumeist fragmentierte und unvollständige Daten über die Zahl der verurteilten Täter und verwendeten unterschiedliche Kriterien für die Erfassung der einschlägigen Informationen, wie aus der nachstehenden Tabelle hervorgeht.
Tabelle 9: Zahl der verurteilten Täter
|
Land
|
Anzahl der Verurteilungen 2022
|
Anzahl der Verurteilungen 2023
|
Anzahl der Verurteilungen 2024
|
Bemerkungen
|
|
AT
|
768
|
323
|
334
|
|
|
BE
|
–
|
–
|
–
|
Aufgrund technischer Probleme stehen die Daten erst Ende 2025 zur Verfügung.
|
|
BG
|
17
|
52
|
60
|
|
|
CY
|
Keine Verurteilungen
|
Daten nicht verfügbar
|
Daten nicht verfügbar
|
Es liegen keine Statistiken vor, da die Polizeibeamten nicht immer über den Ausgang von Gerichtsverfahren informiert werden.
|
|
CZ
|
33
|
25
|
12
|
|
|
DE
|
1 847
|
1 779
|
Daten nicht verfügbar
|
Die Bundesregierung gab an, über keine Daten zu Strafverfahren zu verfügen, da diese Daten ausschließlich von Staatsanwälten und Gerichten in den 16 Bundesländern erhoben und nur an das Statistische Bundesamt (StBA) übermittelt wurden. Die Bundesregierung hat auf der Website des StBA Zahlen für 2022 und 2023 gefunden, die sie hier gemeldet hat.
|
|
DK
|
318
|
175
|
44
|
Die Statistiken basieren auf den Zahlen aus POLSAS und sind nicht endgültig, da einige Fälle noch anhängig sind. Aufgrund der Besonderheiten der nationalen Datenerhebung unterliegen sie zudem einer Reihe von Einschränkungen.
|
|
EE
|
1
|
13
|
4
|
Die Zahlen umfassen nur Verurteilungen infolge der Meldungen des NCMEC, die von Google, Dropbox, Facebook Messenger, Instagram Messenger, KIK Messenger, Snapchat und Twitch bereitgestellt wurden.
|
|
EL
|
10
|
13
|
18
|
|
|
IE
|
Daten nicht verfügbar
|
80
|
72
|
Die Zahlen zu den verurteilten Tätern werden noch überprüft. Die übermittelten Daten beziehen sich auf die Anklagen und Vorladungen pro Kalenderjahr.
|
|
ES
|
Daten nicht verfügbar
|
–
|
–
|
Daten nicht übermittelt
|
|
FI
|
Daten nicht verfügbar
|
3 621
|
Daten nicht verfügbar
|
Die für 2023 vorgelegten Statistiken beziehen sich auf die Gesamtzahl der Verurteilungen für alle Straftaten im Zusammenhang mit sexuellem Missbrauch von Kindern (d. h. sowohl im Internet als auch offline). Im Jahr 2023 traten neue Rechtsvorschriften über Sexualstraftaten in Kraft, die Statistiken enthalten allerdings auch die Zahl der im Jahr 2023 nach dem alten Strafgesetzbuch verurteilten Personen.
|
|
FR
|
1 124
|
1 223
|
Daten nicht verfügbar
|
|
|
HR
|
157
|
146
|
155
|
|
|
HU
|
8
|
16
|
12
|
|
|
IT
|
627
|
668
|
395
|
Die Daten sind aufgrund unvollständiger Angaben von Gerichten zu niedrig angesetzt. Die Daten für 2024 umfassen im Vergleich zu den Daten für 2022 und 2023 Verurteilungen für eine geringere Bandbreite an Straftaten.
|
|
LT
|
3
|
6
|
2
|
|
|
LU
|
11
|
20
|
21
|
In den Statistiken wird nicht zwischen online und offline begangenen Straftaten unterschieden. Darüber hinaus können Verurteilungen, die für die angegebenen Jahre übermittelt wurden, mit Verurteilungen aus den Vorjahren verknüpft sein.
|
|
LV
|
1
|
12
|
15
|
Nach Geschlecht wurden die Daten wie folgt aufgeschlüsselt: 1 männliches Opfer im Jahr 2022, 1 weibliches und 11 männliche Opfer im Jahr 2023, 15 männliche Opfer im Jahr 2024.
|
|
MT
|
–
|
–
|
–
|
Keine Daten nach Jahr verfügbar
|
|
NL
|
190
|
240
|
240
|
Bei den Zahlen handelt es sich um Anhaltspunkte, sie sind auf die Zehnerstellen gerundet und die jüngsten Zahlen sind noch vorläufig.
|
|
PL
|
194
|
144
|
125
|
|
|
PT
|
3
|
3
|
Daten nicht verfügbar
|
|
|
RO
|
690
|
804
|
715
|
|
|
SE
|
123
|
95
|
14
|
Die Zahl betrifft nur Verurteilungen im Zusammenhang mit Meldungen des NCMEC und nach rechtskräftigen Urteilen.
|
|
SI
|
19
|
22
|
26
|
|
|
SK
|
137
|
118
|
125
|
Die Statistiken für 2024 sind nicht endgültig. In den Daten aus den Jahren 2022 und 2023 wird weder zwischen der Zahl der Verurteilungen aufgrund von Meldungen des NCMEC und Verurteilungen aufgrund anderer Meldungen noch zwischen online und offline begangenen Straftaten unterschieden.
|
Die Zahl der Verurteilungen entspricht nicht der Zahl der verurteilten Täter, da eine Person für eine oder mehrere Straftaten im Zusammenhang mit sexuellem Missbrauch von Kindern im Internet verurteilt worden sein kann. Außerdem sind die Statistiken über Verurteilungen, die für einen bestimmten Zeitraum gemeldet werden, nicht unbedingt mit den in diesem Zeitraum eingegangenen Meldungen verbunden (z. B. Estland und Luxemburg). In einigen Fällen wurden keine statistischen Daten darüber erhoben, ob Meldungen über sexuellen Missbrauch von Kindern im Internet (z. B. über das NCMEC) zu Verurteilungen geführt haben oder ob die Verurteilungen auf Informationen zurückzuführen waren, die von einem Anbieter oder einer öffentlichen Organisation übermittelt wurden. Nur Estland und Schweden bestätigten ausdrücklich, dass in den Statistiken nur Verurteilungen aufgrund von Meldungen des NCMEC erfasst wurden. Viele Mitgliedstaaten (Bulgarien, Dänemark, Italien, die Niederlande und die Slowakei) gaben an, dass die Zahlen nicht endgültig seien, da die Ermittlungen noch nicht abgeschlossen oder die Fälle noch anhängig oder Gegenstand von Beschwerdeverfahren seien. In bestimmten Fällen wird bei den von den Mitgliedstaaten gemeldeten Daten nicht zwischen online und offline begangenen Straftaten unterschieden (Luxemburg, Slowakei, Finnland und Schweden).
Aufgrund der Art und Weise, wie statistische Daten auf nationaler Ebene erhoben werden, ist kein umfassender Überblick über die Zahl der Täter, die in der EU wegen sexuellen Missbrauchs von Kindern im Internet verurteilt wurden, möglich. Ebenso wenig ist es auf der Grundlage der verfügbaren Daten derzeit möglich, eine eindeutige Verbindung zwischen diesen Verurteilungen und den Meldungen herzustellen, die von Anbietern und Organisationen, die im öffentlichen Interesse gegen sexuellen Missbrauch von Kindern vorgehen, in bestimmten Berichtszeiträumen vorgelegt werden.
2.3.Entwicklungen des technischen Fortschritts
Zu den Technologien, die derzeit zur Aufdeckung von sexuellem Missbrauch von Kindern im Internet eingesetzt werden, gehören Technologien und Tools zur Erkennung von bekanntem Material über sexuellen Missbrauch von Kindern (d. h. Material, das zuvor als Material über sexuellen Missbrauch von Kindern bestätigt wurde), von neuem Material über sexuellen Missbrauch von Kindern (d. h. anderem Material als bekanntem Material über sexuellen Missbrauch von Kindern) und von Kontaktaufnahmen zu Kindern für sexuelle Zwecke (auch als „Grooming“ bezeichnet).
In der folgenden nicht erschöpfenden Liste von Beispielen sind einige der am häufigsten verwendeten Instrumente aufgeführt. Viele dieser Tools werden Anbietern, Strafverfolgungsbehörden und anderen Organisationen, die ein berechtigtes Interesse nachweisen können, zur Verfügung gestellt. Diese Tools werden in der Regel mit einer menschlichen Überprüfung kombiniert, um die Genauigkeit zu verbessern.
2.3.1. Aufdeckung von bekanntem Material über sexuellen Missbrauch von Kindern
Bestehende Technologien zur Erkennung von bekanntem Material über sexuellen Missbrauch von Kindern im Internet stützen sich auf die automatische Analyse von Inhalten und basieren in der Regel auf Hashing. Die Hashing-Technologie ist eine Art digitaler Fingerabdruck. Dabei wird eine eindeutige digitale Signatur (ein „Hash“) eines Bildes erstellt, die dann mit Signaturen (Hashs) anderer Bilder verglichen wird, um Kopien desselben Bildes zu finden. Mit dieser Technologie werden nur übereinstimmende Hashes erkannt, Material, das nicht mit dem Hash übereinstimmt, wird nicht „gesehen“. Diese Hash-Werte sind nicht umkehrbar und können daher nicht zur Wiederherstellung eines Bildes verwendet werden.
Es gibt viele Varianten und Umsetzungen der Hashing-Technologie, darunter kryptografisches Hashing zur Identifizierung exakter Übereinstimmungen und perzeptuelles Hashing zur Identifizierung visuell ähnlicher Inhalte, auch mit geringfügigen Änderungen (z. B. Bilder, die zugeschnitten, in der Größe verändert oder mit einem Filter versehen wurden). Zu den Tools, die zur Aufdeckung von bekanntem Material über sexuellen Missbrauch von Kindern eingesetzt werden, gehören: i) Microsoft PhotoDNA, ii) Google CSAI Match, iii) Apple NeuralHash, iv) PDQ und TMK+PDQF, v) MD5 Hash Matching und vi) Safer (Thorn).
Das am häufigsten verwendete Tool ist Microsoft PhotoDNA, das seit mehr als 15 Jahren im Einsatz ist. Der Anteil der falsch positiven Ergebnisse wird auf der Grundlage von Tests auf höchstens 1 von 50 Milliarden geschätzt. Während das ursprüngliche PhotoDNA bekanntes Material von sexuellem Missbrauch von Kindern in Bildern erkennt, ist auch eine Version für die Erkennung von sexuellem Missbrauch von Kindern in Videos verfügbar.
Die Technologie wird fortlaufend verbessert. Im Mai 2023 kündigte Microsoft die Einführung neuer Abgleichsfunktionen an, die eine schnellere Suche (ca. 350-mal schneller) ermöglichen und gleichzeitig die Kosten des Abgleichsprozesses senken, ohne die Genauigkeit zu beeinträchtigen. Laut Microsoft ermöglicht die neue Bibliothek auch eine umfassendere Erkennung von gespiegelten oder gedrehten Bildern.
2.3.2. Aufdeckung von neuem Material über sexuellen Missbrauch von Kindern
Zu den Technologien, die derzeit zur Aufdeckung neuen Materials über sexuellen Missbrauch von Kindern eingesetzt werden, gehören Klassifikatoren und KI. Ein Klassifikator ist ein Algorithmus, der Daten durch Mustererkennung in gekennzeichnete Klassen oder Informationskategorien sortiert. Mit einem Klassifikator können zum Beispiel Nacktheit, Formen oder Farben erkannt werden. Klassifikatoren müssen anhand von Daten trainiert werden, und ihre Genauigkeit nimmt mit der Menge der eingespeisten Daten zu.
Zu den Tools zur Aufdeckung von neuem Material über sexuellen Missbrauch von Kindern im Internet gehören: i) Safer Predict (Thorn), ii) Google Content Safety API und iii) die KI-Technologie von Facebook.
Bei der Erkennung neuen Materials über sexuellen Missbrauch von Kindern kann die Genauigkeitsrate (definiert als Vermeidung falsch positiver Ergebnisse) deutlich über 90 % liegen. Thorn gibt beispielsweise an, dass sein Klassifikator für Material über sexuellen Missbrauch von Kindern im Internet eine Genauigkeitsrate von 99 % erreichen kann (sowohl für bekanntes als auch für neue Material), was einer Falsch-Positiv-Rate von 0,1 % entspricht. Diese Messwerte – und die entsprechende Falsch-Negativ-Rate – dürften sich mit zunehmender Nutzung und zunehmenden Rückmeldungen verbessern.
Die Branche ist immer besser in der Lage, neues Material über sexuellen Missbrauch von Kindern aufzuspüren: Ein Beispiel hierfür ist das neue Tool zur Aufdeckung von Material über sexuellen Missbrauch von Kindern, das von Discord unter Verwendung von CLIP (einem ursprünglich von OpenAI entwickelten Open-Source-Algorithmus) entwickelt und darauf trainiert wurde, Bilder und Texte in Beziehung zu setzen, wodurch das Tool die semantischen Verbindungen zwischen diesen Inhalten verstehen kann. Durch die Anwendung dieser Methode auf die Erkennung von Material über sexuellen Missbrauch von Kindern konnte das Tool mit positiven Ergebnissen sowohl bekanntes als auch unbekanntes Material über sexuellen Missbrauch von Kindern erkennen. Discord hat diese Technologie quelloffen gestaltet, um die Innovation kostenlos mit anderen Unternehmen zu teilen und zu einer umfassenderen Bekämpfung von Material über sexuellen Missbrauch von Kindern im Internet beizutragen.
2.3.3. Aufdeckung von Kontaktaufnahmen zu Kindern für sexuelle Zwecke
Um Grooming rechtzeitig zu erkennen, also bevor das Kind sexuelles Material weitergibt, sind anders als beim Austausch von Bildern oder Videos vor allem textbasierte Tools relevant. Tools zur Erkennung von Grooming in textbasierter Kommunikation erkennen Muster, die auf Grooming hindeuten, ohne auf den Inhalt schließen zu können. Verdächtige Gespräche werden anhand mehrerer Merkmale bewertet und mit einem Gesamtwahrscheinlichkeitswert versehen, der angibt, wie wahrscheinlich es ist, dass es sich bei dem Gespräch um Grooming handelt. Diese Bewertungen können dazu dienen, Gespräche für eine zusätzliche menschliche Überprüfung zu kennzeichnen. Ähnlich wie bei der Erkennung von Material über sexuellen Missbrauch von Kindern kann das Unternehmen entscheiden, wo die Wahrscheinlichkeitsschwelle festgelegt wird, mit den gleichen Folgen wie oben im Hinblick auf falsch positive oder negative Ergebnisse: Eine höhere Wahrscheinlichkeitsschwelle bedeutet, dass weniger Fälle, bei denen es sich nicht um Grooming handelt, zur Überprüfung angezeigt werden, aber auch, dass mehr Fälle von Grooming übersehen werden können.
Für die Texterkennung werden u. a. die folgenden Tools verwendet: i) Projekt Artemis von Microsoft, ii) Amazon Rekognition, iii) Spirit AI-Technologie von Twitch, iv) auf maschinelles Lernen ausgelegter „Ranking“-Klassifikator von Meta (Kombination aus interner Sprachanalysetechnik und Metadaten), v) Chat-Filterung von Roblox, vi) Yubo-Tool zur Erkennung von Grooming, vii) Texterkennungs-Tool von Safer Predict und viii) Textmoderation von Hive.
Yubo gab an, dass die Genauigkeitsrate bei der textbasierten Erkennung von Grooming in seinen Diensten durchschnittlich 87 % erreichte, d. h. von 100 Fällen mutmaßlichen Groomings, die automatisch an menschliche Moderatoren gemeldet wurden, wurden 87 als Grooming bestätigt. Aus Untersuchungen geht hervor, dass Methoden des maschinellen Lernens zur Erkennung von Online-Grooming eine Genauigkeit von 92 % erreichen können und sich für die Erfassung komplexer, nichtlinearer Muster, die für die Analyse nuancierter Online-Interaktionen unerlässlich sind, hervorragend eignen.
Das Tool Safer Predict Text Detection nutzt ein Modell zur Klassifizierung von Texten mit maschinellem Lernen, um sexuelle Ausbeutung von Kindern aufzudecken. Es analysiert Texte und weist eine Risikobewertung zu. Letzteres erfolgt auf der Grundlage der Wahrscheinlichkeit, dass die Inhalte mit schädlichem Verhalten in Verbindung stehen, wie z. B. Nachrichten im Zusammenhang mit dem Austausch von Material über sexuellen Missbrauch von Kindern, einschließlich selbst erzeugter Inhalte, sowie Nachrichten im Zusammenhang mit Missbrauch und sexueller Erpressung von Kindern offline.
Derzeit werden weitere KI-Instrumente zur Bekämpfung von Online-Grooming entwickelt. Im Rahmen des Projekts CESAGRAM der Organisation Missing Children Europe, bei dem es darum geht, die Mechanismen hinter Grooming zu verstehen und zu unterbinden, ist beispielsweise geplant, ein KI-Tool zu entwickeln, das dabei hilft, Grooming durch sprachliche Analysen zur Erkennung von Grooming-Aktivitäten auf der Grundlage von Techniken zur Verarbeitung natürlicher Sprache zu verhindern.
2.3.4. Einsatz generativer KI zum Zweck des sexuellen Missbrauchs von Kindern
Die Bedrohungslage im Zusammenhang mit dem Missbrauch generativer KI für den sexuellen Missbrauch von Kindern hat sich in den letzten Jahren rasch weiterentwickelt. Weithin verfügbare Tools der generativen KI (auch „GKI“) können instrumentalisiert werden, um Kindern zu schaden, und so wird die Technologie zunehmend für die sexuelle Ausbeutung von Kindern genutzt. Diese Technologie lässt sich verwenden, um Bilder zu erstellen oder zu verändern, Leitlinien für das Grooming oder den Missbrauch von Kindern bereitzustellen oder auch das Erlebnis eines expliziten Chats mit einem Kind zu simulieren. Im Jahr 2024 meldete das NCMEC einen Anstieg der Meldungen im Zusammenhang mit generativer KI um 1 325 %: von 4 700 Meldungen im Jahr 2023 auf 67 000 im Jahr 2024. Darüber hinaus wurden bei einer Momentaufnahmenstudie der IWF zu einem Dark-Web-Forum mit Darstellungen von sexuellem Missbrauch von Kindern mehr als 20 000 KI-generierte Bilder gefunden, die innerhalb eines Monats gepostet wurden und auf denen mehr als 3 000 kriminelle Aktivitäten in Verbindung mit sexuellem Missbrauch von Kindern dargestellt waren.
Straftäter nutzen GKI auf unterschiedliche Weise für die Ausbeutung von Kindern, unter anderem wie nachstehend aufgeführt.
·Text zu Text: Mithilfe von Prompts werden Leitfäden/Anleitungen/Vorschläge zur Kontaktaufnahme mit Kindern und zum sexuellen Missbrauch von Kindern erstellt.
·Text zu Bild: Durch Prompts werden neue Materialien über sexuellen Missbrauch von Kindern generiert oder Änderungen an bereits hochgeladenen Dateien vorgenommen, um daraus sexuelle Darstellungen zu machen.
·Bild zu Bild (Änderung von bekanntem Material über sexuellen Missbrauch von Kindern zum Erstellen von neuem Material über sexuellen Missbrauch von Kindern): Hochladen von bekanntem Material über sexuellen Missbrauch von Kindern, um auf der Grundlage vorhandener Bilder neues Material über sexuellen Missbrauch von Kindern zu generieren, unter anderem durch Änderungen oder Ergänzungen neuer missbräuchlicher Elemente (z. B. Fesseln oder andere Formen des Missbrauchs) auf vorhandenen Bildern.
·Bild zu Bild (Änderung eines unverfänglichen Bildes zu einem ausbeuterischen Bild): Hochladen unverfänglicher Bilder eines Kindes, um sexuell eindeutige oder ausbeuterische Bilder des Kindes zu erzeugen (z. B. Auszieh-Apps). GKI wird unter anderem auf diese Weise eingesetzt, um Kinder mit sexuellen Darstellungen finanziell zu erpressen.
Das NCMEC hat darauf hingewiesen, dass regulierte Sicherheitsprotokolle fehlen, dass sich GKI-Tools durch Apps, Plattformen und Quelloffenheit rasant verbreitet haben und dass sich diese Technologie relativ einfach nutzen lässt. Darüber hinaus bringt die Verbreitung von KI-generiertem Material über sexuellen Missbrauch von Kindern unter anderem im Hinblick auf die Identifizierung von Opfern neue und erhebliche Herausforderungen für die Strafverfolgungsbehörden mit sich, da nur schwer festzustellen ist, ob die Bilder real oder synthetisch sind, sodass möglicherweise von Fällen, in denen es um reale Kinder geht, die dringend geschützt werden müssen, Ressourcen abgelenkt werden.
3.SCHLUSSFOLGERUNGEN
Von den Anbietern ergriffene Durchführungsmaßnahmen
Aus den Berichten der Anbieter ging hervor, dass sie im Rahmen der Verordnung mit einer Vielzahl von Aufdeckungstechnologien und -verfahren sexuellen Missbrauch von Kindern im Internet aufgedeckt und gemeldet haben. Alle Anbieter gaben an, diese Berichte an das NCMEC zu übermitteln. Für das Jahr 2024 sind die Anbieter nicht ihrer Verpflichtung nachgekommen, den Bericht über die Verarbeitung personenbezogener Daten unter Verwendung des Standardformulars vorzulegen, das in dem am 25. November 2024 erlassenen Durchführungsrechtsakt der Kommission festgelegt ist. Infolgedessen sind die vorgelegten Berichte nach wie vor mit Mängeln behaftet, durch die die Vergleichbarkeit der Daten insgesamt beeinträchtigt wird.
Von den Mitgliedstaaten ergriffene Durchführungsmaßnahmen
Die von den Mitgliedstaaten vorgelegten Berichte weisen nach wie vor ähnliche Probleme auf wie im ersten Bericht über die Durchführung der Verordnung aufgezeigt. Die von den Mitgliedstaaten übermittelten Daten erscheinen unvollständig und fragmentiert. Daher ist es nicht möglich, einen umfassenden und zuverlässigen Überblick über die Zahl der gemeldeten Fälle von sexuellem Missbrauch von Kindern im Internet, die Zahl der identifizierten Kinder und die Zahl der verurteilten Täter zu geben. Durch die Unterschiede zwischen den Daten des NCMEC und den Daten der Mitgliedstaaten wird bestätigt, dass die Datenerhebung und die Berichterstattung der Mitgliedstaaten nach wie vor erhebliche Mängel aufweisen.
Allgemeine Erwägungen
Insgesamt werden in diesem Bericht sowohl bei den Anbietern als auch den Mitgliedstaaten erhebliche Unterschiede bei der Berichterstattung über Daten zur Bekämpfung des sexuellen Missbrauchs von Kindern im Internet im Rahmen der Verordnung deutlich. Stärkere Standardisierung der verfügbaren Daten und der entsprechenden Meldungen.
Aus den verfügbaren Daten geht hervor, dass Material, das automatisch als mögliches Material über sexuellen Missbrauch von Kindern gekennzeichnet wird, bei menschlicher Überprüfung zwar mit überwältigender Mehrheit als solches bestätigt wird, dass sich dabei jedoch herausstellen kann, dass es sich bei einem kleinen Bruchteil davon nicht um Material über sexuellen Missbrauch von Kindern handelt. Der Anteil falsch positiver Ergebnisse liegt bei einigen Tools zwar bei lediglich 1 von 50 Milliarden, jedoch ist dieser Anteil unter anderem davon abhängig, ob der Anbieter entscheidet, die Genauigkeitseinstellungen des Tools anzupassen, damit falsch negative Ergebnisse minimiert werden, was einen Anstieg falsch positiver Ergebnisse zur Folge hätte, die anschließend durch menschliche Überprüfung herausgefiltert werden müssen.
Aus den Daten geht außerdem hervor, dass die Zahl der Überprüfungsanträge und die Erfolgsquote der Überprüfungen stark schwanken, sodass keine Schlussfolgerungen gezogen werden können, da die Anbieter insbesondere über den Umfang der Überprüfungsanträge und die Gründe für die Wiederherstellung keine Informationen vorgelegt haben.
In Bezug auf die Anforderungen von Artikel 9 Absatz 2 über die Bedingungen für die Verarbeitung von Daten geht aus den übermittelten Informationen hervor, dass es sich bei den verwendeten Technologien um technologische Anwendungen handelt, die ausschließlich dazu bestimmt sind, Material über sexuellen Missbrauch von Kindern im Internet aufzuspüren und zu entfernen und dieses Material den Strafverfolgungsbehörden und Organisationen, die im öffentlichen Interesse gegen den sexuellen Missbrauch von Kindern vorgehen, zu melden. Die Anbieter legten keine Informationen darüber vor, ob die Technologien nach dem neuesten Stand der Technik eingesetzt wurden und so wenig wie möglich in die Privatsphäre eingreifen und ob eine vorherige Datenschutz-Folgenabschätzung gemäß Artikel 35 der Verordnung (EU) 2016/679 und eine vorherige Konsultation gemäß Artikel 36 der genannten Verordnung durchgeführt worden waren.
Was die Verhältnismäßigkeit der Verordnung (EU) 2021/1232 betrifft, so stellt sich die Frage, ob mit der Verordnung das angestrebte Gleichgewicht zwischen dem im Allgemeininteresse liegenden Ziel der wirksamen Bekämpfung der in Rede stehenden schwersten Straftaten und der Notwendigkeit des Schutzes der Grundrechte von Kindern (z. B. Würde, Unversehrtheit, Verbot unmenschlicher oder erniedrigender Behandlung, Schutz der Privatsphäre, Rechte des Kindes usw.) einerseits und dem Schutz der Grundrechte der Nutzer der betreffenden Dienste (z. B. Schutz der Privatsphäre, Schutz personenbezogener Daten, Recht auf freie Meinungsäußerung, Recht auf einen wirksamen Rechtsbehelf usw.) andererseits gewahrt wird. Die verfügbaren Daten reichen nicht aus, um eine endgültige Antwort auf diese Frage zu geben. Angesichts der Tatsache, dass sexueller Missbrauch erhebliche negative Auswirkungen auf das Leben und die Rechte eines Kindes hat, ist es weder möglich noch angemessen, bei der Bewertung der Verhältnismäßigkeit einen numerischen Maßstab in Bezug auf die Zahl der geretteten Kinder anzuwenden. In Anbetracht der vorstehenden Ausführungen liegen jedoch keine Anhaltspunkte dafür vor, dass die Ausnahme nicht verhältnismäßig ist.
Zwar ist es aufgrund der Unzulänglichkeiten der Daten nicht möglich, ein vollständiges Bild zu erhalten, doch deuten die verfügbaren Daten darauf hin, dass im Berichtszeitraum Tausende von Kindern identifiziert und Millionen von Bildern und Videos aus dem Verkehr gezogen wurden, wodurch die sekundäre Viktimisierung verringert wurde. Daher scheint die freiwillige Meldung im Einklang mit dieser Verordnung einen wesentlichen Beitrag zum Schutz einer großen Zahl von Kindern, unter anderem vor anhaltendem Missbrauch, zu leisten.
Gleichzeitig wurde im Vorschlag der Kommission für eine Verordnung zur Festlegung von Vorschriften zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern den erheblichen Mängeln bei der Durchführung dieser Verordnung Rechnung getragen, unter anderem durch eine stärkere Standardisierung der verfügbaren Daten und der Berichterstattung, um ein besseres Bild der einschlägigen Tätigkeiten zur Bekämpfung dieser Straftat zu erhalten, die Verwendung spezifischer Indikatoren zur Aufdeckung von illegalem Material über sexuellen Missbrauch von Kindern und die Überprüfung von Material durch ein unabhängiges Zentrum. Seine Annahme durch die beiden gesetzgebenden Organe bleibt eine Priorität. Es muss unbedingt sichergestellt werden, dass keine rechtlichen Lücken zwischen dem geltenden und dem künftigen verbesserten Rechtsrahmen entstehen und dass der derzeitige Rechtsrahmen in der Zwischenzeit weiterhin so wirksam wie möglich angewandt wird.