KOMISJA EUROPEJSKA
Bruksela, dnia 19.12.2023
COM(2023) 797 final
SPRAWOZDANIE KOMISJI DLA PARLAMENTU EUROPEJSKIEGO I RADY
dotyczące wykonania rozporządzenie Parlamentu Europejskiego i Rady (UE) 2021/1232 z dnia 14 lipca 2021 r. w sprawie tymczasowego odstępstwa od niektórych przepisów dyrektywy 2002/58/WE w odniesieniu do wykorzystywania technologii przez dostawców usług łączności interpersonalnej niewykorzystujących numerów do przetwarzania danych osobowych i innych danych do celów zwalczania niegodziwego traktowania dzieci w celach seksualnych w internecie
SPIS TREŚCI
WYKAZ TERMINÓW I AKRONIMÓW
1.
WPROWADZENIE
2.
ŚRODKI WYKONAWCZE
2.1.
Przetwarzanie danych osobowych przez dostawców [art. 3 lit. g) pkt (vii)]
2.1.1.
Rodzaj i ilość przetwarzanych danych
2.1.2. Podstawy przetwarzania zgodnie z rozporządzeniem (UE) 2016/679
2.1.3.
Podstawa przekazywania danych osobowych poza Unię zgodnie z rozdziałem V RODO, w stosownych przypadkach
2.1.4.
Liczba zidentyfikowanych przypadków niegodziwego traktowania dzieci w celach seksualnych w internecie, z rozróżnieniem na niegodziwe traktowanie dzieci w celach seksualnych i nagabywanie dzieci
2.1.5.
Ochrona prawna użytkowników i sposób rozpoznawania skarg
2.1.6.
Liczba i współczynniki błędów (wyniki fałszywie dodatnie) dotyczące poszczególnych zastosowanych technologii
2.1.7.
Środki zastosowane w celu ograniczenia poziomu błędu i osiągnięty poziom błędu
2.1.8.
Polityka zatrzymywania danych oraz stosowanych zabezpieczeń w zakresie ochrony danych zgodnie z RODO
2.1.9.
Nazwy organizacji działających w interesie publicznym przeciwko niegodziwemu traktowaniu dzieci w celach seksualnych, którym udostępniono dane na mocy niniejszego rozporządzenia.
2.2.
Dane statystyczne państw członkowskich (art. 8)
2.2.1. Łączna liczba zgłoszeń dotyczących wykrytych przypadków niegodziwego traktowania dzieci w celach seksualnych w internecie
2.2.2. Liczba zidentyfikowanych dzieci
2.2.3. Liczba skazanych sprawców.
2.3.
Zmiany związane z postępem technologicznym
2.3.1. Wykrywanie znanych materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych
2.3.2. Wykrywanie nowych materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych
2.3.3. Wykrywanie nagabywania dzieci dla celów seksualnych
2.3.4. Nowe wyzwania związane z chatbotami i generatorami dzieł sztuki/obrazów bazującymi na sztucznej inteligencji
3.
WNIOSKI
WYKAZ TERMINÓW I AKRONIMÓW
|
Termin/akronim
|
Definicja
|
|
AI
|
Sztuczna inteligencja
|
|
API
|
Interfejs programowania aplikacji
|
|
CG-CSAM
|
Generowane komputerowo materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych
|
|
ChatGPT
|
ChatGPT (ang. Chat Generative Pre-trained Transformer) jest formą generatywnej sztucznej inteligencji. Jest to chatbot oparty na dużym modelu językowym, opracowany przez OpenAI, który umożliwia użytkownikom dopracowanie i ukierunkowanie rozmowy pod kątem pożądanej długości, formatu, stylu, poziomu szczegółowości i języka.
|
|
Klasyfikator
|
Forma sztucznej inteligencji, algorytm służący do sortowania danych na określone klasy lub kategorie
|
|
Klasyfikator bezpieczeństwa treści API
|
Klasyfikator bezpieczeństwa treści API Google wykorzystuje dostęp programowy i sztuczną inteligencję, aby pomóc klasyfikować miliardy obrazów do przeglądania i nadawać im priorytety.
|
|
CSA
|
Niegodziwe traktowanie dzieci w celach seksualnych
|
|
CSAI Match
|
CSAI Match jest to technologia opracowana przez inżynierów YouTube’a w celu identyfikowania powtórnego zamieszczania wcześniej zidentyfikowanych przypadków niegodziwego traktowania dzieci w celach seksualnych w filmach.
|
|
CSAM
|
Materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych, np. obrazy i filmy przedstawiające niegodziwe traktowanie dzieci w celach seksualnych.
|
|
Dyrektywa w sprawie niegodziwego traktowania dzieci w celach seksualnych
|
Dyrektywa Parlamentu Europejskiego i Rady 2011/93/UE z dnia 13 grudnia 2011 r. w sprawie zwalczania niegodziwego traktowania w celach seksualnych i wykorzystywania seksualnego dzieci oraz pornografii dziecięcej, zastępująca decyzję ramową Rady 2004/68/WSiSW, Dz.U. L 335 z 17.12.2011, s. 1.
|
|
CSEA
|
Wykorzystywanie dzieci i ich niegodziwe traktowanie w celach seksualnych
|
|
Niegodziwe traktowanie dzieci w celach seksualnych w internecie
|
Wspólny termin stosowany w odniesieniu do trzech rodzajów niegodziwego traktowania dzieci w celach seksualnych zdefiniowanych w dyrektywie w sprawie niegodziwego traktowania dzieci w celach seksualnych, a mianowicie: pornografii dziecięcej, przedstawienia pornograficznego i nagabywania dzieci (nagabywanie dzieci dla celów seksualnych, ang. grooming) zgodnie z definicją rozporządzenia tymczasowego (art. 2 ust. 4).
|
|
UE
|
Unia Europejska
|
|
RODO
|
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych), Dz.U. L 119 z 4.5.2016, s. 1.
|
|
Nagabywanie dzieci dla celów seksualnych (ang. grooming)
|
przestępcy budują z dzieckiem relację opartą na zaufaniu w celu zbliżenia się do małoletniego lub małoletniej i wykorzystania ich seksualnie lub niegodziwego traktowania. Formalnie znane jako nagabywanie dzieci zgodnie z definicją przedstawioną w art. 6 dyrektywy w sprawie niegodziwego traktowania dzieci w celach seksualnych.
|
|
Skrót (ang. hash)
|
Niepowtarzalny kod cyfrowy utworzony przez algorytm matematyczny („haszowanie”), który staje się podpisem pliku lub jego wartością skrótu.
|
|
Rozporządzenie tymczasowe
|
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2021/1232 z dnia 14 lipca 2021 r. w sprawie tymczasowego odstępstwa od niektórych przepisów dyrektywy 2002/58/WE w odniesieniu do wykorzystywania technologii przez dostawców usług łączności interpersonalnej niewykorzystujących numerów do przetwarzania danych osobowych i innych danych do celów zwalczania niegodziwego traktowania dzieci w celach seksualnych w internecie, Dz.U. L 274 z 30.7.2021, s. 41.
|
|
LLM
|
Duży model językowy (LLM) jest to rodzaj modelu sztucznej inteligencji, który przeszkolono za pomocą algorytmów uczenia głębokiego w celu rozpoznawania, generowania, tłumaczenia lub podsumowywania ogromnych ilości ludzkiego języka pisanego i danych tekstowych.
|
|
MD5
|
Algorytm uwierzytelniania wiadomości szyfrowanych do stosowania w internecie.
|
|
Meta SSN++
|
Model AI opracowany przez Meta, który może wykrywać niemal dokładne duplikaty.
|
|
NCMEC
|
Krajowe Centrum ds. Zaginionych i Wykorzystywanych Dzieci (amerykańska prywatna organizacja nienastawiona na zysk), której – na mocy prawa amerykańskiego – dostawcy usług online mają obowiązek zgłaszać znalezione w swoich sieciach przypadki potencjalnego niegodziwego traktowania dzieci w celach seksualnych.
|
|
PDQ i TMK+PDQF
|
Narzędzia wykorzystywane przez Facebook do wykrywania szkodliwych treści. PDQ jest to technologia dopasowywania zdjęć; TMK+PDQF jest to technologia dopasowywania filmów.
|
|
PhotoDNA
|
Najbardziej rozpowszechnione narzędzie oparte na technologii haszowania, dostępne bezpłatnie, oparte na umowie licencyjnej dostosowanej w celu unikania nadużyć i wykorzystywania do wszelkich innych celów niż wykrywanie niegodziwego traktowania dzieci w celach seksualnych.
|
1.WPROWADZENIE
W art. 9 rozporządzenia tymczasowego (zwanego dalej również „rozporządzeniem”) zobowiązano Komisję do przygotowania sprawozdania z jego wdrażania na podstawie sprawozdań przedłożonych przez dostawców usług łączności interpersonalnej (zwanych dalej „dostawcami”) dotyczących przetwarzania danych osobowych oraz danych statystycznych przekazanych przez państwa członkowskie. Zgodnie ze wspomnianym wyżej przepisem w sprawozdaniu z wdrażania Komisja analizuje w szczególności:
a) odpowiednie warunki przetwarzania odpowiednich danych osobowych i innych danych przetwarzanych na podstawie rozporządzenia;
b) proporcjonalność odstępstwa przewidzianego w rozporządzeniu, w tym ocenę danych statystycznych przedłożonych przez państwa członkowskie zgodnie z jego art. 8;
c) zmiany związane z postępem technologicznym w zakresie działań objętych zakresem stosowania rozporządzenia oraz stopień, w jakim postęp ten poprawia dokładność i zmniejsza liczbę i współczynniki błędów (wyniki fałszywie dodatnie).
Niniejsze sprawozdanie z wdrażania na podstawie rozporządzenia tymczasowego opiera się na danych uzyskanych ze sprawozdań dostawców i państw członkowskich zgodnie z odpowiednio art. 3 ust. 1 lit. g) pkt (vii) i art. 8 tego rozporządzenia. Sprawozdania te ujawniły znaczne rozbieżności pod względem dostępności danych, rodzajów gromadzonych danych, a tym samym również porównywalności danych gromadzonych przez dostawców i państwa członkowskie. Ponieważ w rozporządzeniu nie określono wzoru sprawozdań, dostawcy udostępniali różne rodzaje informacji, które niekoniecznie były porównywalne; w związku z tym służby Komisji podjęły działania następcze w celu zapewnienia prawidłowej interpretacji danych. Większość państw członkowskich nie była w stanie przekazać danych w terminie, a niektóre z nich do chwili publikacji niniejszego sprawozdania nie były w stanie dostarczyć żadnych danych. Miało to znaczący wpływ na harmonogram, kompletność i użyteczność sprawozdania. Pomimo starań na rzecz zapewnienia spójności i porównywalności danych nadal występują znaczne rozbieżności odzwierciedlone w tabelach poniżej, które również nie zawierają danych dotyczących wszystkich punktów dla wszystkich dostawców lub państw członkowskich.
Niniejsze sprawozdanie z wdrażania ma na celu przedstawienie opartego na faktach przeglądu bieżącej sytuacji w związku z wdrażaniem rozporządzenia tymczasowego na podstawie dostępnych danych. Sprawozdanie nie zawiera żadnych interpretacji rozporządzenia ani nie przedstawiono w nim żadnego stanowiska co do sposobu jego interpretacji i stosowania w praktyce.
2.ŚRODKI WYKONAWCZE
2.1.Przetwarzanie danych osobowych przez dostawców [art. 3 lit. g) pkt (vii)]
W art. 3 lit. g) pkt (vii) rozporządzenia tymczasowego określono warunki, zgodnie z którymi dostawcy działający na podstawie zawartego w nim odstępstwa mają obowiązek opublikowania i przedłożenia właściwemu organowi nadzorczemu oraz Komisji – do 3 lutego 2022 r., a następnie do 31 stycznia każdego roku – sprawozdania dotyczącego przetwarzania danych osobowych na podstawie tego rozporządzenia. Przedsiębiorstwa Google, LinkedIn, Meta, Microsoft i X (dawniej Twitter) przedłożyły sprawozdania za lata 2021 i 2022.
2.1.1.Rodzaj i ilość przetwarzanych danych
Dostawcy zgłosili przetwarzanie zarówno danych dotyczących treści, jak i danych o ruchu.
Jeżeli chodzi o dane dotyczące treści przetwarzane w celu wykrywania niegodziwego traktowania dzieci w celach seksualnych w internecie, wszyscy wyżej wymienieni dostawcy wskazali obrazy i filmy. W większości polegali oni na technologiach dopasowywania skrótów PhotoDNA i MD5 w celu wykrycia dopasowań wcześniej zidentyfikowanych materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych.”CSAM” Narzędzie CSAI Match Google wykorzystywano do tworzenia cyfrowych odcisków palców filmów na platformach i porównywania ich z plikami w repozytorium odcisków palców Google/YouTube (LinkedIn). Równie często zgłaszano wykorzystywanie technologii zautomatyzowanej (uczenie maszynowe sztucznej inteligencji) i weryfikację przez człowieka (np. Google). Przedsiębiorstwa Google i LinkedIn potwierdziły identyfikację również materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych, które nie odpowiadały wcześniej zidentyfikowanym materiałom przedstawiającym niegodziwe traktowanie dzieci w celach seksualnych. Żaden z pięciu dostawców, którzy przedstawili dane, nie zgłosił danych dotyczących wykrywania nagabywania przez wykrywanie tekstu w ramach odstępstwa przewidzianego w tym rozporządzeniu.
Jeżeli chodzi o gromadzone dane o ruchu i odpowiednie ilości przetwarzanych różnego rodzaju danych dotyczących treści i danych o ruchu, sprawozdania znacząco różniły się między sobą.
Dane o ruchu gromadzone przez dostawców i zawarte w sprawozdaniach CyberTipline przekazywanych do amerykańskiego Krajowego Centrum ds. Zaginionych i Wykorzystywanych Dzieci (zwanego dalej „NCMEC”) obejmują (wszystkie lub wybrane) następujące dane:
a)dane dotyczące użytkownika/podmiotu zgłaszającego/konta (Google, LinkedIn, Microsoft, X);
b)metadane odnoszące się do danych dotyczących treści/danych dotyczących transakcji (Google, LinkedIn, Microsoft);
c)dane dotyczące potencjalnej ofiary (Google);
d)dane dotyczą operacji prowadzących do niegodziwego traktowania (Google).
Jeżeli chodzi o ilość danych przetwarzanych na podstawie rozporządzenia tymczasowego, serwis LinkedIn zgłosił przetworzenie 8 mln obrazów i filmów pochodzących z UE w okresie od 14 lipca do 31 grudnia 2021 r. oraz 21 mln obrazów i 63 000 filmów pochodzących z UE w 2022 r. Przedsiębiorstwo Microsoft zgłosiło przetworzenie do celów rozporządzenia 8,9 mld obrazów i filmów z całego świata w okresie od lipca do grudnia 2021 r. oraz 12,3 mld elementów treści z całego świata w 2022 r.; Dane dotyczące UE nie były dostępne i w związku z tym do celów niniejszego sprawozdania nie można sformułować żadnych wniosków. Pozostali dostawcy nie przedstawili informacji na temat ilości przetwarzanych danych. A zatem spośród pięciu dostawców, którzy złożyli sprawozdania, tylko jeden przekazał dane na wymaganym poziomie szczegółowości.
Aby zilustrować ogólny kontekst, NCMEC poinformowało, że w 2022 r. otrzymało łącznie 87,2 mln obrazów i filmów z całego świata oraz 5,1 mln obrazów i filmów dotyczących UE, a w 2021 r. – 84,8 mln obrazów i filmów z całego świata oraz 1,8 mln obrazów i filmów wideo dotyczących UE. Są to jedynie materiały, które dostawca uznał za potencjalne materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych i w związku z tym nie można ich traktować jako wskaźnika dla ogólnej ilości danych przetwarzanych na podstawie rozporządzenia tymczasowego.
2.1.2. Podstawy przetwarzania zgodnie z rozporządzeniem (UE) 2016/679
Dostawcy dokonywali zgłoszeń, opierając się na następujących konkretnych podstawach zgodnie z rozporządzeniem (UE) 2016/679 (zwanym dalej RODO):
·art. 6 ust. 1 lit. d) RODO, tj. przetwarzanie niezbędne do ochrony żywotnych interesów dzieci oraz osób będących ofiarami niegodziwego traktowania dzieci w celach seksualnych w internecie (Google, Meta, X);
·art. 6 ust. 1 lit. e) RODO, tj. przetwarzanie niezbędne do wykonania zadań realizowanych w interesie publicznym (LinkedIn, Microsoft, Meta, X);
·art. 6 ust. 1 lit. f) RODO, tj. przetwarzanie niezbędne do celów wynikających z prawnie uzasadnionych interesów:
I.dostawcy usług w celu wykrywania niegodziwego traktowania dzieci w celach seksualnych w internecie, zapobiegania mu lub przeciwdziałania mu w inny sposób w ramach swoich usług oraz do ochrony innych użytkowników, klientów, partnerów i społeczeństwa przed tą formą nielegalnych treści (Google, Meta);
II.ofiar niegodziwego traktowania dzieci w celach seksualnych oraz organizacji, której dostawca zgłasza niegodziwe traktowanie dzieci w celach seksualnych w internecie (np. NCMEC) w celu wykrywania niegodziwego traktowania dzieci w celach seksualnych w internecie, zapobiegania mu i usuwania z ich usług (Google).
2.1.3.Podstawa przekazywania danych osobowych poza Unię zgodnie z rozdziałem V RODO, w stosownych przypadkach
Wszyscy dostawcy zgłosili, że opierają się na standardowych klauzulach umownych zatwierdzonych przez Komisję zgodnie z art. 46 ust. 2 lit. c) RODO. W odniesieniu do przekazywania danych osobowych do NCMEC serwis LinkedIn zgłosił również, że korzysta z odstępstwa – w zakresie, w jakim ma to zastosowanie – dozwolonego na mocy art. 49 ust. 1 RODO.
2.1.4.Liczba zidentyfikowanych przypadków niegodziwego traktowania dzieci w celach seksualnych w internecie, z rozróżnieniem na niegodziwe traktowanie dzieci w celach seksualnych i nagabywanie dzieci
Tabela n.1 Liczba zidentyfikowanych przypadków niegodziwego traktowania dzieci w celach seksualnych w internecie w 2021 r.
|
Dostawca
|
Liczba przypadków materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych zidentyfikowanych w 2021 r.
|
Uwagi
|
|
Google
|
33 konta Google Chat
|
Dotyczy to liczby kont Google Chat dla użytkowników z UE, na których w okresie od 2 sierpnia 2021 r. do 31 grudnia 2021 r. zidentyfikowano niegodziwe traktowanie dzieci w celach seksualnych w internecie za pomocą zautomatyzowanych technologii. Nie przedstawiono żadnych danych dotyczących liczby zidentyfikowanych elementów treści.
|
|
LinkedIn
|
31 elementów treści
|
31 elementów treści potwierdzono w drodze ręcznej weryfikacji jako materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych i zgłoszono NCMEC; 6 z nich były to znane materiały przedstawiających niegodziwe traktowanie dzieci w celach seksualnych, a pozostałe 25 było materiałami nieznanymi.
|
|
Meta
|
340 000 kont
|
Liczba wykrytych kont wysyłających co najmniej jeden element multimedialny stanowiący materiał przedstawiający niegodziwe traktowanie dzieci w celach seksualnych w wątkach wiadomości, z udziałem użytkownika z UE, w okresie od 8 listopada 2021 r. do 31 grudnia 2021 r.
|
|
Microsoft
|
6 600 elementów treści
|
6 600 elementów treści (pojedynczy obraz lub film) potwierdzonych jako materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych wykrytych w Unii Europejskiej z ponad 20 000 elementów treści zidentyfikowanych na całym świecie w okresie od lipca 2021 r. do grudnia 2021 r.
|
|
X (dawniej Twitter)
|
532 898 kont
|
Konta (nie jest jasne, czy z UE, czy z całego świata) zawieszone za naruszenie polityki X w zakresie wykorzystywania seksualnego dzieci w okresie od 2 sierpnia 2021 r. do 31 grudnia 2021 r.
|
W przypadku platformy X z dostarczonych danych nie wynika jasno, czy dotyczy to wyłącznie usług objętych zakresem rozporządzenia tymczasowego (usługi łączności interpersonalnej niewykorzystujące numerów), czy też numer ten obejmuje również inne usługi (takie jak usługi społeczeństwa informacyjnego). Odnosi się to do wszystkich danych dotyczących platformy X w niniejszym sprawozdaniu.
Tabela n.2 Liczba przypadków niegodziwego traktowania dzieci w celach seksualnych w internecie zidentyfikowanych w 2022 r.
|
Dostawca
|
Liczba przypadków materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych zidentyfikowanych w 2022 r.
|
Uwagi
|
|
Google
|
2 045 elementów treści
|
Elementy treści zidentyfikowane na 752 kontach Google i zgłoszone do NCMEC za pomocą zautomatyzowanych technologii w przypadku użytkowników z UE
|
|
LinkedIn
|
2 elementy treści
|
LinkedIn wykrył 2 obrazy i 0 filmów potwierdzonych jako materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych.
|
|
Meta
|
6,6 mln elementów treści
|
Elementy multimedialne stanowiące materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych, które zostały wykryte przy użyciu technologii dopasowywania multimediów Meta, w wątkach
wiadomości z udziałem użytkownika z UE.
|
|
Microsoft
|
12 800 elementów treści
|
12 800 elementów treści (pojedynczy obraz lub film) potwierdzonych jako materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych wykrytych w UE z ponad 50 000 elementów treści zidentyfikowanych na całym świecie w 2022 r.
|
|
X (dawniej Twitter)
|
2 348 712 kont
|
Konta (nie jest jasne, czy z UE, czy z całego świata) zawieszone za naruszenie polityki X w zakresie wykorzystywania seksualnego dzieci.
|
2.1.5.Ochrona prawna użytkowników i sposób rozpoznawania skarg
Zgodnie z art. 3 ust. 1 lit. g) pkt (iv) rozporządzenia tymczasowego dostawcy mają obowiązek ustanowienia odpowiednich procedur i mechanizmów ochrony prawnej zapewniających użytkownikom możliwość składania do nich skarg. Ponadto art. 5 tego rozporządzenia zawiera przepisy dotyczące środków ochrony prawnej przed sądem.
Dostawcy zgłaszali wdrożenie takich wewnętrznych procedur i mechanizmów ochrony prawnej w odniesieniu do użytkowników, których konta zostały ograniczone z powodu udostępniania materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych lub treści usuniętych jako materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych, tak aby mogli oni odwołać się od takiego ograniczenia/usunięcia i uzyskać weryfikację danego przypadku pod kątem błędów.
Zgłaszali sprawy, w których użytkownicy złożyli skargę w ramach wewnętrznego mechanizmu ochrony prawnej lub do organu sądowego w sprawach objętych zakresem rozporządzenia w UE oraz sposobu rozpoznawania takich skarg. Żaden dostawca, z wyjątkiem Microsoftu (który zgłosił 0 skarg w obu kanałach w 2021 r. i 2022 r.), nie przedstawił oddzielnych danych statystycznych dotyczących wewnętrznych środków ochrony prawnej i środków ochrony prawnej przed sądem; w rezultacie poniższe tabele obejmują zarówno wewnętrzne środki ochrony prawnej, jak i środki ochrony prawnej przed sądem.
Tabela n.3: Liczba spraw, w których użytkownicy złożyli skargę w ramach wewnętrznego mechanizmu ochrony prawnej lub do organu sądowego oraz sposób rozpoznawania takich skarg w 2021 r.
|
Dostawca
|
Liczba przypadków złożenia skargi przez użytkownika
|
Liczba przywróconych kont
|
Ilość przywróconych treści
|
Uwagi
|
|
Google
|
8
|
0
|
nie dotyczy
|
Konta Google Chat zablokowane z powodu niegodziwego traktowania dzieci w celach seksualnych w internecie, w przypadku których użytkownik złożył odwołanie: 8. Nie przywrócono żadnego konta.
|
|
LinkedIn
|
0
|
nie dotyczy
|
nie dotyczy
|
|
|
Meta
|
4 900
|
nie dotyczy
|
207
|
4 900 użytkowników złożyło odwołanie. W następstwie postępowania odwoławczego przywrócono treści 207 użytkowników i cofnięto działania dotyczące kont.
|
|
Microsoft
|
0
|
nie dotyczy
|
nie dotyczy
|
|
|
X (dawniej Twitter)
|
ok. 90 000
|
ok. 3 000
|
nie dotyczy
|
ok. 90 000 odwołań Platforma X przywróciła około 3 000 z tych kont.
|
Tabela n.4: Liczba spraw, w których użytkownicy złożyli skargę w ramach wewnętrznego mechanizmu ochrony prawnej lub do organu sądowego oraz sposób rozpoznawania takich skarg w 2022 r.
|
Dostawca
|
Liczba przypadków złożenia skargi przez użytkownika
|
Liczba przywróconych kont
|
Ilość przywróconych treści
|
Uwagi
|
|
Google
|
378
|
0
|
nie dotyczy
|
Konta Google zablokowane z powodu niegodziwego traktowania dzieci w celach seksualnych w internecie, w przypadku których użytkownik złożył odwołanie: 378. Nie przywrócono żadnego konta.
|
|
LinkedIn
|
0
|
nie dotyczy
|
nie dotyczy
|
|
|
Meta
|
29 000
|
nie dotyczy
|
3 700
|
Użytkownicy odwołali się od działań w przypadku około 29 000 elementów ich udostępnionych multimediów. W następstwie postępowania odwoławczego przywrócono około 3 700 elementów treści i cofnięto działania dotyczące kont.
|
|
Microsoft
|
0
|
nie dotyczy
|
nie dotyczy
|
|
|
X (dawniej Twitter)
|
ok. 430 000
|
ok. 4 000
|
nie dotyczy
|
ok. 430 000 odwołań Platforma X przywróciła około 4 000 z tych kont.
|
2.1.6.Liczba i współczynniki błędów (wyniki fałszywie dodatnie) dotyczące poszczególnych zastosowanych technologii
Zgodnie z art. 3 ust. 1 lit. e) rozporządzenia tymczasowego dostawcy mają obowiązek zapewnienia, aby zastosowane technologie były wystarczająco wiarygodne, to znaczy ograniczały w jak największym stopniu poziom błędów dotyczących wykrywania treści przedstawiających niegodziwe traktowanie dzieci w celach seksualnych w internecie.
W tym kontekście dostawcy poinformowali, że nie stosują żadnej technologii do wykrywania samych przypadków niegodziwego traktowania dzieci w celach seksualnych. Zamiast tego wdrażają warstwowe podejście do wykrywania niegodziwego traktowania dzieci w celach seksualnych w internecie, łącząc różne technologie wykrywania w celu zwiększenia dokładności. Aby ograniczyć błędy lub wyniki fałszywie dodatnie, wszyscy dostawcy uzupełniają te działania weryfikacją przez człowieka. Dostawcy nie przekazali liczby ani współczynników błędów (wyników fałszywie dodatnich) dla każdej z poszczególnych technologii oddzielnie, ale zamiast tego zgłosili dane zagregowane dla wszystkich zastosowanych technologii.
Większość dostawców mierzy liczbę i współczynniki błędów jako odwrócenie decyzji egzekucyjnej, tj. jako ogólny wskaźnik przywrócenia/odwrócenia po złożeniu odwołania (np. wskaźnik przywrócenia przez dostawcę zablokowanego konta lub treści po odwołaniu złożonym przez użytkownika). Podejście przyjęte przez dostawców niekoniecznie odzwierciedla definicję „wyników fałszywie dodatnich” w danych statystycznych.
Zgłoszone wskaźniki przywrócenia/odwrócenia po złożeniu odwołania są następujące:
Tabela n.5: Wskaźniki przywrócenia/odwrócenia po złożenia odwołania
|
|
2021 r.*
|
2022 r.
|
|
|
Dostawca
|
% przywróconych kont w stosunku do liczby odwołań
|
% przywróconych kont w stosunku do liczby zawieszonych kont
|
% przywróconych kont w stosunku do liczby odwołań
|
% przywróconych kont w stosunku do liczby zawieszonych kont
|
Uwagi
|
|
Google
|
0 % (0 vs 8)
|
0 % (0 vs 33)
|
0 % (0 vs 378)
|
0 %
(zob. uwagi)
|
Nie podano liczby zawieszonych rachunków w 2022 r. Zamiast tego podano liczbę elementów treści zidentyfikowanych i zgłoszonych do NCMEC, 2 045. Nie przywrócono żadnego konta w następstwie odwołania.
|
|
LinkedIn
|
0 %
|
0 %
|
0 %
|
0 %
|
Brak odwołań. W odniesieniu do okresu od 13 lipca 2021 r. do 31 grudnia 2021 r. przedsiębiorstwo LinkedIn poinformowało również, że spośród 75 plików poddanych weryfikacji jako potencjalne materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych pochodzące z UE 31 potwierdzono na podstawie weryfikacji przez człowieka. LinkedIn nie przedstawiło takich danych za 2022 r.
|
|
Meta
|
4,22 %
(207 vs 4,9 tys.)
|
0,06 %
(207 vs 340 tys.)
|
Zob. uwagi
|
Zob. uwagi
|
Nie przedstawiono żadnych informacji w celu dokładnego określenia zakresu i treści odwołań oraz przesłanek uzasadniających przywrócenie kont.
W odniesieniu do 2022 r. przekazane dane dotyczyły treści, a nie liczby kont:
-Liczba zawieszonych („objętych działaniami”) elementów treści 6,6 mln
-Liczba elementów treści, w odniesieniu do których złożono odwołanie: 29 tys.
-Liczba przywróconych elementów treści: 3,7 tys.
W związku z tym:
-% przywróconych elementów treści w stosunku do liczby odwołań: 12,8 % (3,7 tys. vs 29 tys.)
-% przywróconych elementów treści w stosunku do liczby zawieszonych elementów treści: 0,06 % (3,7 tys. vs 6,6 mln)
|
|
Microsoft
|
0 %
|
-
|
-
|
-
|
Niewystarczające dane umożliwiające obliczenie wskaźnika przywrócenia/odwrócenia po złożeniu odwołania. W odniesieniu do 2022 r. łącznie 17 przypadków odwrócenia pierwotnej decyzji o moderowaniu treści, nie przedstawiono żadnych danych liczbowych dotyczących łącznej liczby odwołań.
|
|
X (dawniej Twitter)
|
1,43 %
(100 vs 7 tys.)
|
0,06 %
(100 vs 166 tys.)
|
2,17 %
(500 vs 23 tys.)
|
0,10 %
(500 vs 501 tys.)
|
W drugiej połowie 2021 r. za pomocą zautomatyzowanych mechanizmów zawieszono ok. 166 tys. użytkowników z powodu niegodziwego traktowania dzieci w celach seksualnych. Spośród tych użytkowników ok. 7 tys. złożyło odwołania, które doprowadziły do ok. 100 przypadków zmiany decyzji.
W 2022 r. za pomocą zautomatyzowanych mechanizmów zawieszono ok. 501 tys. użytkowników z powodu niegodziwego traktowania dzieci w celach seksualnych. Spośród tych użytkowników ok. 23 tys. złożyło odwołania, których skutkiem było ok. 500 przypadków zmiany decyzji.
|
* Okresy sprawozdawcze w 2021 r. różnią się w zależności od dostawcy
2.1.7.Środki zastosowane w celu ograniczenia poziomu błędu i osiągnięty poziom błędu
Zgodnie z art. 3 ust. 1 lit. e) rozporządzenia tymczasowego zastosowane technologie muszą być wystarczająco wiarygodne, a w przypadku wystąpienia jakichkolwiek takich błędów ich skutki muszą być niezwłocznie korygowane. W ponadto w art. 3 ust. 1 lit. g) pkt (ii) wprowadzono wymóg zapewnienia nadzoru ludzkiego oraz, w razie potrzeby, interwencji ludzkiej.
Wszyscy dostawcy zgłosili, że stosują podejście warstwowe w celu wykrywania i zwalczania rozprzestrzeniania się niegodziwego traktowania dzieci w celach seksualnych w internecie. Obejmuje ono stosowanie technologii haszowania (w tym PhotoDNA) w celu wykrywania materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych w połączeniu z procesami weryfikacji przez człowieka w celu potwierdzenia, czy plik multimedialny (obraz i wideo) zawiera materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych, a także nadzór ludzki nad przetwarzaniem materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych.
Dostawcy zgłosili, że stosują różne środki i zabezpieczenia w celu ograniczenia i zmniejszenia poziomu błędu w wykrywaniu, zgłaszaniu i usuwaniu niegodziwego traktowania dzieci w celach seksualnych w internecie. Obejmują one (niewyczerpujący wykaz):
I.monitorowanie i ocena jakości działania narzędzi wykrywania przypadków niegodziwego traktowania dzieci w celach seksualnych, zarówno w celu precyzyjnego dostosowania (aby wykrywały one wyłącznie niegodziwe traktowanie dzieci w celach seksualnych w internecie), jak i w celu przywoływania (aby nie przeoczyły one niegodziwego traktowania dzieci w celach seksualnych w internecie na swoich platformach) (Google, X);
II.weryfikacja i nadzór przez człowieka: próbki elementów multimedialnych wykrytych jako materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych za pomocą technologii „hash-matching” są sprawdzane przez weryfikatorów/wyszkolonych analityków (Google, LinkedIn, Meta, Microsoft);
III.sygnalizowanie i weryfikacja dużych klastrów (Meta);
IV.wdrożenie dalszych procesów ręcznej weryfikacji jako stałej kontroli jakości skrótów (LinkedIn, Microsoft);
V.kontrolerzy przechodzący specjalistyczne, intensywne szkolenia pod kierunkiem doradców w zakresie rozpoznawania treści materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych w celu zapewnienia dokładności weryfikacji przez człowieka (Google);
VI.okresowe oceny kontroli jakości prowadzonej przez weryfikatorów i stosowanych opinii (Google, X);
VII.inne procesy kontroli jakości mające na celu ograniczenie błędów i ich natychmiastowe usuwanie, takie jak niezależna weryfikacja skrótów (Google, LinkedIn), weryfikacja przez człowieka każdego przypadku nieznanego wcześniej materiału przedstawiającego niegodziwe traktowanie dzieci w celach seksualnych przed zgłoszeniem (Google);
VIII.opracowanie i regularny przegląd polityk i strategii egzekwowania przepisów przez przeszkolonych ekspertów w ds. niegodziwego traktowania dzieci w celach seksualnych (Google);
IX.działanie w celu zwiększania jakości sprawozdań NCMEC CyberTipline i wyeliminowania ewentualnych wyników fałszywie dodatnich. (Google, LinkedIn, Meta, Microsoft, X).
2.1.8.Polityka zatrzymywania danych oraz stosowanych zabezpieczeń w zakresie ochrony danych zgodnie z RODO
W art. 3 ust. 1 lit. h) i i) rozporządzenia tymczasowego wymaga się, aby odpowiednie dane osobowe były przechowywane w bezpieczny sposób jedynie w określonych celach; artykuł ten zawiera również specyfikacje dotyczące odpowiedniego okresu przechowywania danych. Ponadto należy przestrzegać mających zastosowanie wymogów RODO.
Dostawcy zgłosili, że stosują solidną politykę zatrzymywania danych i zabezpieczenia w zakresie ochrony danych osobowych. Polityki zatrzymywania danych różnią się w zależności od rodzaju danych. Wskazują one, że w każdym przypadku okres zatrzymywania danych jest ograniczony w czasie, który uznaje się za odpowiedni z punktu widzenia rodzaju danych i celu przetwarzania, a dane są usuwane po zakończeniu okresu zatrzymywania. Dostawcy dysponują bardziej szczegółowymi informacjami na temat praktyk zatrzymywania danych określonych w ich polityce ochrony prywatności oraz umowach o świadczenie usług/umowach z użytkownikami.
Większość dostawców (LinkedIn, Meta, Microsoft) stosuje politykę zatrzymywania danych wynoszącą 90 dni w odniesieniu do multimediów, w przypadku których potwierdzono, że zawierają materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych wykryte w ramach rozporządzenia. W tym okresie treść potwierdzona jako materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych jest przechowywana w oddzielnym i bezpiecznym magazynie materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych, którymi zarządzają wyspecjalizowane zespoły (np. zespół ds. egzekwowania prawa i bezpieczeństwa narodowego Microsoft). Te systemy przechowywania automatycznie usuwają przechowywane treści stanowiące materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych po 90 dniach, chyba że przedłużono okres przechowywania po otrzymaniu zgodnych z prawem wniosków w sprawie przetwarzania związanych zasadniczo z czynnościami organów ścigania w następstwie sprawozdań NCMEC.
Google poinformował, że materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych wykryte w ramach stosowania rozporządzenia są przechowywane nie dłużej niż jest to absolutnie niezbędne do odpowiednich celów określonych w rozporządzeniu, a w każdym razie nie dłużej niż 12 miesięcy od momentu zidentyfikowania i zgłoszenia materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych, z możliwością przedłużenia na podstawie ważnego wniosku prawnego o zabezpieczenie.
X (dawniej Twitter) poinformował, że przechowuje informacje i treści z profilów przez cały okres istnienia konta użytkownika, a dane osobowe gromadzone w czasie korzystania przez użytkowników z usług – przez maksymalnie 18 miesięcy. Po dezaktywacji konta przez użytkownika X zazwyczaj przechowuje dane przez dodatkowe 30 dni, a następnie konto jest usuwane. Dane użytkowników związane ze skargami i naruszeniami polityki, w tym informacje o koncie osób naruszających prawo (np. identyfikatory wykorzystywane do utworzenia konta: adres e-mail lub numer telefonu) zatrzymuje się na czas nieokreślony, aby zapobiec tworzeniu nowych kont przez osoby dopuszczające się naruszenia polityki X i zapewnić, aby osoby naruszające politykę X nie mogły po prostu czekać do czasu, aż upłynie termin, po którym nastąpi usunięcie danych, a następnie ponownie naruszyć politykę.
Zabezpieczenia ochrony danych osobowych wdrożone przez dostawców obejmują standardowe środki branżowe (wszystkie lub wybrane), takie jak (niewyczerpujący wykaz):
I.stosowanie technik deidentyfikacji lub pseudonimizacji oraz anonimizacji danych (np. maskowanie, haszowanie, prywatność różnicowa) (Goggle, LinkedIn, Meta, Microsoft);
II.przekazywanie osobom trzecim wyłącznie wartości skrótu do celów wykrywania materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych (Google, LinkedIn);
III.stosowanie standardowego szyfrowania branżowego (algorytmów i protokołów) w odniesieniu do danych przekazywanych między infrastrukturą prywatną a sieciami publicznymi (Meta);
IV.wdrożenie strategii zarządzania danymi/kompleksowych programów ochrony prywatności (X, dawniej Twitter, Google) oraz rygorystycznych wewnętrznych ograniczeń dostępu do danych (Meta) (np. mających zastosowanie do pracowników, wykonawców, agentów, którzy potrzebują informacji w celu ich przetwarzania), korzystanie z list kontroli dostępu w ramach narzędzi przeglądu materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych i zakazy dotyczące skrótów (Meta) oraz rygorystyczne zobowiązania do zachowania poufności umownej mające zastosowanie do osób mających dostęp;
V.przegląd strategii anonimizacji i zarządzania danymi, tj. przeprowadzanie przeglądów prywatności w celu zidentyfikowania i ograniczenia potencjalnych zagrożeń dla prywatności związanych z gromadzeniem, przetwarzaniem, przechowywaniem i udostępnianiem danych osobowych, przegląd praktyk w zakresie ochrony danych (Microsoft), dostęp do nich i ich ograniczanie;
VI.utrzymywanie planów reagowania na incydenty bezpieczeństwa w celu monitorowania i wykrywania ewentualnych luk w zabezpieczeniach i incydentami w całej infrastrukturze oraz postępowania w przypadku ich wystąpienia (Google, Meta).
2.1.9.Nazwy organizacji działających w interesie publicznym przeciwko niegodziwemu traktowaniu dzieci w celach seksualnych, którym udostępniono dane na mocy niniejszego rozporządzenia.
W obu okresach sprawozdawczych (od lipca/sierpnia 2021 r. do grudnia 2021 r. i od stycznia 2022 r. do –grudnia 2022 r.) wszyscy dostawcy zgłosili udostępnianie NCMEC danych przetwarzanych na podstawie tego rozporządzenia. Wszyscy dostawcy, którzy złożyli sprawozdania, powiadomili również Komisję, zgodnie z art. 7 ust. 1 rozporządzenia tymczasowego, że zgłosili do NCMEC niegodziwe traktowanie dzieci w celach seksualnych w internecie na podstawie tego rozporządzenia.
2.2.Dane statystyczne państw członkowskich (art. 8)
Zgodnie z art. 8 ust. 1 rozporządzenia tymczasowego państwa członkowskie są zobowiązane do przekazywania danych statystycznych dotyczących:
(a)łącznej liczby zgłoszeń wykrytych przypadków niegodziwego traktowania dzieci w celach seksualnych w internecie, które zostały przekazane przez dostawców i organizacje działające w interesie publicznym przeciwko niegodziwemu traktowaniu dzieci w celach seksualnych właściwym krajowym organom ścigania z rozróżnieniem, jeżeli takie informacje są dostępne, na bezwzględną liczbę przypadków i przypadki zgłoszone kilkakrotnie oraz rodzaju dostawcy, w którego usługach wykryto przypadki niegodziwego traktowania dzieci w celach seksualnych w internecie;
(b)liczby dzieci zidentyfikowanych w drodze działań na podstawie art. 3, z rozróżnieniem na płeć;
(c)liczby skazanych sprawców.
Większość państw członkowskich przekazała wprawdzie przynajmniej częściowe informacje, w wielu z nich nie ustanowiono jednak odpowiednich systemów gromadzenia danych i sprawozdawczości. W rezultacie, w przypadku gdy przekazano dane statystyczne, odnoszą się one do bardzo różnych okresów sprawozdawczych i różnią się znacznie pod względem szczegółowości. Niektóre państwa członkowskie przekazały roczne dane statystyczne według stanu na dzień wejścia w życie rozporządzenia. Większość z nich składała sprawozdania za lata kalendarzowe, ponieważ państwa te mogły nie dysponować środkami technicznymi umożliwiającymi wyodrębnienie wymaganych rocznych danych statystycznych od daty wejścia w życie rozporządzenia. Kilka państw członkowskich nie przekazało żadnych danych.
Należy również zauważyć, że w niektórych przypadkach dane statystyczne pochodzą z tzw. bieżących baz danych lub systemów rejestracji spraw i zarządzania sprawami, tj. nie z rzeczywistych systemów statystycznych. Dane liczbowe są czasami przekazywane na podstawie danych dynamicznych, co oznacza, że dane nie są ostateczne, tj. podlegają zmianom. Do zmian dochodzi np. w zależności od czasu pozyskania danych (np. w Słowenii i Danii) w miarę zakończenia większej liczby dochodzeń i spraw sądowych.
W wielu państwach członkowskich we właściwych organach powstają nowe departamenty, których zadaniem jest prowadzenie postępowań przygotowawczych w sprawach dotyczących niegodziwego traktowania dzieci w celach seksualnych w internecie, oraz tworzy się centralną sprawozdawczość dotyczącą niegodziwego traktowania dzieci w celach seksualnych (Łotwa, Czechy). Działania te powinny przyczynić się do przekazywania bardziej precyzyjnych danych statystycznych w przyszłości.
Niemcy stwierdziły, że nie są w stanie przedstawić żadnych danych statystycznych zgodnie z art. 8 ust. 1 rozporządzenia tymczasowego, ponieważ uznały, że nie mają podstawy prawnej umożliwiającej dobrowolne wykrywanie. Na swojej stronie internetowej niemiecki Federalny Urząd Kryminalny (BKA) zgłasza jednak otrzymanie 89 844 zgłoszeń od NCMEC w 2022 r. oraz przekazanie 138 193 zgłoszeń niemieckim organom przez NCMEC
. Trzy państwa członkowskie nie przedstawiły żadnych danych ani żadnego uzasadnienia dla niedokonania zgłoszenia zgodnie z tym przepisem (Malta, Portugalia i Rumunia).
2.2.1. Łączna liczba zgłoszeń dotyczących wykrytych przypadków niegodziwego traktowania dzieci w celach seksualnych w internecie
Większość państw członkowskich przekazała pewne dane statystyczne dotyczące łącznej liczby zgłoszeń niegodziwego traktowania dzieci w celach seksualnych w internecie zgodnie z art. 8 ust. 1 lit. a) rozporządzenia tymczasowego. Ponieważ państwa członkowskie przekazywały dane dotyczące różnych okresów sprawozdawczych, nie było możliwe obliczenie łącznej liczby zgłoszeń dotyczących wykrytych przypadków niegodziwego traktowania dzieci w celach seksualnych w internecie otrzymanych na szczeblu UE dla danego okresu, takiego jak okres wdrażania rozporządzenia.
Państwa członkowskie przekazywały przeważnie łączną liczbę otrzymanych od dostawców lub innych organizacji działających w interesie publicznym przeciwko niegodziwemu traktowaniu dzieci w celach seksualnych zgłoszeń do krajowych organów ścigania. Biorąc pod uwagę, że większość dostawców z siedzibą w Stanach Zjednoczonych przesyła zgłoszenia do NCMEC, większość państw członkowskich zgłosiła, że otrzymuje wszystkie swoje zgłoszenia lub ich większość od NCMEC. Państwa członkowskie nie podały liczby zgłoszeń dających podstawę do podjęcia określonych działań, tj. zgłoszeń, które mogą doprowadzić do wszczęcia postępowania przygotowawczego, ale niektóre państwa członkowskie podały dużo niższą liczbę wszczętych postępowań przygotowawczych. Różnica między liczbą otrzymanych zgłoszeń a liczbą wszczętych postępowań wynikała z kilku przyczyn, np. gdy zgłoszenie zawierało materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych, ale nie zawierało wystarczających informacji pozwalających na wszczęcie postępowania przygotowawczego; w następstwie połączenia zgłoszeń, w przypadku gdy określonego podejrzanego dotyczyło więcej niż jedno zgłoszenie lub gdy materiał, mimo iż ukazywał sytuacje wykorzystywania, nie został oceniony jako przestępstwo w świetle przepisów prawa krajowego. Ponadto państwa członkowskie w większości nie dokonywały rozróżnienia między bezwzględną liczbą przypadków, a przypadkami zgłaszanymi kilkukrotnie. Jeżeli chodzi o zgłoszenia przekazywane przez NCMEC, to NCMEC wstępnie dokonało podziału zgłoszeń otrzymanych od dostawców na „dające podstawę do podjęcia działań” lub „o charakterze informacyjnym”. Zgodnie z definicją NCMEC zgłoszeniem dającym podstawę do podjęcia działań jest zgłoszenie zawierające informacje wystarczające do wszczęcia postępowania przygotowawczego. Zazwyczaj zawiera ono informacje o użytkowniku, obrazy i możliwą lokalizację. Zgłoszenie klasyfikuje się jako „o charakterze informacyjnym”, jeżeli zawiera niewystarczające informacje lub jeżeli obrazy uznaje się za viral i były wielokrotnie zgłaszane. W 2022 r. NCMEC określiło 49 % zgłoszeń jako „dające podstawę do podjęcia działań”, natomiast 51 % uznano za zgłoszenia „o charakterze informacyjnym”.
Tylko nieliczne państwa członkowskie wskazało rodzaj dostawców świadczących usługi, w ramach których wykryto niegodziwe traktowanie dzieci w celach seksualnych w internecie (np. Belgia, Czechy, Estonia, Francja i Polska), a tylko jedno państwo członkowskie przedstawiło szczegółowe zestawienie (Belgia).
Słowenia wskazała, że nie może przedstawić danych liczbowych wyłącznie na temat przestępstw, w sprawie których toczy się postępowanie przygotowawcze w związku ze zgłoszeniami przekazanymi przez dostawców i organizacje, lecz może jedynie przedstawić dane liczbowe dotyczące wszystkich postępowań przygotowawczych w sprawie niegodziwego traktowania dzieci w celach seksualnych w internecie niezależnie od źródła informacji, które doprowadziły do wszczęcia postępowania.
Tabela n.6: Łączna liczba zgłoszeń dotyczących wykrytych przypadków niegodziwego traktowania dzieci w celach seksualnych w internecie przekazana przez państwa członkowskie
|
Państwo
|
Okres sprawozdawczy
|
Łączna liczba zgłoszeń dotyczących przypadków niegodziwego traktowania dzieci w celach seksualnych w internecie
|
Źródło zgłoszeń
|
Uwagi
|
|
Austria
|
2021–2022
|
16 311
|
NCMEC
|
|
|
Belgia
|
1 sierpnia 2021 r. do 31 lipca 2022 r.
|
26 226
|
Zgłoszenia pochodzące od dostawców (media społecznościowe) i z infolinii Childfocus
|
|
|
Bułgaria
|
2021–2022
|
9 120
|
Dostawcy i infolinia stowarzyszenia INHOPE za pośrednictwem „Safenet” i innych
|
Spośród nich 9 112 ostrzeżeń dotyczyło stron internetowych zawierających materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych, przechowywanych przez dostawców bułgarskich.
|
|
Chorwacja
|
1 stycznia 2021 r. do 31 października 2022 r.
|
9 044
|
NCMEC
|
|
|
Cypr
|
1 lipca 2021 r. do 31 grudnia 2022 r.
|
3 570
|
NCMEC
|
|
|
Czechy
|
1 stycznia 2022 r. do 31 lipca 2022 r.
|
13 279
|
NCMEC
|
|
|
Dania
|
2 sierpnia 2021 r. do 20 stycznia 2023 r.
|
10 744
|
NCMEC
|
|
|
Estonia
|
-
|
-
|
NCMEC, telefon zaufania dla dzieci 116 111
|
Estonia poinformowała, że dane statystyczne policji i straży granicznej, w tym NCMEC, nie są publicznie dostępne. W 2021 r. zgłosiła 360 przestępstw seksualnych bez kontaktu fizycznego z ofiarą, które popełniono wobec dzieci. Ponadto 86 % wszystkich przestępstw seksualnych bez kontaktu fizycznego z ofiarą popełniono w środowisku internetowym lub przy użyciu narzędzi technologii informacyjnych.
|
|
Finlandia
|
2022 r.
|
25 000
|
NCMEC i Save the Children
|
|
|
Francja
|
1 sierpnia 2021 r. do 1 sierpnia 2022 r.
|
120 000
|
NCMEC
|
|
|
Niemcy
|
-
|
-
|
-
|
Dane niedostępne/nie przekazano danych.
|
|
Grecja
|
2021–2022
|
142
|
NCMEC, grecki telefon interwencyjny w sprawach dotyczących nielegalnych treści w internecie – SafeLine, Krajowa Komisja ds. Telekomunikacji i Poczty, krajowa linia alarmowa 1056 – Uśmiech Dziecka, grecki Rzecznik Praw Obywatelskich
|
|
|
Węgry
|
2022 r.
|
0
|
Żadnego ze zgłoszeń przekazanych przez dostawców nie przesłano na podstawie rozporządzenia tymczasowego
|
|
|
Irlandia
|
2021–2022
|
15 355
|
NCMEC
|
|
|
Włochy
|
2022 r.
|
4 607
|
Nie określono
|
|
|
Łotwa
|
1 sierpnia 2022 r. do 6 marca 2023 r.
|
Ok. 115–220 zgłoszeń miesięcznie
|
od dostawców i organizacji spoza Łotwy działających w interesie publicznym przeciwko niegodziwemu traktowaniu dzieci w celach seksualnych (w większości NCMEC) oraz łotewskich dostawców i organizacji (w większości łotewskiego Centrum Programu Safer Internet)
|
|
|
Litwa
|
1 stycznia 2021 r. do 30 czerwca 2022 r.
|
4 142
|
Nie określono
|
|
|
Luksemburg
|
2021–2022
|
2 491
|
Nie określono
|
|
|
Malta
|
-
|
-
|
-
|
Nie przekazano/nie zgłoszono danych.
|
|
Niderlandy
|
2021 r.
|
36 537
|
Dostawcy i organizacje działające w interesie publicznym przeciwko niegodziwemu traktowaniu dzieci w celach seksualnych
|
|
|
Polska
|
3 sierpnia 2021 r. do 3 sierpnia 2023 r.
|
227
|
Dostawcy i organizacje działające w interesie publicznym przeciwko niegodziwemu traktowaniu dzieci w celach seksualnych
|
W okresie od 3 sierpnia 2022 r. do 3 sierpnia 2023 r. Polska odnotowała 1 zgłoszenie dotyczące nagabywania dzieci dla celów seksualnych i 105 zgłoszeń dotyczących materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych.
|
|
Portugalia
|
-
|
-
|
-
|
Nie przekazano/nie zgłoszono danych.
|
|
Rumunia
|
-
|
-
|
-
|
Nie przekazano/nie zgłoszono danych.
|
|
Słowacja
|
1 sierpnia 2021 r. do 31 lipca 2022 r.
|
7 206
|
Dostawcy i organizacje działające w interesie publicznym przeciwko niegodziwemu traktowaniu dzieci w celach seksualnych
|
|
|
Słowenia
|
1 stycznia 2021 r. do 14 lipca 2023 r.
|
452
|
Liczba ta wskazuje przestępstwa związane z działalnością w internecie. Obecnie istniejące dane statystyczne nie pozwalają Słowenii na oddzielenie danych statystycznych dotyczących przestępstw, w sprawie których toczy się postępowanie przygotowawcze na podstawie zgłoszeń przekazanych przez dostawców i organizacje od danych statystycznych dotyczących innych zgłoszeń.
|
|
|
Hiszpania
|
2022 r.
|
31 474
|
Organizacje działające w interesie publicznym przeciwko niegodziwemu traktowaniu dzieci w celach seksualnych
|
|
|
Szwecja
|
Od sierpnia 2021 r. do 31 grudnia 2022 r.
|
32 830
|
Głównie NCMEC
|
|
Biorąc pod uwagę, że głównym źródłem zgłoszeń jest NCMEC, przydatne jest porównanie danych dotyczących zgłoszeń otrzymanych przez państwa członkowskie ze zgłoszeniami przekazanymi przez NCMEC w odniesieniu do zgłoszeń przekazywanych państwom członkowskim. W 2021 r. do NCMEC wpłynęło łącznie 29 397 681 zgłoszeń od branży na całym świecie, z czego 99,7 % (lub 29 309 106) zawierało co najmniej jeden obraz lub film przedstawiający niegodziwe traktowanie dzieci w celach seksualnych, 0,15 % (lub 44 155) dotyczyło nagabywania dzieci dla celów seksualnych, a 0,05 % (lub 16 032) – handlu dziećmi w celach seksualnych. W 2022 r. do NCMEC wpłynęło łącznie 32 059 029 zgłoszeń, z czego 99,5 % (lub 31 901 234) dotyczyło obrazów lub filmów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych, 0,25 % (80 524) – nagabywania dzieci dla celów seksualnych, a 0,06 % (lub 18 336) – handlu dziećmi w celach seksualnych. W przypadku UE podział przedstawia się następująco:
Tabela n.7: Zgłoszenia NCMEC dotyczące podejrzenia niegodziwego traktowania dzieci w celach seksualnych w internecie przekazane państwom członkowskim UE w 2021 i 2022 r.
|
Państwo
|
Ogółem zgłoszenia w 2021 r.
|
% całkowitej liczby w UE w 2021 r.
|
Ogółem zgłoszenia w 2022 r.
|
% całkowitej liczby w UE w 2022 r.
|
% ludności UE
|
|
Austria
|
7 580
|
1,36 %
|
18 501
|
1,23 %
|
2,00 %
|
|
Belgia
|
15 762
|
2,84 %
|
50 255
|
3,34 %
|
2,60 %
|
|
Bułgaria
|
13 584
|
2,44 %
|
31 937
|
2,12 %
|
1,53 %
|
|
Chorwacja
|
4 744
|
0,85 %
|
11 693
|
0,78 %
|
0,86 %
|
|
Cypr
|
2 657
|
0,48 %
|
7 361
|
0,49 %
|
0,20 %
|
|
Czechy
|
15 004
|
2,70 %
|
61 994
|
4,12 %
|
2,36 %
|
|
Dania
|
5 891
|
1,06 %
|
30 215
|
2,01 %
|
1,31 %
|
|
Estonia
|
2 729
|
0,49 %
|
6 408
|
0,43 %
|
0,30 %
|
|
Finlandia
|
6 079
|
1,09 %
|
10 904
|
0,73 %
|
1,24 %
|
|
Francja
|
98 233
|
17,67 %
|
227 465
|
15,13 %
|
15,16 %
|
|
Niemcy
|
79 701
|
14,34 %
|
138 193
|
9,19 %
|
18,59 %
|
|
Grecja
|
14 616
|
2,63 %
|
43 345
|
2,88 %
|
2,37 %
|
|
Węgry
|
31 710
|
5,70 %
|
109 434
|
7,28 %
|
2,16 %
|
|
Irlandia
|
7 327
|
1,32 %
|
19 770
|
1,31 %
|
1,13 %
|
|
Włochy
|
37 480
|
6,74 %
|
96 512
|
6,42 %
|
13,32 %
|
|
Łotwa
|
1 537
|
0,28 %
|
3 688
|
0,25 %
|
0,42 %
|
|
Litwa
|
3 509
|
0,63 %
|
16 603
|
1,10 %
|
0,63 %
|
|
Luksemburg
|
2 005
|
0,36 %
|
2 004
|
0,13 %
|
0,14 %
|
|
Malta
|
750
|
0,13 %
|
4 713
|
0,31 %
|
0,12 %
|
|
Niderlandy
|
36 790
|
6,62 %
|
57 012
|
3,79 %
|
3,96 %
|
|
Polska
|
37 758
|
6,79 %
|
235 310
|
15,65 %
|
8,41 %
|
|
Portugalia
|
34 415
|
6,19 %
|
42 674
|
2,84 %
|
2,31 %
|
|
Rumunia
|
32 765
|
5,89 %
|
96 287
|
6,40 %
|
4,25 %
|
|
Słowacja
|
7 275
|
1,31 %
|
39 748
|
2,64 %
|
1,21 %
|
|
Słowenia
|
3 162
|
0,57 %
|
14 795
|
0,98 %
|
0,47 %
|
|
Hiszpania
|
33 136
|
5,96 %
|
77 727
|
5,17 %
|
10,60 %
|
|
Szwecja
|
19 635
|
3,53 %
|
48 883
|
3,25 %
|
2,33 %
|
|
Ogółem
|
555 834
|
|
1 503 431
|
|
|
Znaczne rozbieżności między liczbą zgłoszeń w 2021 r. i 2022 r. – ukazujące gwałtowny wzrost liczby zgłoszeń w 2022 r. – wynikają w dużej mierze ze spadku liczby przypadków dobrowolnego wykrywania w okresie od stycznia do sierpnia 2021 r., kiedy rozporządzenie tymczasowe nie miało jeszcze zastosowania.
NCMEC nie dokonuje w swoich danych statystycznych dotyczących poszczególnych państw członkowskich UE rozróżnienia według źródła zgłoszenia, w szczególności na podstawie tego, czy wynikało ono z usługi łączności interpersonalnej niewykorzystującej numerów. NCMEC przedstawia jednak dane statystyczne w odniesieniu do ogólnej liczby zgłoszeń dotyczących UE wynikających z usług łączności interpersonalnej niewykorzystujących numerów. W 2021 r. 283 265 zgłoszeń dotyczących państw członkowskich pochodziło z czatu, wiadomości lub usługi poczty elektronicznej, tj. było to 51 % wszystkich zgłoszeń dotyczących UE. Dodatkowe 164 645 (30 % łącznej liczby) zgłoszeń pochodziło z mediów społecznościowych lub platform gier internetowych, które mogą obejmować również zintegrowane usługi w zakresie wiadomości lub czatów. W 2021 r. 3 565 zgłoszeń dotyczących UE odnosiło się do nagabywania dzieci dla celów seksualnych. W 2022 r. 1 015 231 zgłoszeń dotyczących państw członkowskich pochodziło z czatu, wiadomości lub usługi poczty elektronicznej, tj. było to 68 % wszystkich zgłoszeń dotyczących UE. Dodatkowe 325 847 (22 % łącznej liczby) zgłoszeń pochodziło z mediów społecznościowych lub platform gier internetowych, które mogą obejmować również zintegrowane usługi w zakresie wiadomości lub czatów. W 2022 r. 7 561 zgłoszeń dotyczących UE odnosiło się do nagabywania dzieci dla celów seksualnych. Ponownie rozbieżności między liczbą zgłoszeń wynikających z usług łączności interpersonalnej niewykorzystujących numerów w 2021 r. i w 2022 r. wynikają ze spadku liczby przypadków dobrowolnego wykrywania w okresie od stycznia do sierpnia 2021 r., kiedy rozporządzenie tymczasowe nie miało jeszcze zastosowania.
W wielu przypadkach odsetek zgłoszeń w podziale na państwa członkowskie odpowiada w przybliżeniu udziałowi ludności danego państwa członkowskiego w porównaniu z liczbą ludności UE jako całością, co może wskazywać na porównywalne występowanie przypadków niegodziwego traktowania dzieci w celach seksualnych w internecie we wszystkich państwach członkowskich. Zauważalne odchylenia można dostrzec w odniesieniu do Hiszpanii i Włoch, w przypadku których odsetek zgłoszeń wydaje się niski w porównaniu z odsetkiem ludności UE w obu latach, natomiast w przypadku innych państw członkowskich odsetek zgłoszeń wydaje się podlegać znacznym wahaniom (np. w Niemczech, Polsce, Niderlandach i Słowacji). Zmiany te jako takie nie znajdują odzwierciedlenia w sprawozdaniach dotyczących liczby spraw, w związku z czym również w tym przypadku trudno jest sformułować wnioski na temat korelacji między liczbą zgłoszeń a liczbą postępowań przygotowawczych.
Ze względu na różnice w okresach sprawozdawczych bezpośrednie dopasowanie nie jest możliwe, istnieją jednak znaczne rozbieżności między danymi statystycznymi przekazanymi przez NCMEC a danymi liczbowymi zgłoszonymi przez państwa członkowskie. Ponadto nie można również w pełni dopasować danych liczbowych NCMEC dotyczących państw członkowskich do przekazanych przez branżę danych, o których mowa w poprzedniej sekcji. Chociaż niektóre różnice mogą wynikać ze zgłoszeń przypadków niegodziwego traktowania dzieci w celach seksualnych w internecie, które pochodzą ze źródeł innych niż komunikacja interpersonalna, wymagałoby to dalszej analizy, ponieważ możliwe jest również zastosowanie środków dobrowolnego wykrywania dotyczących UE przez dostawców innych niż ci, którzy dotychczas przedłożyli Komisji sprawozdania, biorąc pod uwagę wykaz dostawców, którzy przekazują zgłoszenia do NCMEC. Niemniej fakt, że w przypadku większości państw członkowskich można odnotować znaczącą rozbieżność między liczbą zgłoszeń, które NCMEC odnotowuje jako przekazane państwu członkowskiemu, a liczbą zgłoszeń, które to państwo członkowskie odnotowuje jako otrzymane, sugeruje że wykorzystywany przez państwa członkowskie mechanizm gromadzenia i zgłaszania danych nie jest w pełni funkcjonalny.
W przypadku wszystkich wymienionych powyżej zgłoszeń przekazanych NCMEC powiązane z nimi zdjęcia i filmy przedstawiające niegodziwe traktowanie dzieci w celach seksualnych zostały usunięte i wycofane z obiegu. Ma to istotne znaczenie w szczególności dla obecnych ofiar niegodziwego traktowania dzieci w celach seksualnych oraz dla osób, które doświadczyły takiego traktowania w przeszłości. Badania wykazały, że pozostawienie zdjęć i filmów przedstawiających niegodziwe traktowanie ofiar w celach seksualnych w obiegu ogranicza zdolność ofiar do poradzenia sobie ze skutkami psychologicznymi takiego niegodziwego traktowania i prowadzi do wtórnej wiktymizacji.
2.2.2. Liczba zidentyfikowanych dzieci
Większość państw członkowskich przekazała kompletne lub częściowe dane statystyczne dotyczące liczby zidentyfikowanych dzieci z rozróżnieniem na płeć zgodnie z art. 8 ust. 1 lit. b) rozporządzenia tymczasowego. Kilka państw członkowskich nie przedstawiło jednak żadnych danych ani żadnego uzasadnienia dla niedokonania zgłoszenia zgodnie z tym przepisem.
Szereg państw członkowskich nie przekazało żadnych danych statystycznych dla tego okresu sprawozdawczego lub przekazało jedynie częściowe dane statystyczne, ale przedstawiło przyczyny tego stanu rzeczy. Obejmowały one:
-brak możliwości policzenia ofiar niegodziwego traktowania dzieci w celach seksualnych w internecie (Francja);
-brak danych z uwagi na fakt, że nie są one gromadzone w ramach działań w zakresie gromadzenia danych statystycznych na szczeblu krajowym lub z uwagi na fakt, że organy krajowe nie zarejestrowały tych danych statystycznych (Dania, Litwa);
-nierejestrowanie danych z rozróżnieniem na płeć w procesie gromadzenia danych statystycznych na szczeblu krajowym (Belgia, Cypr, Czechy, Grecja, Irlandia, Włochy, Litwa, Niderlandy);
-brak informacji charakteryzujących się żądanym poziomem szczegółowości w istniejących systemach informacyjnych (Finlandia);
-niegromadzenie tego rodzaju informacji (Niemcy).
Kilka spośród państw członkowskich, które poinformowały, że nie były w stanie przekazać żądanych danych statystycznych, potwierdziło, że do ich organów krajowych zwrócono się o wprowadzenie zmian w procedurze rejestracji dobrowolnych zgłoszeń, wyników analiz i gromadzonych danych statystycznych (Dania) lub że wdrażają nowe systemu informacyjne, które powinny umożliwić zgłaszanie informacji o wymaganym poziomie szczegółowości (Finlandia).
W jednym państwie członkowskim w odniesieniu do danych przedstawionych poniżej nie dokonano rozróżnienia między ofiarami niegodziwego traktowania dzieci w celach seksualnych w internecie i poza nim (Węgry). W niektórych przypadkach dane statystyczne obejmują również dzieci, które zidentyfikowano jako osoby samodzielnie tworzące i udostępniające tego rodzaju materiały (samodzielnie tworzone materiały, głównie filmy) (Czechy, Estonia).
Ponieważ państwa członkowskie przeważnie przekazywały dane dotyczące różnych okresów sprawozdawczych, obliczenie łącznej liczby dzieci zidentyfikowanych jako ofiary niegodziwego traktowania dzieci w celach seksualnych w internecie w UE w ujęciu rocznym lub w tym samym okresie sprawozdawczym nie było możliwe.
Tabela n.8: Liczba zidentyfikowanych dzieci z rozróżnieniem na płeć
|
Państwo
|
Okres sprawozdawczy
|
Kobieta
|
Mężczyzna
|
Ogółem
|
Uwagi
|
|
Austria
|
2021–2022
|
11
|
6
|
17
|
|
|
Belgia
|
2021–2022
|
-
|
-
|
63
|
Brak danych z rozróżnieniem na płeć.
|
|
Bułgaria
|
2022 r.
|
50
|
12
|
62
|
|
|
Chorwacja
|
1 stycznia 2021 r. do 31 października 2022 r.
|
20
|
0
|
20
|
|
|
Cypr
|
2022 r.
|
-
|
-
|
102
|
Brak danych z rozróżnieniem na płeć.
|
|
Czechy
|
2022 r.
|
-
|
-
|
30
|
Brak danych z rozróżnieniem na płeć.
|
|
Dania
|
-
|
-
|
-
|
-
|
Dane niedostępne.
|
|
Estonia
|
2021 r.
|
6
|
12
|
18
|
|
|
Finlandia
|
-
|
-
|
-
|
-
|
Dane niedostępne.
|
|
Francja
|
-
|
-
|
-
|
-
|
Dane niedostępne.
|
|
Niemcy
|
-
|
-
|
-
|
-
|
Dane niedostępne.
|
|
Grecja
|
2021–2022
|
-
|
-
|
4
|
Brak danych z rozróżnieniem na płeć.
|
|
Węgry
|
2021–2022
|
379
|
47
|
426
|
Brak możliwości dokonania rozróżnienia między ofiarami niegodziwego traktowania dzieci w celach seksualnych w internecie i poza nim. Dane obejmują wyłącznie dzieci poniżej 16. roku życia.
|
|
Irlandia
|
2021–2022
|
-
|
-
|
101
|
W przypadku danych za 2021 r. (50 ofiar) nie można dokonać rozróżnienia ze względu na płeć. Dane z rozróżnieniem na płeć za 2022 r.: zidentyfikowano 25 dzieci płci żeńskiej i 26 dzieci płci męskiej.
|
|
Włochy
|
2022 r.
|
-
|
-
|
385
|
Brak danych z rozróżnieniem na płeć.
|
|
Łotwa
|
1 sierpnia 2022 r. do 6 marca 2023 r.
|
1
|
-
|
1
|
|
|
Litwa
|
-
|
-
|
-
|
-
|
Dane niedostępne.
|
|
Luksemburg
|
2021–2022
|
0
|
0
|
0
|
|
|
Malta
|
-
|
-
|
-
|
-
|
Nie przekazano/nie zgłoszono danych.
|
|
Niderlandy
|
2021 r.
|
-
|
-
|
222
|
Brak danych z rozróżnieniem na płeć.
|
|
Polska
|
2022 r.
|
2368
|
487
|
3014
|
W 2022 r. w Krajowym Systemie Informacyjnym Policji w Polsce figurowały dane dotyczące 3 014 ofiar przestępstw związanych z niegodziwym traktowaniem dzieci w celach seksualnych (2 368 ofiar płci żeńskiej, 487 ofiar płci męskiej oraz 159 ofiar, w przypadku których nie podano informacji o płci).
|
|
Portugalia
|
-
|
-
|
-
|
-
|
Nie przekazano/nie zgłoszono danych.
|
|
Rumunia
|
-
|
-
|
-
|
-
|
Nie przekazano/nie zgłoszono danych.
|
|
Słowacja
|
Od sierpnia 2021 r. do lipca 2022 r.
|
13
|
8
|
21
|
|
|
Słowenia
|
1 stycznia 2021 r. do 14 lipca 2023 r.
|
220
|
85
|
305
|
|
|
Hiszpania
|
2022 r.
|
80
|
39
|
119
|
|
|
Szwecja
|
2022 r.
|
8
|
4
|
12
|
|
|
OGÓŁEM DLA WSZYSTKICH PAŃSTW CZŁONKOWSKICH
|
1 stycznia 2021 r. do 6 marca 2023 r.
|
3 156
|
700
|
4 922
|
|
Przedstawione powyżej dane są obwarowane szeregiem dodatkowych zastrzeżeń. Istniejące dane statystyczne nie zawsze umożliwiają państwom członkowskim odseparowanie danych dotyczących ofiar zidentyfikowanych na podstawie zgłoszenia dokonanego przez dostawcę od danych uzyskanych np. na podstawie zgłoszenia dokonanego przez samą ofiarę przestępstwa lub przez osobę, która znała ofiarę lub wykryła przestępstwo (o czym wspominają organy słoweńskie). Organy szwedzkie poinformowały, że dzieci, które zostały zidentyfikowane na podstawie rejestrów chatów, są również uwzględniane w zgłaszanych danych, mimo że nigdy nie znaleziono żadnych zdjęć ani filmów przedstawiających niegodziwe traktowanie tych dzieci albo nie ustalono, że takie zdjęcia lub materiały wideo pochodzą od tej konkretnej ofiary.
Ogólnie rzecz biorąc, dane przedstawione w tabeli nr 8 niekoniecznie odpowiadają obowiązkom w zakresie zgłaszania przewidzianym w rozporządzeniu tymczasowym, które dotyczą wyłącznie ofiar uratowanych dzięki zgłoszeniom przekazanym zgodnie z rozporządzeniem przez dostawców i organizacje działające w interesie publicznym przeciwko niegodziwemu traktowaniu dzieci w celach seksualnych. W niektórych przypadkach przekazane dane obejmują również ofiary zidentyfikowane z różnych innych powodów i przy wykorzystaniu różnych innych metod.
Dane te nie pozwalają zatem na uzyskanie kompleksowego obrazu sytuacji, jeżeli chodzi o liczbę dzieci zidentyfikowanych jako ofiary niegodziwego traktowania dzieci w celach seksualnych w internecie w UE.
Co więcej, nawet gdy zidentyfikowano ofiarę, taka identyfikacja niekoniecznie musiała wiązać się ze skazaniem sprawcy niegodziwego traktowania, jakiemu poddana została ofiara. W niektórych przypadkach identyfikowano ofiarę, ale w toku postępowania przygotowawczego nie udawało się ustalić podejrzanego albo postępowanie przygotowawcze nie kończyło się wydaniem wyroku skazującego (Szwecja).
Ze zgromadzonych danych można jednak wywnioskować, że znaczną liczbę ofiar zidentyfikowano dzięki zgłoszeniom dobrowolnym dokonywanym zgodnie z rozporządzeniem tymczasowym. Znajduje to potwierdzenie w sprawach zgłaszanych przez organy ścigania, które niejednokrotnie wszczyna się wyłącznie na podstawie dobrowolnego zgłoszenia.
2.2.3. Liczba skazanych sprawców.
Choć większość państw członkowskich wywiązała się ze spoczywających na nich zobowiązań, dwa państwa członkowskie nie przekazały żadnych danych ani żadnego uzasadnienia niezgłoszenia danych zgodnie z art. 8 ust. 1 lit. c) rozporządzenia tymczasowego.
Kilka państw członkowskich nie przekazało żadnych danych statystycznych dotyczących okresu sprawozdawczego zgodnie z tym przepisem, przedstawiając następujące przyczyny tego stanu rzeczy:
-dane nie są jeszcze dostępne (Belgia i Hiszpania);
-centralna baza danych wykorzystywana do prowadzenia ewidencji przestępstw nie wymaga podania informacji dotyczących charakteru pierwotnego zawiadomienia o popełnieniu przestępstwa (Irlandia);
-dane nie są gromadzone (Niemcy).
Jak wskazano w tabeli nr 9 poniżej, państwa członkowskie zgłaszały bardzo zróżnicowane dane dotyczące liczby skazanych sprawców i brak było spójności, jeżeli chodzi o okresy sprawozdawcze, których dotyczyły te dane.
Tabela n.9: Liczba skazanych sprawców.
|
Państwo
|
Okres sprawozdawczy
|
Liczba wyroków skazujących
|
Uwagi
|
|
Austria
|
2021 r.
|
850
|
W danych nie dokonano rozróżnienia między przestępstwami popełnianymi w internecie i poza nim.
|
|
Belgia
|
-
|
-
|
Dane niedostępne.
|
|
Bułgaria
|
2021–2022
|
52
|
|
|
Chorwacja
|
-
|
-
|
Dane niedostępne.
|
|
Cypr
|
2022 r.
|
0
|
Jak dotąd nie wydano jeszcze żadnego wyroku skazującego.
|
|
Czechy
|
1 stycznia 2022 r. do 31 lipca 2022 r.
|
20
|
|
|
Dania
|
2 sierpnia 2021 r. do 20 stycznia 2023 r.
|
224
|
|
|
Estonia
|
2021 r.
|
2
|
Dane obejmują wyłącznie wyroki skazujące wydane w następstwie zgłoszeń do NCMEC.
|
|
Finlandia
|
2021 r.
|
240
|
|
|
Francja
|
4 sierpnia 2021 r. do 3 sierpnia 2022 r.
|
820
|
|
|
Niemcy
|
-
|
-
|
Dane niedostępne.
|
|
Grecja
|
2021–2022
|
62
|
|
|
Węgry
|
2021–2022
|
126
|
|
|
Irlandia
|
-
|
-
|
Dane niedostępne.
|
|
Włochy
|
2021–2022
|
5 835
|
W danych nie dokonano rozróżnienia między przestępstwami popełnianymi w internecie i poza nim.
|
|
Łotwa
|
2021–2022
|
33
|
W danych nie dokonano rozróżnienia między przestępstwami popełnianymi w internecie i poza nim.
|
|
Litwa
|
1 stycznia 2021 r. do 30 czerwca 2022 r.
|
10
|
|
|
Luksemburg
|
2022 r.
|
11
|
W danych nie dokonano rozróżnienia między przestępstwami popełnianymi w internecie i poza nim.
|
|
Malta
|
-
|
-
|
Nie przekazano/nie zgłoszono danych.
|
|
Niderlandy
|
2021 r.
|
217
|
|
|
Polska
|
Okres od pierwszej połowy 2021 r. do pierwszej połowy 2022 r./2022 r./pierwsza połowa 2023 r.
|
185/194/81
|
|
|
Portugalia
|
-
|
-
|
Nie przekazano/nie zgłoszono danych.
|
|
Rumunia
|
-
|
-
|
Nie przekazano/nie zgłoszono danych.
|
|
Słowacja
|
2021 r.
|
10
|
|
|
Słowenia
|
2021–2022
|
45
|
|
|
Hiszpania
|
2022 r.
|
-
|
Dane niedostępne.
|
|
Szwecja
|
2022 r.
|
55
|
|
Należy pamiętać o tym, że liczba wyroków skazujących nie odpowiada liczbie skazanych osób, ponieważ dana osoba może zostać skazana za popełnienie więcej niż jednego przestępstwa związanego z niegodziwym traktowaniem dzieci w celach seksualnych w internecie.
Co więcej, dane statystyczne dotyczące wyroków skazujących przekazane za dany okres niekoniecznie muszą być powiązane ze zgłoszeniami otrzymanymi w tym okresie (tj. wyrok skazujący wydany w 2022 r. może być powiązany np. ze zgłoszeniem z 2021 r. lub 2020 r., natomiast zgłoszenie dokonane w 2022 r. może doprowadzić do skazania dopiero w 2023 r. lub później). Szereg państw członkowskich wprost zwróciło uwagę na ten fakt w swoich sprawozdaniach (Irlandia, Luksemburg, Szwecja).
W niektórych przypadkach nie gromadzono żadnych danych statystycznych dotyczących tego, czy zgłoszenia podejrzanych działań (np. dokonywane za pośrednictwem NCMEC) doprowadziły do wydania wyroków skazujących, lub, innymi słowy, czy wyroki skazujące wydano na podstawie informacji przekazanych przez dostawcę lub organizację publiczną (Austria, Łotwa). Tylko władze estońskie jednoznacznie potwierdziły, że dane statystyczne dotyczą wyłącznie wyroków skazujących wydanych w następstwie zgłoszeń do NCMEC. Nie można również wykluczyć, że takie zgłoszenia naprowadziły organy ścigania na trop innych przestępców, wobec których prowadzono postępowania przygotowawcze i których ostatecznie skazano (Austria).
Co do zasady przyjmuje się, że podana liczba wyroków skazujących dotyczy przypadków, w których sąd wydał prawomocne orzeczenie kończące postępowanie w sprawie, potencjalnie po wyczerpaniu środków zaskarżenia dostępnych w systemie sądowym. W jednym państwie członkowskim (Dania), gdzie gromadzi się dane na temat najnowszego orzeczenia wydanego w danej sprawie, przedstawione wartości liczbowe nie mają ostatecznego charakteru, ponieważ wydane orzeczenia mogą jeszcze zostać zaskarżone.
W niektórych przypadkach w zgłaszanych przez państwa członkowskie danych figurujących w krajowych systemach IT nie dokonuje się rozróżnienia między przestępstwami popełnianymi w internecie i poza nim (Austria, Luksemburg, Łotwa).
Duży stopień zróżnicowania sprawozdań przekazywanych przez państwa członkowskie oraz duże różnice w sposobie gromadzenia danych statystycznych na szczeblu krajowym uniemożliwiają zatem uzyskanie kompleksowego obrazu sytuacji, jeżeli chodzi o liczbę sprawców skazanych za dopuszczanie się niegodziwego traktowania dzieci w celach seksualnych w internecie w UE. Obecnie nie sposób jest również – na podstawie dostępnych danych – jednoznacznie powiązać te wyroki skazujące ze zgłoszeniami dokonywanymi przez dostawców i organizacje działające w interesie publicznym przeciwko niegodziwemu traktowaniu dzieci w celach seksualnych w konkretnych okresach sprawozdawczych zgodnie z rozporządzeniem tymczasowym.
2.3.Zmiany związane z postępem technologicznym
Technologie wykorzystywane obecnie do wykrywania przypadków niegodziwego traktowania dzieci w celach seksualnych w internecie obejmują technologie i narzędzia służące do wykrywania „znanych” (tj. wcześniej wykrytych) materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych i „nowych” (tj. wcześniej niewykrytych) materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych, a także przypadków nagabywania dzieci (określanego jako nagabywanie dzieci dla celów seksualnych).
Poniżej przedstawiono przykłady niektórych spośród najpowszechniej stosowanych narzędzi, przy czym wykaz ten nie jest wyczerpujący. Wiele z tych narzędzi udostępnia się dostawcom, organom ścigania i innym organizacjom, o ile będą one w stanie wykazać, że mają w tym uzasadniony interes. Narzędzia te zazwyczaj wykorzystuje się w połączeniu z weryfikacją przez człowieka, aby zapewnić ich możliwie jak największą dokładność.
W niniejszej sekcji przedstawiono również informacje dotyczące dodatkowych zmian związanych z postępem technologicznym wynikających z rozwoju sztucznej inteligencji.
2.3.1. Wykrywanie znanych materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych
Istniejące technologie służące do wykrywania znanych materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych opierają się w całości na automatycznej analizie treści, u podstaw której leży zazwyczaj haszowanie. Technologia haszowania jest rodzajem cyfrowego pobierania odcisków palców. Tworzy ona unikalny podpis cyfrowy (tzw. „skrót”) obrazu, który porównuje się następnie z podpisami (skrótami) innych zdjęć w celu znalezienia kopii tego samego obrazu. Technologia ta umożliwia wyłącznie wykrywanie pasujących do siebie skrótów i nie pozwala „zobaczyć” żadnych materiałów, które nie pasują do danego skrótu. Wartości skrótu są również nieodwracalne, a zatem nie można wykorzystać ich do odtworzenia obrazu.
Istnieje wiele rodzajów i wiele zastosowań technologii haszowania. Narzędzia wykorzystywane do wykrywania znanych materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych obejmują: (i)
Microsoft PhotoDNA
; (ii)
Google CSAI Match
; (iii) Apple
NeuralHash + Private Set Intersection
; (iv)
Meta SSN++
; (v)
PDQ i TMK+PDQF
; (vi)
MD5 Hash generator
(Skype); (vii)
Safer
(Thorn).
Najpowszechniej stosowanym narzędziem jest Microsoft PhotoDNA, z którego korzysta ponad 150 organizacji. PhotoDNA pozostaje w użyciu od ponad 10 lat i charakteryzuje się wysokim poziomem dokładności. Na podstawie wyników badań odsetek wyników fałszywie dodatnich szacuje się na nie więcej niż 1 na 50 mld. Poziom błędu PhotoDNA utrzymuje się na wyjątkowo niskim poziomie z uwagi na specyfikę technologii leżącej u podstaw tego narzędzia. Technologia ta wykrywa wyłącznie kopie wcześniej zidentyfikowanych treści. Choć oryginalna wersja PhotoDNA służy do wykrywania znanych materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych w postaci zdjęć, dostępna jest również wersja umożliwiająca wykrywanie materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych w postaci filmów.
Technologia ta jest nieustannie rozwijana i udoskonalana. W maju 2023 r. Microsoft zapowiedział wprowadzenie nowych rozwiązań w zakresie dopasowywania umożliwiających szybsze (około 350-krotnie) wyszukiwanie, przy jednoczesnym ograniczeniu kosztów związanych z procesem dopasowywania bez uszczerbku dla dokładności. Zdaniem Microsoftu nowa biblioteka zapewnia również możliwość bardziej kompleksowego wykrywania odwróconych lub obróconych obrazów. Internet Watch Foundation (IWF) poinformowała ponadto, że niedawno udoskonaliła swoją technologię haszowania.
2.3.2. Wykrywanie nowych materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych
Rozwiązania technologiczne stosowane obecnie do wykrywania nowych materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych obejmują klasyfikatory i sztuczną inteligencję (AI) – służą one do analizowania zdjęć i filmów w celu wykrycia wzorców wygenerowanych na podstawie wcześniej zidentyfikowanych materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych. Klasyfikator to algorytm służący do sortowania danych na określone klasy lub kategorie informacji za pomocą rozpoznawania wzorców. Klasyfikatory potrzebują danych treningowych, a ich dokładność zwiększa się wraz ze wzrostem ilości udostępnianych im danych.
Narzędzia służące do wykrywania nowych materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych obejmują: (i)
Safer
(Thorn); (ii)
Google Content Safety API
; (iii) technologię AI wykorzystywaną przez Facebooka; (iv)
Amazon Rekognition
; (v)
AI opracowaną przez Hive na potrzeby treści wizualnych
.
Badania wykazały, że korzystanie ze zautomatyzowanych narzędzi i systemów takich jak klasyfikatory jest najskuteczniejszą metodą wykrywania materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych. Jeżeli chodzi o wykrywanie nowych materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych, ich poziom dokładności znacznie przekracza obecnie 90 %. Na przykład Thorn oświadczył, że opracowany przez nie klasyfikator materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych można skonfigurować w taki sposób, by jego poziom dokładności wynosił 99 % (zarówno w odniesieniu do znanych, jak i w odniesieniu do nowych materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych), co przekłada się na odsetek wyników fałszywie dodatnich na poziomie 0,1 %. Parametry te będą się prawdopodobnie poprawiać wraz ze wzrostem stopnia wykorzystywania stosownych narzędzi i w miarę przekazywania informacji zwrotnych.
2.3.3. Wykrywanie nagabywania dzieci dla celów seksualnych
Narzędzia wykorzystywane do wykrywania przypadków nagabywania dzieci dla celów seksualnych (nagabywanie dzieci) w komunikacji tekstowej opierają się na technologiach służących wyłącznie do wykrywania wzorców wskazujących na możliwość wystąpienia konkretnych elementów pozwalających na powzięcie podejrzenia, że w danym przypadku może dochodzić do niegodziwego traktowania dzieci w celach seksualnych, bez możliwości odczytania treści wymienianych wiadomości. Technika ta jest wykorzystywana w odniesieniu do rozmów prowadzonych za pośrednictwem chatów tekstowych. Rozmowy ocenia się na podstawie szeregu czynników i przyporządkowuje się im ogólny wskaźnik prawdopodobieństwa wskazujący szacunkowe prawdopodobieństwo, że dana rozmowa może stanowić przejaw nagabywania dzieci dla celów seksualnych. Wspomniane wskaźniki pełnią funkcję wyznaczników, na podstawie których poszczególne przedsiębiorstwa oznaczają rozmowy wymagające dodatkowej weryfikacji przez człowieka.
Narzędzia wykorzystywane do monitorowania wiadomości tekstowych obejmują: (i)
Project Artemis opracowany przez Microsoft
; (ii)
Amazon Rekognition
; (iii) technologię
Spirit AI
stosowaną na platformie Twitch (opierającą się na przetwarzaniu języka naturalnego i klasyfikatorach tekstu); (iv) wewnętrzny klasyfikator „rankingowy” bazujący na uczeniu maszynowym opracowany przez Meta na użytek własny (łączący technologię wewnętrznej analizy językowej z metadanymi); (v) technologia filtrowania chatu na platformie
Roblox
; (vi) rozwiązanie techniczne bazujące na uczeniu maszynowym i klasyfikatorach opracowane przez Thorn i Tech Coalition.
Podobnie jak w przypadku rozwiązań służących do identyfikowania nowych materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych identyfikowanie treści wiążących się z nagabywaniem dzieci dla celów seksualnych wymaga wytrenowania stosownej technologii poprzez udostępnienie jej tego rodzaju treści. Dostęp do takich danych treningowych pozostaje największym wyzwaniem utrudniającym rozwój i udoskonalanie tych technologii.
Thorn, we współpracy z Tech Coalition i jej członkami, uruchomił nową inicjatywę mającą na celu opracowanie rozwiązania technicznego zapewniającego możliwość identyfikowania prób nagabywania dzieci dla celów seksualnych przez internet i reagowania na te próby, które będzie przydatne dla szeregu platform oferujących usługi komunikacji tekstowej i możliwe do zastosowania na tych platformach. Rozwiązanie to będzie opierało się na wynikach prac zespołu Thorn nad klasyfikatorem przetwarzania języka naturalnego bądź modelem uczenia maszynowego umożliwiającym wykrywanie i kategoryzowanie treści lub zachowań w internecie, które można przyporządkować do określonych „klas” związanych z nagabywaniem dzieci dla celów seksualnych (np. udostępnianie materiałów o charakterze seksualnym lub dążenie do zorganizowania osobistego spotkania z osobą małoletnią), a także przyporządkowywanie poszczególnym rozmowom ogólnego wskaźnika określającego, w jakim stopniu można uznać je za nagabywanie dzieci dla celów seksualnych.
2.3.4. Nowe wyzwania związane z chatbotami i generatorami dzieł sztuki/obrazów bazującymi na sztucznej inteligencji
Opracowanie i powszechne udostępnienie chatbotów bazujących na AI takich jak
ChatGPT
(dużego modelu językowego (LLM) opracowanego przez
OpenAI
) oraz generatorów dzieł sztuki/obrazów takich jak
DALL-E
i
Midjourney
spotkało się z dużym zainteresowaniem opinii publicznej, głównie z uwagi na fakt, że rozwiązania te są w stanie szybko udzielić gotowych do wykorzystania odpowiedzi na zadawane im pytania lub tworzyć realistyczne obrazy, które można wykorzystywać w bardzo wielu różnych kontekstach. Te nowe narzędzia szybko zdobyły powszechną popularność i zaczęły być stosowane na szeroką skalę. Wiodące produkty są finansowane i opracowywane przez przedsiębiorstwa technologiczne, m.in. Microsoft i Google, nowe technologie są usprawniane, a udoskonalone wersje tych narzędzi są regularnie udostępniane.
Choć tego rodzaju technologie oferują ogromne możliwości zarówno przedsiębiorstwom, jak i obywatelom, mogą również stanowić dla nich zagrożenie. Obawy związane z takimi produktami dotyczą m.in. sposobów, w jakie przestępcy mogą chcieć je wykorzystywać do swoich niecnych celów, w tym do wykorzystywania seksualnego dzieci.
Z informacji przekazanych przez Europol wynika, że choć wszystkie informacje przekazywane przez ChatGPT są swobodnie dostępne w internecie, narzędzie to znacznie ułatwia podmiotom działającym w złym zamiarze „zdobycie wiedzy na temat szerokiego spektrum potencjalnych obszarów przestępczości bez ich uprzedniej znajomości, począwszy od tego, w jaki sposób włamać się do domu, przez działalność terrorystyczną i cyberprzestępczość, a skończywszy na niegodziwym traktowaniu dzieci w celach seksualnych”. Dzięki temu osoby te są w stanie lepiej zrozumieć specyfikę tego rodzaju przestępstw, a co za tym idzie – sprawniej je popełniać.
Zasady wprowadzone przez OpenAI ograniczają zdolność ChatGPT do odpowiadania na pytania dotyczące treści o charakterze seksualnym, nienawistnym i związanym z przemocą lub treści propagujących samookaleczanie się. Zabezpieczenia te można jednak stosunkowo łatwo obejść przy wykorzystaniu inżynierii podpowiedzi. Odnotowywane niedawno przypadki zastosowania chatbotów AI (np. przez Snapchat) pokazują, w jaki sposób tego rodzaju narzędzia mogą przekroczyć granicę, wdając się w obraźliwe lub niebezpieczne interakcje, w tym interakcje dotyczące niegodziwego traktowania dzieci w celach seksualnych.Ponieważ coraz większa liczba przedsiębiorstw rozważa obecnie rozpoczęcie testów z wykorzystaniem chatbotów AI na swoich platformach (Instagram, potencjalnie WhatsApp i Messenger), należy dokładnie ocenić wpływ tych narzędzi na użytkowników, w szczególności dzieci i młodzież.
Te nowe narzędzia wymagają również wprowadzenia odpowiednich zabezpieczeń, aby uniemożliwić ich nadużywanie do tworzenia wygenerowanych przez AI materiałów deepfake przedstawiających niegodziwe traktowanie dzieci w celach seksualnych. Zważywszy na tempo rozwoju narzędzi AI, istnieje duże prawdopodobieństwo, że generowanie zdjęć niemożliwych do odróżnienia od prawdziwych zdjęć stanie się znacznie łatwiejsze. Sytuacja ta stwarza szereg istotnych wyzwań w kontekście zwalczania niegodziwego traktowania dzieci w celach seksualnych, ponieważ zdolność organów ścigania do prowadzenia postępowań przygotowawczych i ścigania sprawców w sprawach dotyczących materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych może zostać poważnie ograniczona w przypadku upowszechnienia się wysoce realistycznych, wygenerowanych komputerowo materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych w internecie.
Badania wykazały, że uzyskiwanie dostępu do materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych stanowi niejednokrotnie pierwszy krok prowadzący do późniejszego dopuszczania się takiego niegodziwego traktowania w rzeczywistości, niezależnie od tego, czy dany materiał przedstawia rzeczywisty, czy też realistycznie przedstawiony przypadek niegodziwego traktowania. Ograniczenie rozpowszechniania generowanych przez AI materiałów deepfake przedstawiających niegodziwe traktowanie dzieci w celach seksualnych ma zatem kluczowe znaczenie jako forma prewencji po stronie sprawców. Inna poważna obawa jest związana z faktem, że osoby nagabujące dzieci dla celów seksualnych mogą korzystać z zaawansowanych funkcji generowania tekstu oferowanych przez ChatGPT w połączeniu z istniejącymi bezpłatnymi narzędziami AI zamieniającymi tekst w obraz do szybkiego i łatwego generowania treści na fałszywe profile oraz do prowadzenia wiarygodnych konwersacji z osobami młodymi, aby nagabywać dzieci w internecie. „Choć ChatGPT sam w sobie nie będzie zachęcał użytkowników do stania się osobami nagabującymi dzieci dla celów seksualnych przez internet, zapewnia każdemu, kto prowadzi rozmowy z dziećmi online, możliwość przetworzenia treści tych rozmów przez technologię AI w taki sposób, aby stać się bardziej przekonującym i wiarygodnym w oczach swoich ofiar, ułatwiając tym samym manipulowanie nimi”. Generatywna AI mogłaby potencjalnie przyczynić się do zwiększenia liczby przypadków nagabywania dzieci dla celów seksualnych przez internet, a nawet do „zautomatyzowania procesu nagabywania dzieci dla celów seksualnych na dużą skalę”.
3.WNIOSKI
Środki wykonawcze wdrożone przez dostawców
Ze sprawozdań przekazywanych przez dostawców wynika, że podejmowali oni działania w zakresie wykrywania i zgłaszania niegodziwego traktowania dzieci w celach seksualnych w internecie zgodnie z rozporządzeniem tymczasowym przy wykorzystaniu różnego rodzaju technologii i procesów wykrywania. Wszyscy dostawcy poinformowali, że przekazali NCMEC stosowne sprawozdawania. Jeżeli chodzi o rodzaj i ilość danych osobowych przetwarzanych przez dostawców, ze sprawozdań wynika, że dostawcy gromadzą szeroką gamę danych o ruchu i przetwarzają dane o różnym poziomie szczegółowości, co uniemożliwia Komisji uzyskanie jednolitych danych dotyczących dostawców w omawianym okresie sprawozdawczym (od lipca 2021 r. do 31 stycznia 2023 r.) na szczeblu unijnym.
Dostawcy nie przekazali informacji na temat liczby i współczynników błędów (wyniki fałszywie dodatnie) dotyczących poszczególnych wykorzystywanych technologii, wskazując, że na potrzeby wykrywania niegodziwego traktowania dzieci w celach seksualnych w internecie stosują podejście warstwowe uzupełniane weryfikacją przez człowieka. Jednocześnie dostawcy wprowadzili szerokie spektrum środków i zabezpieczeń w celu ograniczenia i zmniejszenia poziomu błędu w wykrywaniu przypadków niegodziwego traktowania dzieci w celach seksualnych w internecie. Co więcej, dostawcy poinformowali o ustanowieniu polityki w zakresie zatrzymywania danych oraz zabezpieczeń służących ochronie danych określonych w ich polityce prywatności lub oświadczeniach o ochronie prywatności oraz o korzystaniu z zabezpieczeń i środków ochrony danych typowych dla tej branży.
Środki wykonawcze wdrożone przez państwa członkowskie
W rozporządzeniu tymczasowym (na podstawie jego art. 8) na państwa członkowskie nałożono również obowiązek przekazywania kluczowych danych statystycznych dotyczących przypadków niegodziwego traktowania dzieci w celach seksualnych w internecie wykrytych i zgłoszonych ich organom ścigania, liczby zidentyfikowanych dzieci będących ofiarami oraz liczby skazanych sprawców. Ponieważ państwa członkowskie przeważnie przekazywały dane dotyczące różnych okresów sprawozdawczych, obliczenie łącznej liczby zgłoszeń dotyczących wykrytych przypadków niegodziwego traktowania dzieci w celach seksualnych w internecie otrzymanych na szczeblu UE na podstawie otrzymanych danych nie było możliwe. Dane o zgłoszeniach otrzymanych i przekazanych przez państwa członkowskie mogą ponadto różnić się od zgłoszeń dających podstawę do podjęcia określonych działań, tj. od zgłoszeń, które mogą doprowadzić do wszczęcia postępowania przygotowawczego, lub mogą nie odpowiadać łącznej liczbie zgłoszonych przypadków. Zaledwie kilka państw członkowskich wskazało rodzaj dostawców świadczących usługi, w ramach których wykryto niegodziwe traktowanie dzieci w celach seksualnych w internecie. W niektórych przypadkach w krajowych danych statystycznych nie dokonuje się rozróżnienia między przestępstwami, w odniesieniu do których postępowanie przygotowawcze wszczęto na podstawie zgłoszenia dokonanego przez dostawców i inne organizacje działające w interesie publicznym przeciwko niegodziwemu traktowaniu dzieci w celach seksualnych, a przestępstwami, w odniesieniu do których postępowanie przygotowawcze wszczęto na podstawie innego zgłoszenia.
Podobnie na podstawie otrzymanych sprawozdań nie można było ustalić łącznej liczby dzieci zidentyfikowanych jako ofiary niegodziwego traktowania dzieci w celach seksualnych w internecie w UE z rozróżnieniem na płeć. Było to spowodowane m.in.: zgłaszaniem danych dotyczących różnych okresów; stosowaniem różnych granic wieku w celu ustalenia, czy dana osoba jest ofiarą niegodziwego traktowania dzieci w celach seksualnych w internecie; niegromadzeniem danych statystycznych o takim poziomie szczegółowości na szczeblu krajowym z uwagi na ograniczenia techniczne lub innego rodzaju ograniczenia; brakiem możliwości dokonania rozróżnienia między ofiarami niegodziwego traktowania dzieci w celach seksualnych w internecie i poza nim itp. W danych statystycznych przekazanych przez niektóre państwa członkowskie uwzględniono również dzieci, które samodzielnie stworzyły tego rodzaju materiały. Co istotniejsze, w danych statystycznych niejednokrotnie nie dokonuje się rozróżnienia między ofiarami zidentyfikowanymi na podstawie zgłoszeń dokonywanych przez dostawców i organizacje działające w interesie publicznym przeciwko niegodziwemu traktowaniu dzieci w celach seksualnych zgodnie z rozporządzeniem a ofiarami zidentyfikowanymi na innej podstawie i w inny sposób.
Obraz sytuacji w kwestii liczby skazanych sprawców również pozostaje niejednolity. W niektórych przypadkach tego rodzaju dane nie są dostępne, ponieważ w bazach danych nie ujmuje się informacji na temat źródła pierwotnego zgłoszenia, a zatem w danych tych nie dokonuje się rozróżnienia między sprawcami skazanymi w następstwie zgłoszeń dokonanych zgodnie z rozporządzeniem a sprawcami skazanymi w następstwie innych zgłoszeń. W niektórych przypadkach w danych przechowywanych w krajowych systemach IT nie dokonuje się również rozróżnienia między przestępstwami popełnianymi w internecie i poza nim. Co więcej, dane statystyczne dotyczące wyroków skazujących przekazane za dany okres niekoniecznie muszą być powiązane ze zgłoszeniami otrzymanymi w tym okresie, ale mogą odnosić się do zgłoszeń z wcześniejszych okresów. Gromadzone dane statystyczne dotyczące liczby wyroków skazujących mogą również nie pokrywać się z danymi dotyczącymi liczby skazanych sprawców (ponieważ w odniesieniu do jednego sprawcy wydanych mogło zostać kilka wyroków skazujących).
Niejednolity charakter danych statystycznych przekazanych przez państwa członkowskie, które nie zawsze gromadzą dane w systematyczny i prawidłowy sposób, a także wszystkie wymienione powyżej czynniki uniemożliwiają zatem uzyskanie kompleksowego oglądu sytuacji w kwestii otrzymanych sprawozdań dotyczących niegodziwego traktowania dzieci w celach seksualnych w internecie, liczby dzieci zidentyfikowanych jako ofiary tego rodzaju przestępstwa ani liczby skazanych sprawców na szczeblu UE zgodnie z rozporządzeniem. Fakt, że w przypadku większości państw członkowskich można odnotować znaczącą rozbieżność między liczbą zgłoszeń, które NCMEC odnotowuje jako przekazane państwu członkowskiemu, a liczbą zgłoszeń, które to państwo członkowskie odnotowuje jako otrzymane, sugeruje że mechanizm gromadzenia i zgłaszania danych nie jest w pełni funkcjonalny. Niektóre państwa członkowskie potwierdziły, że ich właściwe organy są poddawane zmianom strukturalnym lub przechodzą reorganizację w związku z utworzeniem nowych departamentów odpowiedzialnych za prowadzenie postępowań przygotowawczych w sprawach dotyczących niegodziwego traktowania dzieci w celach seksualnych w internecie. W niektórych państwach członkowskich wdrażane są również nowe systemy IT, a organy krajowe zostały poproszone o wprowadzenie zmian w swoich procedurach rejestracji oraz w sposobie gromadzenia danych statystycznych. Działania te powinny stworzyć warunki sprzyjające przekazywaniu przez państwa członkowskie bardziej precyzyjnych danych statystycznych w przyszłości. W każdym razie Komisja będzie korzystała z uprawnień przysługujących jej na mocy Traktatów w celu zagwarantowania wywiązywania się przez państwa członkowskie z obowiązków sprawozdawczych spoczywających na nich zgodnie z rozporządzeniem tymczasowym.
Kwestie ogólne
Ogólnie rzecz biorąc, w niniejszym sprawozdaniu zwrócono uwagę na znaczne rozbieżności, jeżeli chodzi o przekazywanie danych dotyczących zwalczania niegodziwego traktowania dzieci w celach seksualnych w internecie, zgodnie z rozporządzeniem tymczasowym zarówno przez dostawców, jak i przez państwa członkowskie. Większy stopień normalizacji dostępnych danych oraz sposobu ich przekazywania, który można osiągnąć, podejmując działania przewidziane we wniosku dotyczącym rozporządzenia w sprawie zapobiegania niegodziwemu traktowaniu dzieci w celach seksualnych i jego zwalczania, przyczyniłby się do uzyskania przejrzystszego obrazu sytuacji w kwestii istotnych działań na rzecz zwalczania tego rodzaju przestępstw. Wydaje się, że dostawcy i państwa członkowskie muszą dołożyć dodatkowych starań, aby zapewnić gromadzenie i zgłaszanie danych zgodnie z wymogami rozporządzenia tymczasowego.
Z dostępnych danych wynika, że w ramach aktualnie obowiązującego systemu dobrowolnego wykrywania i zgłaszania może dojść do sytuacji, w której materiały automatycznie oznaczone jako potencjalne materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych okażą się – po ich zweryfikowaniu przez człowieka – nie być takimi materiałami. Może to wynikać z braku wspólnego zestawu skrótów i innych wskaźników wykorzystywanych do wykrywania materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych potwierdzonych jako nielegalne w UE lub z różnic w normach prawnych między poszczególnymi jurysdykcjami, w szczególności między UE a Stanami Zjednoczonymi, w szczególności jeżeli chodzi o odpowiednie definicje. Dane świadczą również o istnieniu dużych różnic pod względem liczby wniosków odwoławczych i wskaźnika powodzenia takich wniosków, przy czym trudno wyciągnąć na ich podstawie konkretne wnioski, zważywszy na brak informacji dotyczących w szczególności zakresu wniosków odwoławczych i powodów przywrócenia usuniętych treści.
Jeżeli chodzi o ustanowione w art. 9 ust. 2 wymogi dotyczące warunków przetwarzania, z przekazanych informacji wynika, że wykorzystywane technologie odpowiadają zastosowaniom technologicznym opracowanym wyłącznie z myślą o wykrywaniu i usuwaniu dostępnych w internecie materiałów przedstawiających niegodziwe traktowanie dzieci w celach seksualnych i zgłaszaniu takich materiałów organom ścigania i organizacjom działającym w interesie publicznym przeciwko niegodziwemu traktowaniu dzieci w celach seksualnych. Nie przedstawiono żadnych informacji dotyczących tego, czy technologie te są wdrażane zgodnie z aktualnym stanem wiedzy naukowej i technicznej i w sposób jak najmniej naruszający prywatność, a także czy przeprowadzono uprzednią ocenę skutków dla ochrony danych, o której mowa w art. 35 rozporządzenia (UE) 2016/679, i uprzednie konsultacje, o których mowa w art. 36 tego rozporządzenia.
Jeżeli chodzi o proporcjonalność rozporządzenia, kluczową kwestią pozostaje ustalenie, czy rozporządzenie tymczasowe zapewnia możliwość osiągnięcia poszukiwanej przez prawodawcę Unii równowagi między realizacją leżącego w interesie ogólnym celu polegającego na skutecznym zwalczaniu niezwykle poważnych przestępstw będących przedmiotem tego rozporządzenia i koniecznością zagwarantowania ochrony praw podstawowych dzieci (godności, integralności, zakazu nieludzkiego lub poniżającego traktowania, prawa do życia prywatnego, praw dziecka), z jednej strony, a ochroną praw podstawowych użytkowników stosownych usług (prywatności, ochrony danych osobowych, wolności wypowiedzi, prawa do skutecznego środka zaskarżenia), z drugiej strony. Dostępne dane są niewystarczające do wyciągnięcia wiążących wniosków w tym zakresie. Stosowanie norm liczbowych przy ocenianiu takiej proporcjonalności i opieranie się na liczbie dzieci, które udało się uratować, nie jest możliwe ani nie byłoby właściwe, biorąc pod uwagę negatywny wpływ, jaki niegodziwe traktowanie w celach seksualnych wywiera na życie i prawa dziecka. W świetle powyższego brak jest jednak przesłanek świadczących o tym, że zastosowanie odstępstwa nie jest proporcjonalne.
Pomimo niedociągnięć w dostępnych danych, które uniemożliwiają zapoznanie się ze sposobem wykorzystywania dobrowolnych zgłoszeń w znacznej liczbie państw członkowskich, z dostępnych danych jednoznacznie wynika, że w okresie sprawozdawczym udało się zidentyfikować tysiące dzieci, wydać ponad dwa tysiące wyroków skazujących i usunąć z obiegu miliony zdjęć i filmów, ograniczając tym samym skalę zjawiska wtórnej wiktymizacji. Istnieją zatem podstawy do stwierdzenia, że mechanizm dobrowolnego zgłaszania w istotny sposób wzmocnił ochronę znacznej liczby dzieci, w tym również przed trwającym niegodziwym traktowaniem, i można uznać, że rozporządzenie tymczasowe jest skuteczne.