Brüsszel, 2023.12.19.

COM(2023) 797 final

A BIZOTTSÁG JELENTÉSE AZ EURÓPAI PARLAMENTNEK ÉS A TANÁCSNAK

a 2002/58/EK irányelv bizonyos rendelkezéseitől a technológiáknak a számfüggetlen személyközi hírközlési szolgáltatásokat nyújtó szolgáltatók által a gyermekek online szexuális bántalmazása elleni küzdelem céljából a személyes és egyéb adatok kezelésére történő használata tekintetében való ideiglenes eltérésről szóló, 2021. július 14-i (EU) 2021/1232 európai parlamenti és a tanácsi rendelet végrehajtásáról


TARTALOMJEGYZÉK

KIFEJEZÉSEK ÉS RÖVIDÍTÉSEK JEGYZÉKE    

1.    BEVEZETÉS    

2.    VÉGREHAJTÁSI INTÉZKEDÉSEK    

2.1.    A személyes adatok szolgáltató általi kezelése (a 3. cikk (1) bekezdése g) pontjának vii. alpontja)    

2.1.1.    A feldolgozott adatok típusa és mennyisége    

2.1.2. Az (EU) 2016/679 rendelet szerinti adatkezelés jogalapja    

2.1.3.    Adott esetben a személyes adatok általános adatvédelmi rendelet V. fejezete szerinti, Unión kívülre történő továbbításának jogalapja    

2.1.4.    A gyermekek online szexuális bántalmazásaként azonosított esetek száma, különbséget téve a gyermekek szexuális bántalmazását ábrázoló anyagok és a gyermekekkel való kapcsolatfelvétel között    

2.1.5.    Felhasználói jogorvoslatok és azok eredménye    

2.1.6.    A különböző használt technológiák hibáinak (hamis pozitívok) száma és aránya    

2.1.7.    A hibaarány korlátozására alkalmazott intézkedések és az elért hibaarány    

2.1.8.    Adatmegőrzési szabályzat és az általános adatvédelmi rendeletnek megfelelően alkalmazott adatvédelmi biztosítékok    

2.1.9.    A gyermekek szexuális bántalmazása ellen közérdekből fellépő azon szervezetek neve, amelyekkel e rendelet alapján adatokat osztottak meg.    

2.2.    Tagállami statisztikák (8. cikk)    

2.2.1. A gyermekek online szexuális bántalmazásának felderített eseteiről tett bejelentések teljes száma    

2.2.2. Azonosított gyermekek száma    

2.2.3. Az elítélt elkövetők száma    

2.3.    A technológiai fejlődéssel kapcsolatos fejlemények    

2.3.1. A gyermekek szexuális bántalmazását ábrázoló „ismert” anyagok felderítése    

2.3.2. A gyermekek szexuális bántalmazását ábrázoló „új” anyagok felderítése    

2.3.3. A gyermekcsábítás felderítése    

2.3.4. A mesterséges intelligencián alapuló csevegőrobotok és művészeti/képgenerátorok által felvetett új kihívások    

3.    KÖVETKEZTETÉSEK    

KIFEJEZÉSEK ÉS RÖVIDÍTÉSEK JEGYZÉKE

Kifejezés/rövidítés

Meghatározás

MI

Mesterséges intelligencia

API

Alkalmazásprogramozási felület

CG-CSAM

Számítógéppel előállított, gyermekek szexuális bántalmazását ábrázoló anyagok

ChatGPT

A ChatGPT (Chat Generative Pre-trained Transformer) a generatív mesterséges intelligencia egy formája. Az OpenAI által kifejlesztett, nagy nyelvi modellen alapuló csevegőrobot (chatbot), amely lehetővé teszi a felhasználók számára, hogy finomítsák a beszélgetést és azt a kívánt hossz, formátum, stílus, részletesség és nyelvezet felé tereljék.

Osztályozó

A mesterséges intelligencia egy formája, egy olyan algoritmus, amely az adatokat címkézett osztályokba vagy kategóriákba sorolja

Tartalombiztonsági API-osztályozó

A Google tartalombiztonsági API-osztályozója programozott hozzáférés és mesterséges intelligencia használatával segít az átvizsgálandó képek milliárdjainak osztályozásában és rangsorolásában

CSA

Gyermekek szexuális bántalmazása

CSAI Match

A CSAI Match a YouTube mérnökei által azzal a céllal kifejlesztett technológia, hogy kiszűrje a korábban már azonosított, gyermekek szexuális bántalmazását ábrázoló videók ismételt feltöltését

CSAM

Gyermekek szexuális bántalmazását ábrázoló anyagok, pl. gyermekek szexuális bántalmazását ábrázoló képek és videók

A gyermekek szexuális bántalmazásáról szóló irányelv

Az Európai Parlament és a Tanács 2011/93/EU irányelve (2011. december 13.) a gyermekek szexuális bántalmazása, szexuális kizsákmányolása és a gyermekpornográfia elleni küzdelemről, valamint a 2004/68/IB tanácsi kerethatározat felváltásáról (HL L 335., 2011.12.17., 1. o.)

CSEA

Gyermekek szexuális kizsákmányolása és bántalmazása

CSA online

A gyermekek szexuális bántalmazásának a gyermekek szexuális bántalmazásáról szóló irányelvben meghatározott következő három típusára használt közös kifejezés: gyermekpornográfia, pornográf előadás és a gyermekkel való kapcsolatfelvétel (gyermekcsábítás), az ideiglenes rendeletben (2. cikk 4. pontja) meghatározottak szerint

EU

Európai Unió

Általános adatvédelmi rendelet

Az Európai Parlament és a Tanács (EU) 2016/679 rendelete (2016. április 27.) a természetes személyeknek a személyes adatok kezelése tekintetében történő védelméről és az ilyen adatok szabad áramlásáról, valamint a 95/46/EK irányelv hatályon kívül helyezéséről (általános adatvédelmi rendelet) (HL L 119., 2016.5.4., 1. o.) 

Gyermekcsábítás

Az elkövetők bizalmi kapcsolatot építenek ki a gyermekkel annak érdekében, hogy szexuális kizsákmányolás vagy bántalmazás céljából eljussanak a kiskorúhoz. A gyermekek szexuális bántalmazásáról szóló irányelv 6. cikkében meghatározott hivatalos megnevezése: gyermekkel való kapcsolatfelvétel

Digitális lenyomat

Matematikai algoritmus által létrehozott egyedi digitális kód („hasítás”); ez lesz a fájl aláírása vagy hash-értéke

Ideiglenes rendelet

Az Európai Parlament és a Tanács (EU) 2021/1232 rendelete (2021. július 14.) a 2002/58/EK irányelv bizonyos rendelkezéseitől a technológiáknak a számfüggetlen személyközi hírközlési szolgáltatásokat nyújtó szolgáltatók által a gyermekek online szexuális bántalmazása elleni küzdelem céljából a személyes és egyéb adatok kezelésére történő használata tekintetében való ideiglenes eltérésről (HL L 274., 2021.7.30., 41. o.)

LLM

A nagy nyelvi modell egy olyan, mesterséges intelligencián alapuló modell, amelyet mélytanulási algoritmusok segítségével tanítottak be írott emberi nyelv és nagy mennyiségű szöveges adat felismerésére, előállítására, lefordítására és/vagy összefoglalására.

MD5

Internetes üzenethitelesítési kódhoz használt kriptográfiai algoritmus

Meta SSN++

A Meta által kifejlesztett olyan mesterségesintelligencia-modell, amely képes észlelni a közel azonos duplikációkat.

NCMEC

National Centre for Missing and Exploited Children: az Egyesült Államok eltűnt és kizsákmányolt gyermekekkel foglalkozó nemzeti központja (egy amerikai nonprofit magánszervezet), amelynek az online szolgáltatók az amerikai törvények értelmében kötelesek bejelenteni a gyermekek szexuális bántalmazásának hálózatukban feltárt lehetséges eseteit

PDQ és TMK+PDQF

A Facebook által a káros tartalmak felderítésére használt eszközök. A PDQ egy fényképek megfeleltetésére szolgáló technológia; a TMK+PDQF pedig egy videófelvételek megfeleltetésére szolgáló technológia.

PhotoDNA

A legszélesebb körben használt, ingyenesen rendelkezésre álló, hasítási technológián alapuló eszköz, amely a bántalmazás és a gyermekek szexuális bántalmazásának felderítésétől eltérő célokra való felhasználás elkerülése érdekében kötött licenciaszerződésen alapul.

1.BEVEZETÉS

Az ideiglenes rendelet (a továbbiakban: rendelet) 9. cikke értelmében a Bizottság a személyközi hírközlési szolgáltatásokat nyújtó szolgáltatók (a továbbiakban: szolgáltatók) által a személyes adatok kezelésével kapcsolatban benyújtott jelentések és a tagállamok által szolgáltatott statisztikák alapján köteles jelentést készíteni e rendelet végrehajtásáról. A fent említett rendelkezés értelmében a végrehajtási jelentésben a Bizottság különösen a következőket veszi figyelembe:

a) a személyes adatok és egyéb adatok kezelésére vonatkozóan a rendeletben meghatározott feltételek;

b) a rendeletben előírt eltérés arányossága, beleértve a tagállamok által a 8. cikk szerint benyújtott statisztikák értékelését;

c) a rendelet hatálya alá tartozó tevékenységeket érintő technológiai előrelépésbeli fejlemények, valamint az, hogy az ilyen fejlemények milyen mértékben javítják a pontosságot és csökkentik a hibák (hamis pozitívok) számát és arányát.

Ezen ideiglenes rendelet értelmében vett végrehajtási jelentés a szolgáltatók és a tagállamok által a rendelet 3. cikke (1) bekezdése g) pontja vii. alpontjának, illetve 8. cikkének megfelelően benyújtott jelentésekből nyert adatokon alapul. Az ilyen jelentéstételek során jelentős eltéréseket tártak fel az adatok rendelkezésre állása, az összegyűjtött adatok típusa, és ennélfogva a szolgáltatók és a tagállamok által gyűjtött adatok összehasonlíthatósága tekintetében is. Mivel a rendelet nem biztosít sablont a jelentéstételhez, a szolgáltatók különböző típusú információkat osztottak meg, amelyek nem feltétlenül voltak összehasonlíthatóak; a Bizottság szolgálatai ezért nyomon követést végeztek az adatok helyes értelmezésének biztosítása érdekében. A tagállamok többsége nem tudott időben adatokat szolgáltatni, és néhányuk e jelentés közzétételéig sem tudott semmilyen adattal szolgálni. Ez jelentős hatással volt a jelentés időzítésére, teljességére és hasznosságára. Az adatok koherenciájának és összehasonlíthatóságának biztosítására tett erőfeszítések ellenére továbbra is jelentős eltérések tapasztalhatók, amelyeket az alábbi táblázatok is tükröznek, amelyek nem tartalmaznak minden pont tekintetében az összes szolgáltatóra vagy tagállamra vonatkozó adatokat.

E végrehajtási jelentés célja, hogy a rendelkezésre álló adatok alapján tényszerű áttekintést nyújtson az ideiglenes rendelet végrehajtásával kapcsolatos jelenlegi helyzetről. A jelentés nem foglalkozik a rendelet értelmezésével, és nem foglal állást a rendelet gyakorlati értelmezésének és alkalmazásának módjáról.



2.VÉGREHAJTÁSI INTÉZKEDÉSEK

2.1.A személyes adatok szolgáltató általi kezelése (a 3. cikk (1) bekezdése g) pontjának vii. alpontja)

Az ideiglenes rendelet 3. cikke (1) bekezdése g) pontjának vii. alpontja meghatározza az abban foglalt eltérés alapján eljáró szolgáltatókra vonatkozó feltételeket, miszerint 2022. február 3-ig, majd azt követően minden év január 31-ig jelentést tesznek közzé és nyújtanak be a felügyeleti hatóságnak és a Bizottságnak az e rendelet hatálya alá tartozó személyesadat-kezelésről. A Google, a LinkedIn, a Meta, a Microsoft és az X (korábban Twitter) 1 2021-re és 2022-re vonatkozóan nyújtott be jelentést.

2.1.1.A feldolgozott adatok típusa és mennyisége

A szolgáltatók tartalmi és forgalmi adatok kezeléséről egyaránt beszámoltak.

Ami a gyermekek online szexuális bántalmazásának felderítése céljából kezelt tartalmi adatokat illeti, a fent említett szolgáltatók mindegyike tett említést képekről és videókról. A legtöbbször a digitális lenyomat megfeleltetésére szolgáló PhotoDNA és MD5 technológiára támaszkodtak a korábban azonosított, a gyermekek szexuális bántalmazását ábrázoló anyagok egyezéseinek felderítéséhez. A Google CSAI Match eszközét arra használták, hogy létrehozzák a platformokon található videók digitális lenyomatát, és azokat összehasonlítsák a Google/YouTube lenyomat-nyilvántartásában található fájlokkal (LinkedIn). Automatizált technológia (mesterséges intelligencián alapuló gépi tanulás) és emberi felülvizsgálat alkalmazásáról egyaránt beszámoltak (pl. Google). A Google és a LinkedIn megerősítette, hogy olyan, gyermekek szexuális bántalmazását ábrázoló anyagokat is azonosítottak, amelyek nem egyeztek a korábban azonosított, gyermekek szexuális bántalmazását ábrázoló anyagokkal. Az adatokat benyújtó öt szolgáltató közül egyik sem szolgáltatott adatokat az e rendelet által biztosított eltérés hatálya alá tartozó, a gyermekkel való kapcsolatfelvétel szövegfelismerésen keresztüli felderítéséről.

A gyűjtött forgalmi adatokat és a különböző típusú kezelt tartalmi és forgalmi adatok mennyiségét illetően a szolgáltatók jelentései jelentős eltéréseket mutattak.

A szolgáltatók által gyűjtött és az Egyesült Államok eltűnt és kizsákmányolt gyermekekkel foglalkozó nemzeti központja (a továbbiakban: NCMEC) részére benyújtott CyberTipline-jelentésekben szereplő forgalmi adatok a következő adatokat (az összes vagy néhány kiválasztott adatot) tartalmazzák:

a)felhasználóhoz/bejelentőhöz/fiókhoz kapcsolódó adatok (Google, LinkedIn, Microsoft, X);

b)tartalmi/tranzakciós adatokhoz kapcsolódó metaadatok (Google, LinkedIn, Microsoft);

c)a lehetséges áldozatra vonatkozó adatok (Google);

d)a bántalmazással kapcsolatos cselekményekre vonatkozó adatok (Google).

Ami az ideiglenes rendelet alapján kezelt adatok mennyiségét illeti, a LinkedIn arról számolt be, hogy 2021. július 14. és december 31. között 8 millió, Unióból származó képet és videót, 2022-ben pedig 21 millió, illetve 63 000, Unióból származó képet és videót kezelt. A Microsoft beszámolói szerint a rendelet alkalmazásában 2021 júliusa és decembere között 8,9 milliárd képet és videót, 2022-ben pedig 12,3 milliárd tartalmi elemet kezelt világszerte; uniós adatok nem álltak rendelkezésre, ezért e jelentés szempontjából nem lehet következtetéseket levonni. A többi szolgáltató nem szolgált információkkal a kezelt adatok mennyiségéről. A jelentést benyújtó öt szolgáltató közül tehát csak egy szolgáltatott kellő részletességű adatokat.

Az általános összefüggéseket szemléltetendő az NCMEC arról számolt be, hogy 2022-ben globálisan összesen 87,2 millió képet és videót, az EU tekintetében pedig 5,1 millió képet és videót, illetve 2021-ben globálisan 84,8 millió képet és videót, az EU tekintetében pedig 1,8 millió képet és videót kapott. Ezek csak azok az anyagok, amelyeket valamely szolgáltató gyermekek szexuális bántalmazását ábrázoló potenciális anyagként azonosított, ezért ezek az adatok nem tekinthetők az ideiglenes rendelet alapján kezelt adatok teljes mennyiségére vonatkozó mutatószámnak.

2.1.2. Az (EU) 2016/679 rendelet szerinti adatkezelés jogalapja

A szolgáltatók jelentésük során az (EU) 2016/679 rendelet (a továbbiakban: általános adatvédelmi rendelet) szerinti következő konkrét jogalapokra támaszkodtak:

·Az általános adatvédelmi rendelet 6. cikke (1) bekezdésének d) pontja, azaz az adatkezelés a gyermek és a gyermekek online szexuális bántalmazása áldozatai létfontosságú érdekeinek védelme miatt szükséges (Google, Meta, X 2 ).

·Az általános adatvédelmi rendelet 6. cikke (1) bekezdésének e) pontja, azaz az adatkezelés közérdekű feladat végrehajtásához szükséges (LinkedIn, Microsoft, Meta, X 3 ).

·Az általános adatvédelmi rendelet 6. cikke (1) bekezdésének f) pontja, azaz az adatkezelés a következő felek alábbiakban meghatározott jogos érdekeinek érvényesítéséhez szükséges:

I.a szolgáltató, hogy a szolgáltatásai esetében felderítse, megelőzze vagy más módon kezelje a gyermekek online szexuális bántalmazását, valamint megvédje a többi felhasználót, ügyfelet, partnert és a nyilvánosságot az illegális tartalom e formájától (Google, Meta);

II.a gyermekek szexuális bántalmazásának áldozatai és az a szervezet, amelynek a szolgáltató a gyermekek online szexuális bántalmazását bejelenti (pl. NCMEC), hogy a szolgáltatásai esetében felderítse, megelőzze és eltávolítsa a gyermekek online szexuális bántalmazását (Google).

2.1.3.Adott esetben a személyes adatok általános adatvédelmi rendelet V. fejezete szerinti, Unión kívülre történő továbbításának jogalapja

Valamennyi szolgáltató arról számolt be, hogy a Bizottság által az általános adatvédelmi rendelet 46. cikke (2) bekezdésének c) pontja alapján jóváhagyott általános szerződési feltételekre támaszkodik. Ami a személyes adatok NCMEC részére történő továbbítását illeti, a LinkedIn arról is beszámolt, hogy az általános adatvédelmi rendelet 49. cikkének (1) bekezdése által megengedett mértékben eltéréssel élt.



2.1.4.A gyermekek online szexuális bántalmazásaként azonosított esetek száma, különbséget téve a gyermekek szexuális bántalmazását ábrázoló anyagok és a gyermekekkel való kapcsolatfelvétel között

1. táblázat: A gyermekek online szexuális bántalmazásaként azonosított esetek száma 2021-ben

Szolgáltató

A gyermekek szexuális bántalmazását ábrázoló anyagokkal kapcsolatban azonosított esetek száma 2021-ben

Megjegyzések

Google

33 Google Chat fiók

Ez az uniós felhasználók azon Google Chat fiókjainak számát jelenti, amelyek esetében a 2021. augusztus 2. és 2021. december 31. közötti időszakban automatizált technológiák segítségével gyermekek online szexuális bántalmazásával kapcsolatos eseteket azonosítottak. Az azonosított tartalmi elemek számáról nem szolgáltattak adatokat.

LinkedIn

31 tartalmi elem

Manuális felülvizsgálat útján 31 tartalmi elem tekintetében megerősítették, hogy azok gyermekek szexuális bántalmazását ábrázoló anyagnak minősülnek, és ezeket jelentették az NCMEC-nek; 6 esetben a gyermekek szexuális bántalmazását ábrázoló ismert anyagokról, a fennmaradó 25 esetben pedig a gyermekek szexuális bántalmazását ábrázoló ismeretlen anyagokról volt szó.

Meta

340 000 fiók

Azon fiókok száma, amelyekről kiderült, hogy legalább egy, gyermekek szexuális bántalmazását ábrázoló anyagnak minősülő médiatartalmat küldtek olyan üzenetfolyamokon belül, amelyekben 2021. november 8. és 2021. december 31. között uniós felhasználó is részt vett.

Microsoft

6 600 tartalmi elem

A 2021 júliusa és decembere között világszerte azonosított több mint 20 000 tartalmi elem közül 6600 olyan tartalmi elemet (egyetlen kép vagy videó) találtak, amely esetében megerősítést nyert, hogy az Európai Unióból származó, gyermekek szexuális bántalmazását ábrázoló anyagnak minősül.

X (korábban Twitter)

532 898 fiók

2021. augusztus 2. és 2021. december 31. között az X gyermekek szexuális kizsákmányolására vonatkozó szabályainak megsértése miatt felfüggesztett fiókok (nem egyértelmű, hogy csak uniós szinten vagy világszerte).

Az X esetében a megadott adatokból nem derül ki egyértelműen, hogy az kizárólag az ideiglenes rendelet hatálya alá tartozó szolgáltatásokra (számfüggetlen személyközi hírközlési szolgáltatásokra) vonatkozik-e, vagy ez a számadat más szolgáltatásokat (például információs társadalommal összefüggő szolgáltatásokat) is magában foglal. E jelentésben ez az X-re vonatkozó összes adatra vonatkozik.

2. táblázat: A gyermekek online szexuális bántalmazásaként azonosított esetek száma 2022-ben

Szolgáltató

A gyermekek szexuális bántalmazását ábrázoló anyagokkal kapcsolatban azonosított esetek száma 2022-ben

Megjegyzések

Google

2 045 tartalmi elem

Az uniós felhasználók tekintetében 752 Google-fiók esetében automatizált technológiák segítségével azonosított és az NCMEC-nek jelentett tartalmi elemek.

LinkedIn

2 tartalmi elem

A LinkedIn 2 olyan képet és 0 olyan videót észlelt, amely megerősítetten gyermekek szexuális bántalmazását ábrázoló anyagnak minősült.

Meta

6,6 millió tartalmi elem

A Meta médiamegfelelési technológiája segítségével felderített, gyermekek szexuális bántalmazását ábrázoló anyagnak minősülő médiatartalmak olyan üzenetfolyamokban,

amelyekben uniós felhasználó is részt vett.

Microsoft

12 800 tartalmi elem

A 2022-ben világszerte azonosított több mint 50 000 tartalmi elemből 12 800 tartalmi elem (egyetlen kép vagy videó) esetében nyert megerősítést, hogy Unióból származó, gyermekek szexuális bántalmazását ábrázoló anyagnak minősül.

X (korábban Twitter)

2 348 712 fiók

Az X gyermekek szexuális kizsákmányolására vonatkozó szabályainak megsértése miatt felfüggesztett fiókok (nem egyértelmű, hogy csak uniós szinten vagy világszerte).

2.1.5.Felhasználói jogorvoslatok és azok eredménye 

Az ideiglenes rendelet 3. cikke (1) bekezdése g) pontjának iv. alpontjával összhangban a szolgáltatóknak megfelelő eljárásokat és jogorvoslati mechanizmusokat kell létrehozniuk annak biztosítása érdekében, hogy a felhasználók panaszt nyújthassanak be hozzájuk. Ezenfelül az 5. cikk bírósági jogorvoslatra vonatkozó szabályokat tartalmaz.

A szolgáltatók arról számoltak be, hogy ilyen belső jogorvoslati eljárásokat és mechanizmusokat vezettek be azon felhasználók számára, akiknek a fiókját gyermekek szexuális bántalmazását ábrázoló anyagok megosztása miatt korlátozták és/vagy gyermekek szexuális bántalmazását ábrázoló anyagnak minősülő tartalmukat eltávolították, annak érdekében, hogy fellebbezhessenek a korlátozás/eltávolítás ellen, és hibára hivatkozva ügyük felülvizsgálatát kérjék.

Beszámoltak azon esetek számáról, amikor egy felhasználó az Unión belül a rendelet hatálya alá tartozó ügyek kapcsán panaszt nyújtott be a belső jogorvoslati mechanizmus keretében vagy egy igazságügyi hatóságnál, valamint az ilyen panaszok eredményeiről. A Microsoft kivételével (amely 2021-ben és 2022-ben mindkét csatorna esetében 0 panaszról számolt be) egyetlen szolgáltató sem szolgált külön statisztikákkal a belső jogorvoslattal és a bírósági jogorvoslattal kapcsolatban; ennek következtében az alábbi táblázatok a belső és a bírósági jogorvoslati eljárásokra egyaránt kiterjednek.

3. táblázat: Azon esetek száma, amikor egy felhasználó panaszt nyújtott be a belső jogorvoslati mechanizmus keretében vagy egy igazságügyi hatóságnál, valamint az ilyen panaszok eredményei (2021)

Szolgáltató

Felhasználói panaszok száma

Visszaállított fiókok száma

Visszaállított tartalmak száma

Megjegyzések

Google

8

0

Nincs adat.

A gyermekek online szexuális bántalmazása miatt letiltott olyan Google Chat fiókok száma, amelyek esetében a felhasználó felülvizsgálatot kért: 8. Egyiket sem állították vissza.

LinkedIn

0

Nincs adat.

Nincs adat.

Meta

4 900

Nincs adat.

207

4 900 felhasználó kért felülvizsgálatot. A felülvizsgálati eljárást követően 207 felhasználó tartalmát állították vissza, és vonták vissza a fiókokkal kapcsolatos intézkedéseket.

Microsoft

0

Nincs adat.

Nincs adat.

X (korábban Twitter)

kb. 90 000

kb. 3 000

Nincs adat.

kb. 90 000 felülvizsgálati kérelem. Az X ezek közül kb. 3 000 fiókot állított vissza.

4. táblázat: Azon esetek száma, amikor egy felhasználó panaszt nyújtott be a belső jogorvoslati mechanizmus keretében vagy egy igazságügyi hatóságnál, valamint az ilyen panaszok eredményei (2022)

Szolgáltató

Felhasználói panaszok száma

Visszaállított fiókok száma

Visszaállított tartalmak száma

Megjegyzések

Google

378

0

Nincs adat.

A gyermekek online szexuális bántalmazása miatt letiltott olyan Google fiókok száma, amelyek esetében a felhasználó felülvizsgálatot kért: 378. Egyiket sem állították vissza.

LinkedIn

0

Nincs adat.

Nincs adat.

Meta

29 000

Nincs adat.

3 700

A felhasználók mintegy 29 000 megosztott médiatartalommal kapcsolatban emeltek kifogást a hozott intézkedések miatt. A felülvizsgálati eljárást követően 3 700 tartalmat állították vissza, és vonták vissza a fiókokkal kapcsolatos intézkedéseket.

Microsoft

0

Nincs adat.

Nincs adat.

X (korábban Twitter)

kb. 430 000

kb. 4 000

Nincs adat.

kb. 430 000 felülvizsgálati kérelem. Az X ezek közül kb. 4 000 fiókot állított vissza.

2.1.6.A különböző használt technológiák hibáinak (hamis pozitívok) száma és aránya

Az ideiglenes rendelet 3. cikke (1) bekezdésének e) pontjával összhangban a szolgáltatóknak biztosítaniuk kell, hogy a használt technológiák kellően megbízhatóak legyenek, hogy a lehető legnagyobb mértékben korlátozzák a gyermekek online szexuális bántalmazását ábrázoló tartalmak felderítésével kapcsolatos hibák arányát.

E tekintetben a szolgáltatók arról számoltak be, hogy az egyes technológiákat nem elszigetelten alkalmazzák a gyermekek online szexuális bántalmazásának felderítésére. A pontosság növelése érdekében inkább a különböző felderítési technológiák ötvözésével többszintű megközelítést alkalmaznak a gyermekek online szexuális bántalmazásának felderítésére. A hibák és a hamis pozitívok csökkentése érdekében az összes szolgáltató emberi felülvizsgálattal egészíti ki ezt a módszert. A szolgáltatók az egyes alkalmazott technológiák tekintetében nem adták meg külön-külön a hibák (hamis pozitívok) számát és arányát, hanem az összes alkalmazott technológiára vonatkozóan összesített adatokat szolgáltattak.

A legtöbb szolgáltató a hibák számát és arányát a végrehajtási határozatok visszavonásaként, azaz a felülvizsgálati kérelmekhez kapcsolódó általános visszaállítási/visszavonási arányként méri (pl. a szolgáltató a felhasználó felülvizsgálati kérelme alapján milyen arányban állította vissza a letiltott fiókokat vagy tartalmakat). A szolgáltatók által alkalmazott megközelítés nem feltétlenül tükrözi a „hamis pozitívok” statisztikák esetében használt fogalommeghatározását.

A jelentésekben szereplő, felülvizsgálati kérelmekhez kapcsolódó visszaállítási/visszavonási arány a következőképpen alakult:

5. táblázat: A felülvizsgálati kérelmekhez kapcsolódó visszaállítási/visszavonási arány

2021*

2022

Szolgáltató

A visszaállított fiókok felülvizsgálatok számához viszonyított aránya (%)

A visszaállított és felfüggesztett fiókok aránya (%)

A visszaállított fiókok felülvizsgálatok számához viszonyított aránya (%)

A visszaállított és felfüggesztett fiókok aránya (%)

Megjegyzések

Google

0 % (0/8)

0 % (0/33)

0 % (0/378)

0 %

(lásd a megjegyzéseket)

2022-re nem adták meg a felfüggesztett fiókok számát. Ehelyett az azonosított és az NCMEC-nek bejelentett tartalmak számát adták meg (2045). Felülvizsgálatot követően egyetlen fiókot sem állítottak vissza.

LinkedIn

0 %

0 %

0 %

0 %

Nem nyújtottak be felülvizsgálati kérelmet. A 2021. július 13. és 2021. december 31. közötti időszak kapcsán a LinkedIn arról is beszámolt, hogy az Unióból származó, potenciálisan gyermekek szexuális bántalmazását ábrázoló anyagként felülvizsgált 75 fájlból 31 esetében az emberi felülvizsgálat megerősítette, hogy az gyermekek szexuális bántalmazását ábrázoló anyagnak minősül. A LinkedIn nem szolgáltatott ilyen adatokat a 2022-es évre vonatkozóan.

Meta

4,22 %

(207/4 900)

0,06 %

(207/340 000)

Lásd a megjegyzéseket.

Lásd a megjegyzéseket.

Nem szolgáltak olyan információkkal, amelyek lehetővé tennék a felülvizsgálatok terjedelmének, tartalmának és a visszaállítás indokainak pontos meghatározását.

A 2022-es év tekintetében a szolgáltatott adatok a tartalmakra vonatkoztak, nem pedig a fiókokra:

-a felfüggesztett („megtámadott”) tartalmak száma: 6,6 millió

-a felülvizsgált tartalmak száma: 29 000

-a visszaállított tartalmak száma: 3 700

Tehát:

-a visszaállított tartalmak felülvizsgálatok számához viszonyított aránya (%): 12,8 % (3 700/29 000)

-a visszaállított és felfüggesztett tartalmak aránya (%): 0,06 % (3 700/6,6 millió)

Microsoft

0 %

Nem áll rendelkezésre elegendő adat a felülvizsgálati kérelmekhez kapcsolódó visszaállítási/visszavonási arány kiszámításához. A 2022-es év tekintetében 17 esetben vonták vissza teljesen az eredeti tartalommoderálási határozatot, az összes felülvizsgálati kérelemre vonatkozóan azonban nem áll rendelkezésre adat.

X (korábban Twitter)

1,43 %

(100/7 000)

0,06 %

(100/166 000)

2,17 %

(500/23 000)

0,10 %

(500/501 000)

Ami 2021 második felét illeti, kb. 166 000 felhasználót függesztettek fel gyermekek szexuális bántalmazása miatt automatizált mechanizmusokon keresztül. Közülük kb. 7 000 felhasználó nyújtott be felülvizsgálati kérelmet, ami kb. 100 esetben végződött felülbírálással.

2022-ben 501 000 felhasználót függesztettek fel gyermekek szexuális bántalmazása miatt automatizált mechanizmusokon keresztül. Közülük kb. 23 000 felhasználó nyújtott be felülvizsgálati kérelmet, ami kb. 500 esetben végződött felülbírálással.

* A 2021. évi adatszolgáltatási időszakok szolgáltatónként eltérőek.

2.1.7.A hibaarány korlátozására alkalmazott intézkedések és az elért hibaarány

Az ideiglenes rendelet 3. cikke (1) bekezdése e) pontjával összhangban a használt technológiáknak kellően megbízhatónak kell lenniük, és az esetenként előforduló hibák következményeit haladéktalanul orvosolni kell. Ezenkívül a 3. cikk (1) bekezdése g) pontjának ii. alpontja értelmében biztosítani kell az emberi felügyeletet és szükség esetén az emberi beavatkozást.

Valamennyi szolgáltató arról számolt be, hogy többszintű megközelítést alkalmaz a gyermekek online szexuális bántalmazásának felderítésével és a terjedése ellen folytatott küzdelemmel kapcsolatban. Ez magában foglalja a gyermekek szexuális bántalmazását ábrázoló anyagok felderítésére szolgáló digitálislenyomat-megfeleltetési technológiák (köztük a PhotoDNA) használatát, amelyeket emberi felülvizsgálati folyamatokkal ötvöznek annak megerősítése érdekében, hogy egy médiafájl (kép és videó) tartalmaz-e gyermekek szexuális bántalmazását ábrázoló anyagot, valamint magában foglalja a gyermekek szexuális bántalmazását ábrázoló anyagok kezelésének emberi felügyeletét is.

A szolgáltatók arról számoltak be, hogy különböző intézkedéseket és biztosítékokat alkalmaznak annak érdekében, hogy a gyermekek online szexuális bántalmazásának felderítése, bejelentése és eltávolítása során korlátozzák és csökkentsék a hibaarányt. Ezek a következők (a felsorolás nem teljes) 4 :

I.A gyermekek szexuális bántalmazását felderítő eszközök teljesítményének nyomon követése és minőségértékelése egyrészt a pontosság finomhangolása (azaz az eszközök csak a gyermekek online szexuális bántalmazását derítik fel), másrészt az emlékeztetés érdekében (azaz az eszközök a saját platformjaikon nem mulasztják el felderíteni a gyermekek online szexuális bántalmazását) (Google, X).

II.Emberi felülvizsgálat és emberi felügyelet: a digitálislenyomat-megfeleltetési technológiák által gyermekek szexuális bántalmazását ábrázoló anyagként észlelt médiafájlok mintáit felülvizsgálatot végző személyek/képzett elemzők ellenőrzik (Google, LinkedIn, Meta, Microsoft).

III.A nagy volumenű klaszterek megjelölése és felülvizsgálata (Meta).

IV.További manuális felülvizsgálati folyamatok bevezetése a digitális lenyomatok folyamatos minőségi ellenőrzéseként (LinkedIn, Microsoft).

V.Az emberi felülvizsgálat pontosságának biztosítása érdekében a felülvizsgálatot végző személyek – tanácsadók iránymutatása mellett – átfogó szakirányú képzéseken vesznek részt azzal kapcsolatban, hogy hogyan ismerhetik fel a gyermekek szexuális bántalmazását ábrázoló anyaggal kapcsolatos tartalmat (Google).

VI.A felülvizsgálatot végző személyek és a meghozott döntések rendszeres minőség-ellenőrzési értékelése (Google, X).

VII.A hibák csökkentését és azonnali orvoslását célzó egyéb minőség-ellenőrzési folyamatok, például a digitális lenyomatok független ellenőrzése (Google, LinkedIn), a gyermekek szexuális bántalmazását ábrázoló, korábban még nem látott anyagok minden egyes esetének emberi felülvizsgálata a bejelentés előtt (Google).

VIII.Szabályzatok és végrehajtási stratégiák gyermekek online szexuális bántalmazásával foglalkozó, képzett szakértők általi kidolgozása és rendszeres felülvizsgálata (Google).

IX.Az NCMEC-hez benyújtott CyberTipline-jelentés minőségével és az esetleges hamis pozitívokkal kapcsolatos elkötelezettség (Google, LinkedIn, Meta, Microsoft, X).

2.1.8.Adatmegőrzési szabályzat és az általános adatvédelmi rendeletnek megfelelően alkalmazott adatvédelmi biztosítékok

Az ideiglenes rendelet 3. cikke (1) bekezdésének h) pontja előírja, hogy a vonatkozó személyes adatokat biztonságosan és kizárólag a meghatározott célokból tárolják, i) pontja pedig a tárolás időtartamára vonatkozó előírásokat tartalmaz. Ezenkívül tiszteletben kell tartani az általános adatvédelmi rendelet alkalmazandó követelményeit is.

A szolgáltatók arról számoltak be, hogy szilárd adatmegőrzési szabályzattal és személyesadat-védelmi biztosítékokkal rendelkeznek. Az adatmegőrzési szabályzatok az adatok típusától függően eltérnek egymástól. Megemlítik, hogy az adatmegőrzési időszak minden esetben az adat típusának és az adatkezelés céljának megfelelően időben korlátozott, és az adatokat a megőrzési időszak végén törlik. A szolgáltatók adatvédelmi szabályzatukban/nyilatkozataikban és szolgáltatási/felhasználói megállapodásaikban részletesebb információkkal szolgálnak az adatmegőrzési gyakorlatokról.

A legtöbb szolgáltató (LinkedIn, Meta, Microsoft) 90 napos adatmegőrzést alkalmaz azon médiafájlok tekintetében, amelyek esetében megerősítést nyert, hogy a rendelet hatálya keretében felderített, gyermekek szexuális bántalmazását ábrázoló anyagokat tartalmaznak. Ezen időszak alatt a gyermekek szexuális bántalmazását ábrázoló anyagként megerősített tartalmat külön, a gyermekek szexuális bántalmazását ábrázoló anyagok tárolására szolgáló biztonságos helyen tárolják, amelyet erre szakosodott csoportok (pl. a Microsoft bűnüldözési és nemzetbiztonsági csoportja) kezelnek. Ezek a tárolórendszerek 90 nap elteltével automatikusan törlik a gyermekek szexuális bántalmazását ábrázoló anyagokat tartalmazó tárolt tartalmat, kivéve, ha az adattárolás időtartamát meghosszabbították az NCMEC-jelentések nyomán benyújtott – általában bűnüldöző hatóságokhoz kapcsolódó – jogszerű eljárási kérelmek kézhezvételekor.

A Google arról számolt be, hogy a rendelet hatálya keretében felderített, gyermekek szexuális bántalmazását ábrázoló anyagokat legfeljebb a rendelet szerinti vonatkozó célokhoz feltétlenül szükséges ideig tárolják, de semmiképpen sem tovább, mint a gyermekek szexuális bántalmazását ábrázoló anyagok azonosításától és bejelentésétől számított 12 hónapig, amely időtartam jogszerű megőrzési kérelem alapján meghosszabbítható.

Az X (korábban Twitter) arról számolt be, hogy a profilinformációkat és a tartalmat a felhasználói fiók fennállásának időtartama alatt, az általa nyújtott szolgáltatás felhasználók általi igénybevétele során gyűjtött személyes adatokat pedig legfeljebb 18 hónapig őrzik meg. Ha a felhasználó deaktiválja fiókját, az X általában további 30 napig még megőrzi az adatokat, majd törli a fiókot. A panaszokkal és a szabályzat megsértésével kapcsolatos felhasználói adatokat, többek között a jogsértők fiókinformációit (pl. a fiók létrehozásához használt azonosítók: e-mail-cím vagy telefonszám) határozatlan ideig őrzik meg annak megakadályozása érdekében, hogy a visszaeső szabálysértők új fiókot hozhassanak létre, valamint annak biztosítása érdekében, hogy ne fordulhasson az elő, hogy az X szabályzatát megsértők egyszerűen kivárják a törlési időszakot, majd ismét megszegjék a szabályzatot 5 .

A szolgáltatók által alkalmazott személyesadat-védelmi biztosítékok közé tartoznak a szokványos iparági intézkedések (az összes vagy a néhány kiválasztott intézkedés), például (a teljesség igénye nélkül) 6 :

I.Anonimizálási vagy álnevesítési technikák alkalmazása és az adatok anonimizálása (pl. maszkolás, hasítás, differenciált adatvédelem) (Google, LinkedIn, Meta, Microsoft).

II.Kizárólag hash-értékek átadása harmadik feleknek a gyermekek szexuális bántalmazását ábrázoló anyagok felderítése céljából (Google, LinkedIn).

III.Iparági szabványos titkosítás (algoritmusok és protokollok) használata a magántulajdonban lévő infrastruktúra és a nyilvános hálózatok közötti adatátvitel során (Meta).

IV.Adatkormányzási stratégiák/átfogó adatvédelmi programok végrehajtása (X, korábbi Twitter, Google) és szigorú belső adathozzáférési korlátozások (Meta) (amelyeket pl. olyan alkalmazottak, vállalkozók, ügynökök esetében alkalmaznak, akiknek adatkezeléshez van szükségük az információra), hozzáférés-ellenőrzési listák használata a gyermekek szexuális bántalmazását ábrázoló anyagok felülvizsgálatára szolgáló eszközök esetében és hash-tilalmak (Meta), valamint szigorú szerződéses titoktartási kötelezettségek alkalmazása a hozzáféréssel rendelkezők esetében.

V.Az anonimizálási és adatkormányzási stratégiák felülvizsgálata, azaz adatvédelmi felülvizsgálatok végzése a személyes adatok gyűjtéséből, kezeléséből, tárolásából és megosztásából eredő lehetséges adatvédelmi kockázatok azonosítása, értékelése és mérséklése érdekében, az adatvédelmi gyakorlatok felülvizsgálata (Microsoft).

VI.Biztonsági incidensekre vonatkozó reagálási tervek fenntartása az infrastruktúra egészét érintő esetleges biztonsági sebezhetőségek és incidensek nyomon követése, felderítése és kezelése érdekében (Google, Meta).

2.1.9.A gyermekek szexuális bántalmazása ellen közérdekből fellépő azon szervezetek neve, amelyekkel e rendelet alapján adatokat osztottak meg.

Mindkét adatszolgáltatási időszakban (2021. július/augusztus és 2021. december között, valamint 2022. január és 2022. december között) az összes szolgáltató arról számolt be, hogy az e rendelet alapján kezelt adatokat megosztotta az NCMEC-vel. Az ideiglenes rendelet 7. cikkének (1) bekezdésével összhangban mindegyik adatszolgáltató szolgáltató egyúttal arról is tájékoztatta a Bizottságot, hogy e rendelet alapján tett bejelentést az NCMEC-nek gyermekek online szexuális bántalmazásáról 7 .

2.2.Tagállami statisztikák (8. cikk)

Az ideiglenes rendelet 8. cikkének (1) bekezdése értelmében a tagállamok kötelesek statisztikákat szolgáltatni a következőkről:

a)a gyermekek online szexuális bántalmazásának felderített eseteiről szóló, a szolgáltatók és a gyermekek szexuális bántalmazása ellen közérdekből fellépő szervezetek által az illetékes nemzeti bűnüldöző hatóságokhoz tett bejelentések teljes száma, különbséget téve – amennyiben ez az információ rendelkezésre áll – az esetek abszolút száma és a több alkalommal jelentett esetek száma között, valamint azon szolgáltató típusa, amelynek szolgáltatása keretében a gyermekek online szexuális bántalmazását felderítették;

b)a 3. cikk szerinti intézkedések révén azonosított gyermekek száma, nemek szerint megkülönböztetve;

c)az elítélt elkövetők száma.

Bár a legtöbb tagállam legalább részleges információkat szolgáltatott, sok tagállamban nem hozták létre a vonatkozó adatgyűjtési és jelentéstételi rendszereket. Ennek következtében, még ha szolgáltattak is statisztikákat, azok nagyon különböző adatszolgáltatási időszakokra vonatkoznak, és a részletezettség tekintetében is jelentős eltéréseket mutatnak. Néhány tagállam a rendelet hatálybalépésének időpontjától kezdve éves statisztikákat nyújtott be. A legtöbb tagállam naptári évekre vonatkozóan szolgáltatott adatokat, mivel előfordulhat, hogy a rendelet hatálybalépésének időpontjától kezdve nem rendelkeznek a kért statisztikák évenkénti megkülönböztetéséhez szükséges technikai eszközökkel. Néhány tagállam egyáltalán nem szolgáltatott adatokat.

Azt is meg kell jegyezni, hogy néhány esetben a statisztikai adatokat úgynevezett aktív adatbázisokból, illetve naplózási és ügykezelési rendszerekből, azaz nem a tényleges statisztikai rendszerekből nyerték. A számokat időnként dinamikus adatok alapján szolgáltatják, ami azt jelenti, hogy az adatok nem véglegesek, azaz változhatnak. Változások például az adatkinyerés időpontjától függően következnek be (pl. Szlovéniában és Dániában), ahogy több nyomozás és bírósági ügy lezárul.

Több tagállamban az illetékes hatóságok új részlegeket hoznak létre a gyermekek online szexuális bántalmazásával kapcsolatos bűncselekmények kivizsgálására, és központi jelentéstételt vezetnek be a gyermekek online szexuális bántalmazását illetően (Lettország, Csehország). Ez segíthet abban, hogy a jövőben pontosabb statisztikák álljanak rendelkezésre.

Németország kijelentette, hogy az ideiglenes rendelet 8. cikkének (1) bekezdése szerint nem tud statisztikákat szolgáltatni, mivel úgy véli, hogy nincs jogalapja az önkéntes felderítésre 8 . A német Szövetségi Bűnügyi Hivatal (BKA) azonban a honlapján arról számol be, hogy 2022-ben 89 844 bejelentést kapott az NCMEC-től, az NCMEC pedig arról számolt be, hogy 138 193 bejelentést küldött a német hatóságoknak 9 . Három tagállam (Málta, Portugália és Románia) nem szolgáltatott adatokat, illetve nem indokolta meg, hogy miért nem tett jelentést az említett rendelkezés alapján.

2.2.1. A gyermekek online szexuális bántalmazásának felderített eseteiről tett bejelentések teljes száma

A legtöbb tagállam az ideiglenes rendelet 8. cikke (1) bekezdésének a) pontja alapján statisztikákat szolgáltatott a gyermekek online szexuális bántalmazására vonatkozó bejelentések teljes számáról. Mivel a tagállamok eltérő adatszolgáltatási időszakokra vonatkozóan szolgáltattak adatokat, egy adott időszakra, például a rendelet végrehajtásának idejére vonatkozóan nem lehetett kiszámítani a gyermekek felderített online szexuális bántalmazását illetően uniós szinten kapott bejelentések teljes számát.

A tagállamok többnyire a nemzeti bűnüldöző hatóságok által a szolgáltatóktól vagy a gyermekek szexuális bántalmazása ellen közérdekből fellépő egyéb szervezetektől kapott bejelentések teljes számát adták meg. Mivel a legtöbb amerikai székhelyű szolgáltató az NCMEC-nek tesz bejelentést, a legtöbb tagállam arról számolt be, hogy a legtöbb vagy az összes bejelentést az NCMEC-től kapja. A tagállamok nem adták meg a megtámadható, azaz kivizsgálásra alkalmas bejelentések számát, de néhányan feltüntették a megindított ügyek számát, ami lényegesen alacsonyabb. A beérkezett bejelentések és a kivizsgált esetek közötti különbség több okra vezethető vissza, például arra, hogy a bejelentés gyermekek szexuális bántalmazását ábrázoló anyagokra vonatkozott, de nem tartalmazott elegendő információt a vizsgálat megindításához; a bejelentéseket összevonják, ha egy bizonyos gyanúsítottra egynél több bejelentés vonatkozik; vagy az anyag, bár kizsákmányoló helyzetet ábrázolt, a nemzeti jog szerint nem minősült bűntetendőnek. Ezenkívül a tagállamok többnyire nem tettek különbséget az esetek abszolút száma és a többször bejelentett esetek között. Amennyiben az NCMEC bejelentéseket nyújtott be, az NCMEC már előre „megtámadható” vagy „tájékoztató jellegű” kategóriába sorolta a szolgáltatóktól kapott bejelentéseket. Az NCMEC meghatározása szerint a megtámadható bejelentést elegendő információt tartalmaz a vizsgálat megindításához. Ez jellemzően magában foglalja a felhasználói adatokat, a képeket és a lehetséges helyszínt. A bejelentést „tájékoztató jellegűnek” minősíti, ha nem tartalmaz elegendő információt, vagy ha a képek vírusosnak minősülnek, és azzal kapcsolatban már több bejelentés érkezett. Az NCMEC 2022-ben a bejelentések 49 %-át „megtámadhatónak”, 51 %-át pedig „tájékoztató jellegűnek” minősítette.

Csak nagyon kevés tagállam jelölte meg, hogy milyen típusú szolgáltatók szolgáltatásainál észlelték gyermekek online szexuális bántalmazását (pl. Belgium, Csehország, Észtország, Franciaország és Lengyelország), és csak egy tagállam szolgált részletes bontással (Belgium).

Szlovénia jelezte, hogy nem tud olyan számadatokat szolgáltatni, amelyek csak a szolgáltatók és szervezetek által benyújtott bejelentések miatt kivizsgált bűncselekményekre vonatkoznak, hanem csak a gyermekek online szexuális bántalmazásával kapcsolatos valamennyi nyomozásra vonatkozóan tud számadatokkal szolgálni, függetlenül attól, hogy a nyomozás megindításához vezető információ milyen forrásból származik.

6. táblázat: A gyermekek online szexuális bántalmazásának felderített eseteiről tett tagállami bejelentések teljes száma

Ország

Adatszolgáltatási időszak

A gyermekek online szexuális bántalmazásáról tett bejelentések teljes száma

A jelentések forrása

Megjegyzések

Ausztria

2021–2022

16 311

NCMEC

Belgium

2021. augusztus 1. – 2022. július 31.

26 226

Szolgáltatóktól (közösségi média) és a Childfocus forródróttól származó jelentések

Bulgária

2021–2022

9 120

Szolgáltatók és az INHOPE forródrót a „SafeNet”-en keresztül stb.

Ezek közül 9 112 riasztás bolgár szolgáltatók által üzemeltetett, gyermekek szexuális bántalmazását ábrázoló anyagokat tartalmazó weboldalakra vonatkozott.

Horvátország

2021. január 1. – 2022. október 31.

9 044

NCMEC

Ciprus

2021. július 1. – 2022. december 31.

3 570

NCMEC

Csehország

2022. január 1. – 2022. július 31.

13 279

NCMEC

Dánia

2021. augusztus 2. – 2023. január 20.

10 744

NCMEC

Észtország

NCMEC, gyermekek segélyvonala (116 111)

Észtország arról számolt be, hogy a rendőrség és a határőrség – többek között az NCMEC – statisztikái nem nyilvánosak. 2021-ben 360 olyan, nem érintkezéses szexuális bűncselekményről számoltak be, amelyeket gyermekek ellen követtek el. Ezenkívül a nem érintkezéses szexuális bűncselekmények 86 %-át internetes környezetben vagy információtechnológiai eszközök használatával követték el.  

Finnország

2022

25 000

NCMEC és a „Mentsük meg a gyermekeket” (Save the Children) szervezet

Franciaország

2021. augusztus 1. – 2022. augusztus 1.

120 000

NCMEC

Németország

Adatok nem állnak rendelkezésre / nem szolgáltattak adatokat.

Görögország

2021–2022

142

NCMEC, az illegális internetes tartalmakkal foglalkozó görög forródrót – Safeline, Nemzeti Távközlési és Postai Bizottság, az 1056-os nemzeti segélyvonal – A gyermek mosolya, görög ombudsman.

Magyarország

2022

0

A szolgáltatók által küldött bejelentések egyikét sem az ideiglenes rendelet alapján küldték.

Írország

2021–2022

15 355

NCMEC

Olaszország

2022

4 607

Nincs meghatározva

Lettország

2022. augusztus 1. – 2023. március 6.

Megközelítőleg 115–220 bejelentés havonta

A gyermekek szexuális bántalmazása ellen közérdekből fellépő nem lett szolgáltatók és szervezetek (főként az NCMEC), valamint lett szolgáltatók és szervezetek (főként a lett Safer Internet Center)

Litvánia

2021. január 1. – 2022. június 30.

4 142

Nincs meghatározva

Luxemburg

2021–2022

2 491

Nincs meghatározva

Málta

Nem nyújtottak be/szolgáltattak adatokat.

Hollandia

2021

36 537

Szolgáltatók és a gyermekek szexuális bántalmazása ellen közérdekből fellépő szervezetek

Lengyelország

2021. augusztus 3. – 2023. augusztus 3.

227

Szolgáltatók és a gyermekek szexuális bántalmazása ellen közérdekből fellépő szervezetek

A 2022. augusztus 3. és 2023. augusztus 3. közötti időszakra vonatkozóan Lengyelország 1 gyermekcsábításra vonatkozó bejelentésről és 105, gyermekek szexuális bántalmazását ábrázoló anyagokra vonatkozó bejelentésről tett említést.

Portugália

Nem nyújtottak be/szolgáltattak adatokat.

Románia

Nem nyújtottak be/szolgáltattak adatokat.

Szlovákia

2021. augusztus 1. – 2022. július 31.

7 206

Szolgáltatók és a gyermekek szexuális bántalmazása ellen közérdekből fellépő szervezetek

Szlovénia

2021. január 1. – 2023. július 14.

452

Ez a szám az internetes tevékenységekkel kapcsolatos bűncselekményeket jelzi. A meglévő statisztikai adatok jelenleg nem teszik lehetővé, hogy Szlovénia elkülönítse a szolgáltatók és szervezetek által benyújtott bejelentések alapján kivizsgált bűncselekményekre vonatkozó statisztikai adatokat az egyéb bejelentésekre vonatkozó statisztikai adatoktól.

Spanyolország

2022

31 474

A gyermekek szexuális bántalmazása ellen közérdekből fellépő szervezetek

Svédország

2021. augusztus–2022. december 31.

32 830

Főként a NCMEC

 

Tekintve, hogy a bejelentések fő forrása az NCMEC, tanulságos összehasonlítani a tagállamok által kapott bejelentésekre vonatkozó adatokat az NCMEC által megadott, a tagállamoknak küldött bejelentésekre vonatkozó adatokkal. Az NCMEC 2021-ben világszerte összesen 29 397 681 bejelentést kapott az iparágtól, amelyek 99,7 %-a (azaz 29 309 106 bejelentés) egy vagy több, gyermekek szexuális bántalmazását ábrázoló képet vagy videót tartalmazott, 0,15 %-a (azaz 44 155 bejelentés) gyermekcsábításhoz, 0,05 %-a (azaz 16 032 bejelentés) pedig gyermekkereskedelemhez kapcsolódott. 2022-ben az NCMEC összesen 32 059 029 bejelentést kapott, amelyek 99,5 %-a (azaz 31 901 234 bejelentés) gyermekek szexuális bántalmazását ábrázoló képekhez vagy videókhoz, 0,25 %-a (80 524 bejelentés) gyermekcsábításhoz, 0,06 %-a (azaz 18 336 bejelentés) pedig gyermekkereskedelemhez kapcsolódott. Az EU esetében a megoszlás a következő:

7. táblázat: Az NCMEC által 2021-ben és 2022-ben az uniós tagállamoknak benyújtott, a gyermekek online szexuális bántalmazásának gyanújára vonatkozó bejelentések

Ország

Összes bejelentés, 2021 10

Az EU összértékének %-ában, 2021

Összes bejelentés, 2022 11

Az EU összértékének %-ában, 2022

Az uniós népesség %-ában

Ausztria

7 580

1,36 %

18 501

1,23 %

2,00 %

Belgium

15 762

2,84 %

50 255

3,34 %

2,60 %

Bulgária

13 584

2,44 %

31 937

2,12 %

1,53 %

Horvátország

4 744

0,85 %

11 693

0,78 %

0,86 %

Ciprus

2 657

0,48 %

7 361

0,49 %

0,20 %

Csehország

15 004

2,70 %

61 994

4,12 %

2,36 %

Dánia

5 891

1,06 %

30 215

2,01 %

1,31 %

Észtország

2 729

0,49 %

6 408

0,43 %

0,30 %

Finnország

6 079

1,09 %

10 904

0,73 %

1,24 %

Franciaország

98 233

17,67 %

227 465

15,13 %

15,16 %

Németország

79 701

14,34 %

138 193

9,19 %

18,59 %

Görögország

14 616

2,63 %

43 345

2,88 %

2,37 %

Magyarország

31 710

5,70 %

109 434

7,28 %

2,16 %

Írország

7 327

1,32 %

19 770

1,31 %

1,13 %

Olaszország

37 480

6,74 %

96 512

6,42 %

13,32 %

Lettország

1 537

0,28 %

3 688

0,25 %

0,42 %

Litvánia

3 509

0,63 %

16 603

1,10 %

0,63 %

Luxemburg

2 005

0,36 %

2 004

0,13 %

0,14 %

Málta

750

0,13 %

4 713

0,31 %

0,12 %

Hollandia

36 790

6,62 %

57 012

3,79 %

3,96 %

Lengyelország

37 758

6,79 %

235 310

15,65 %

8,41 %

Portugália

34 415

6,19 %

42 674

2,84 %

2,31 %

Románia

32 765

5,89 %

96 287

6,40 %

4,25 %

Szlovákia

7 275

1,31 %

39 748

2,64 %

1,21 %

Szlovénia

3 162

0,57 %

14 795

0,98 %

0,47 %

Spanyolország

33 136

5,96 %

77 727

5,17 %

10,60 %

Svédország

19 635

3,53 %

48 883

3,25 %

2,33 %

Összesen

555 834

1 503 431

A 2021-ben és 2022-ben benyújtott bejelentések száma közötti jelentős eltérések – amelyek a 2022. évi bejelentések számának meredek növekedését mutatják – nagyrészt az önkéntes felderítés 2021 januárja és augusztusa közötti csökkenésének tudhatók be, amikor az ideiglenes rendelet még nem volt alkalmazandó.

Az NCMEC az uniós tagállamonkénti statisztikáiban nem tesz különbséget a bejelentés forrása szerint, különösen nem aszerint, hogy a bejelentés számfüggetlen személyközi hírközlési szolgáltatásból származik-e. Az NCMEC mindazonáltal szolgáltat statisztikákat az Uniót érintő, számfüggetlen személyközi hírközlési szolgáltatásokból származó bejelentések teljes számáról. 2021-ben 283 265, tagállamokat érintő bejelentés származott csevegő-, üzenetküldő vagy e-mail szolgáltatásból, ami az Unióval kapcsolatos összes bejelentés 51 %-át teszi ki. További 164 645 bejelentés (az összes bejelentés 30 %-a) a közösségi médiából vagy online játékplatformokról származott, amelyek szintén tartalmazhatnak beépített üzenetküldő vagy csevegőszolgáltatást. 2021-ben 3 565, Uniót érintő bejelentés a gyermekcsábításhoz kapcsolódott. 2022-ben 1 015 231, tagállamokat érintő bejelentés származott csevegő-, üzenetküldő vagy e-mail szolgáltatásból, ami az Unióval kapcsolatos összes bejelentés 68 %-át teszi ki. További 325 847 bejelentés (az összes bejelentés 22 %-a) a közösségi médiából vagy online játékplatformokról származott, amelyek szintén tartalmazhatnak beépített üzenetküldő vagy csevegőszolgáltatást. 2022-ben 7 561, Uniót érintő bejelentés a gyermekcsábításhoz kapcsolódott. A számfüggetlen személyközi hírközlési szolgáltatásokból származó bejelentések számában 2021-ben és 2022-ben tapasztalható eltérések ugyancsak az önkéntes felderítés 2021 januárja és augusztusa közötti csökkenésének tudhatók be, amikor az ideiglenes rendelet még nem volt alkalmazandó.

A bejelentések tagállamonkénti aránya sok esetben nagyjából megegyezik a tagállam népességének teljes uniós népességhez viszonyított arányával, ami arra utalhat, hogy a tagállamokban hasonló méreteket ölt a gyermekek online szexuális bántalmazása. Jelentős eltérések figyelhetők meg Spanyolország és Olaszország esetében, amelyek százalékos aránya mindkét évben alacsonynak tűnik az uniós népesség százalékos arányához képest, míg más tagállamok (pl. Németország, Lengyelország, Hollandia, Szlovákia) esetében a bejelentések aránya jelentősen ingadozik. Ezek a változások önmagukban nem jelennek meg az esetek számára vonatkozó jelentésekben, ennélfogva újfent nehéz következtetéseket levonni a bejelentések és a vizsgálatok közötti összefüggést illetően.

Az eltérő adatszolgáltatási időszakok miatt ugyan nem mutatható ki közvetlen egyezés, de még így is jelentős eltérések vannak az NCMEC által benyújtott statisztikák és a tagállamok által szolgáltatott adatok között. Ezenkívül az NCMEC tagállamokra vonatkozó adatait sem lehet teljes mértékben megfeleltetni az előző szakaszban említett, iparág által szolgáltatott adatokkal. Bár a különbségek egy része a személyközi hírközléstől eltérő forrásokból származó, gyermekek online szexuális bántalmazására vonatkozó bejelentéseknek tudható be, ez további elemzést igényelne, mivel – az NCMEC-nek bejelentést tevő szolgáltatók listájára tekintettel – az is lehetséges, hogy a Bizottsághoz eddig jelentést benyújtó szolgáltatóktól eltérő szolgáltatók is hajtottak végre Uniót érintő önkéntes felderítési intézkedéseket 12 . Mindazonáltal az, hogy a legtöbb tagállam esetében jelentős eltérés mutatkozik az NCMEC által megadott, a tagállamnak általa küldött bejelentések száma és a tagállam által beérkezettként feltüntetett bejelentések száma között, arra utal, hogy a tagállamok adatgyűjtése és jelentéstétele nem teljes körű.

A gyermekek szexuális bántalmazását ábrázoló képeket és videókat a NCMEC által tett, fentiekben meghatározott mindegyik bejelentés esetében eltávolították, megakadályozva így a terjesztésüket. Ez különösen a gyermekek szexuális bántalmazásának jelenlegi áldozatai és túlélői számára fontos. Tanulmányok kimutatták, hogy a bántalmazást ábrázoló képek és videók folyamatos terjesztése korlátozza az áldozatok képességét, hogy leküzdjék a bántalmazás pszichológiai hatásait, és a viktimizáció másodlagos formáját hozza létre.

2.2.2. Azonosított gyermekek száma

A legtöbb tagállam az ideiglenes rendelet 8. cikke (1) bekezdésének b) pontja alapján teljes vagy részleges statisztikákat nyújtott be az azonosított gyermekek számáról, nemek szerinti bontásban. Több tagállam azonban nem szolgáltatott semmilyen adatot, illetve nem indokolta meg, hogy miért nem tett jelentést e rendelkezés alapján.

Több tagállam nem vagy csak részlegesen szolgáltatott statisztikákat az adatszolgáltatási időszakra vonatkozóan, de ezt megindokolta. Az indokok közé tartoztak a következők:

-A gyermekek online szexuális bántalmazásának áldozatává vált gyermekeket nem lehet megszámlálni (Franciaország).

-Az adatok nem állnak rendelkezésre, mivel a nemzeti statisztikai adatgyűjtés keretében nem gyűjtöttek ilyen adatokat / a nemzeti hatóságok nem tartanak nyilván ilyen statisztikákat (Dánia, Litvánia).

-A nemzeti statisztikai adatgyűjtés során az adatokat nem bontották le nemek szerint (Belgium, Ciprus, Csehország, Görögország, Hollandia, Írország, Litvánia és Olaszország).

-A meglévő információs rendszerekben nem áll rendelkezésre a kért részletességű információ (Finnország).

-Ilyen információt nem gyűjtenek (Németország).

Azon tagállamok közül, amelyek jelezték, hogy nem tudnak statisztikát szolgáltatni, néhányan megerősítették, hogy nemzeti hatóságaikat felkérték, hogy változtassák meg az önkéntes bejelentésekre és vizsgálatokra vonatkozó nyilvántartási eljárást és a statisztikai adatgyűjtést (Dánia), és/vagy olyan új információs rendszereket telepítenek, amelyek lehetővé teszik a kért részletességű jelentéstételt (Finnország).

Az egyik tagállamban az alábbi adatok nem tesznek különbséget a gyermekek online és offline szexuális bántalmazásának áldozatává vált gyermekek között (Magyarország). Néhány esetben a statisztikák olyan gyermekekre is kiterjednek, akikről megállapították, hogy saját maguk készítették és töltötték fel az anyagot (saját készítésű anyagok, főként videók) (Csehország, Észtország).

Mivel a tagállamok többnyire eltérő adatszolgáltatási időszakokra vonatkozóan nyújtottak be jelentést, nem lehetett kiszámolni, hogy az Unióban évente és/vagy ugyanazon adatszolgáltatási időszakban összesen hány gyermeket azonosítottak a gyermekek online szexuális bántalmazásának áldozataként.

8. táblázat: Az azonosított gyermekek száma, nemek szerint megkülönböztetve

Ország

Adatszolgáltatási időszak

Lány

Fiú

Összesen

Megjegyzések

Ausztria

2021–2022

11

6

17

Belgium

2021–2022

63

Nem állnak rendelkezésre nemek szerint megkülönböztetett adatok.

Bulgária

2022

50

12

62

Horvátország

2021. január 1. – 2022. október 31.

20

0

20

Ciprus

2022

102

Nem állnak rendelkezésre nemek szerint megkülönböztetett adatok.

Csehország

2022

30

Nem állnak rendelkezésre nemek szerint megkülönböztetett adatok.

Dánia

Nem állnak rendelkezésre adatok.

Észtország

2021

6

12

18

Finnország

Nem állnak rendelkezésre adatok.

Franciaország

Nem állnak rendelkezésre adatok.

Németország

Nem állnak rendelkezésre adatok.

Görögország

2021–2022

4

Nem állnak rendelkezésre nemek szerint megkülönböztetett adatok.

Magyarország

2021–2022

379

47

426

Nem lehet különbséget tenni a gyermekek online és offline szexuális bántalmazásának áldozatai között. Csak a 16 év alatti gyermekek tartoznak ide.

Írország

2021–2022

101

A 2021. évi adatok (50 áldozat) nem különböztethetők meg nemek szerint. A 2022-re vonatkozó, nemek szerint megkülönböztetett adatok a következők: 25 lány és 26 fiú gyermeket azonosítottak.

Olaszország

2022

385

Nem állnak rendelkezésre nemek szerint megkülönböztetett adatok.

Lettország

2022. augusztus 1. – 2023. március 6.

1

1

Litvánia

Nem állnak rendelkezésre adatok.

Luxemburg

2021–2022

0

0

0

Málta

Nem nyújtottak be/szolgáltattak adatokat.

Hollandia

2021

222

Nem állnak rendelkezésre nemek szerint megkülönböztetett adatok.

Lengyelország

2022

2 368

487

3 014

2022-ben a lengyel Nemzeti Rendőrségi Információs Rendszer adatai szerint a gyermekek szexuális bántalmazásával kapcsolatos bűncselekményeknek 3 014 áldozata volt (2 368 lány, 487 fiú, 159 esetben pedig nem tüntették fel a nemet).

Portugália

Nem nyújtottak be/szolgáltattak adatokat.

Románia

Nem nyújtottak be/szolgáltattak adatokat.

Szlovákia

2021. augusztus–2022. július

13

8

21

Szlovénia

2021. január 1. – 2023. július 14.

220

85

305

Spanyolország

2022

80

39

119

Svédország

2022

8

4

12

VALAMENNYI TAGÁLLAM TEKINTETÉBEN ÖSSZESEN

2021. január 1. – 2023. március 6.

3 156

700

4 922

A fenti adatokat számos további szempontból is fenntartásokkal kell kezelni. A meglévő statisztikai adatok nem mindig teszik lehetővé a tagállamok számára, hogy elkülönítsék a szolgáltató bejelentése alapján azonosított áldozatokra vonatkozó adatokat azoktól az esetektől, amikor például maga az áldozat vagy valaki más jelenthette a bűncselekményt, aki ismerte az áldozatot vagy észlelte a bűncselekményt (ahogy azt Szlovénia is említette). Svédország arról számolt be, hogy a csevegések naplózása alapján azonosított gyermekek is a jelentés részét képezik, bár a bántalmazásról készült fényképeket vagy videókat soha nem találták meg, illetve nem sikerült megállapítani, hogy azok az adott áldozattól származnak-e.

Összességében a 8. táblázatban szereplő adatok nem feltétlenül felelnek meg az ideiglenes rendeletben foglalt jelentéstételi kötelezettségeknek, amelyek csak a szolgáltatók és a gyermekek szexuális bántalmazása ellen közérdekből fellépő szervezetek által a rendelet alapján tett bejelentéseknek köszönhetően megmentett áldozatokra vonatkoznak. A szolgáltatott adatok néhány esetben magukban foglalják a különféle egyéb okoknak és eszközöknek betudhatóan azonosított áldozatokat is.

Az adatok így nem adnak átfogó képet az Unióban a gyermekek online szexuális bántalmazásának áldozataként azonosított gyermekek számáról.

Ráadásul, még ha azonosítottak is egy áldozatot, ez nem feltétlenül jelenti azt, hogy az azonosításhoz ítélet is kapcsolódik. Néhány esetben ugyan azonosították az áldozatot, de a nyomozás során nem sikerült gyanúsítottat találni, vagy a nyomozás nem vezetett ítélethez (Svédország).

Mindazonáltal az adatokból arra lehet következtetni, hogy az áldozatok jelentős részét az ideiglenes rendelettel összhangban tett önkéntes bejelentések segítségével azonosították. Ezt megerősítik a bűnüldöző hatóságoktól kapott, olyan ügyekre vonatkozó jelentések, amelyeket gyakran csupán önkéntes bejelentések alapján indítottak el 13 .

2.2.3. Az elítélt elkövetők száma

Jóllehet a legtöbb tagállam eleget tett kötelezettségeinek, két tagállam nem szolgáltatott adatokat, illetve nem indokolta meg, hogy miért nem tett jelentést az ideiglenes rendelet 8. cikke (1) bekezdésének c) pontja alapján.

Több tagállam semmilyen statisztikával nem szolgált az adatszolgáltatási időszakra vonatkozóan az említett rendelkezés alapján, és ezt a következőkkel indokolta:

-még nem áll rendelkezésre adat (Belgium és Spanyolország),

-a bűncselekmények nyilvántartására használt központi adatbázis nem írta elő, hogy rögzíteni kell az eredeti beterjesztés jellegét (Írország),

-ilyen adatokat nem gyűjtenek (Németország).

A tagállamok nagyon eltérő adatokat szolgáltattak az elítélt elkövetők számáról, és az érintett adatszolgáltatási időszakok sem voltak egységesek, ahogy azt az alábbi 9. táblázat is mutatja.

9. táblázat: Az elítélt elkövetők száma

Ország

Adatszolgáltatási időszak

Bűnösséget megállapító ítéletek száma

Megjegyzések

Ausztria

2021

850

Az adatok nem tesznek különbséget az online és offline elkövetett bűncselekmények között.

Belgium

Nem állnak rendelkezésre adatok.

Bulgária

2021–2022

52

Horvátország

Nem állnak rendelkezésre adatok.

Ciprus

2022

0

Eddig nem született ítélet.

Csehország

2022. január 1. – 2022. július 31.

20

Dánia

2021. augusztus 2. – 2023. január 20.

224

Észtország

2021

2

Csak az NCMEC bejelentéseiből származó ítéleteket tartalmazza.

Finnország

2021

240

Franciaország

2021. augusztus 4. – 2022. augusztus 3.

820

Németország

Nem állnak rendelkezésre adatok.

Görögország

2021–2022

62

Magyarország

2021–2022

126

Írország

Nem állnak rendelkezésre adatok.

Olaszország

2021–2022

5 835

Az adatok nem tesznek különbséget az online és offline elkövetett bűncselekmények között.

Lettország

2021–2022

33

Az adatok nem tesznek különbséget az online és offline elkövetett bűncselekmények között.

Litvánia

2021. január 1. – 2022. június 30.

10

Luxemburg

2022

11

Az adatok nem tesznek különbséget az online és offline elkövetett bűncselekmények között.

Málta

Nem nyújtottak be/szolgáltattak adatokat.

Hollandia

2021

217

Lengyelország

2021 második fele–2022 első fele / 2022 / 2023 első fele

185/194/81

Portugália

Nem nyújtottak be/szolgáltattak adatokat.

Románia

Nem nyújtottak be/szolgáltattak adatokat.

Szlovákia

2021

10

Szlovénia

2021–2022

45

Spanyolország

2022

Nem állnak rendelkezésre adatok.

Svédország

2022

55

Fontos megjegyezni, hogy az ítéletek száma nem egyezik meg az elítélt elkövetők számával, mivel egy személyt a gyermekek online szexuális bántalmazásával kapcsolatban egy vagy több bűncselekményért is elítélhetnek.

Ráadásul az egy adott időszakra bejelentett, ítéletekre vonatkozó statisztikák nem feltétlenül kapcsolódnak az adott időszakban beérkezett bejelentésekhez (azaz egy 2022-ben hozott ítélet például egy 2021-es vagy 2020-as bejelentéshez kapcsolódhat, és egy 2022-es bejelentés nyomán csak 2023-ban vagy később születhet ítélet). Ezt a tényt több tagállam (Írország, Luxemburg, Svédország) is kifejezetten kiemelte jelentésében.

Néhány esetben nem gyűjtöttek statisztikákat arról, hogy a gyanús tevékenységekről (pl. az NCMEC-en keresztül) tett bejelentések nyomán születtek-e ítéletek, illetve más szóval arról, hogy az ítéletek a szolgáltató vagy egy állami szervezet által szolgáltatott információk alapján születtek-e (Ausztria, Lettország). Csak Észtország erősítette meg kifejezetten, hogy a statisztikák kizárólag az NCMEC bejelentései nyomán született ítéleteket mutatják. Az is lehetséges, hogy a bejelentések a nyomozás során más elkövetőkhöz vezettek, akik ellen nyomozás indult, és akiket elítéltek (Ausztria).

Többnyire feltételezhető, hogy a jelentett ítéletek száma az azt követően lezárt ügyeken alapul, hogy feltehetően fellebbezést nyújtottak be az igazságszolgáltatási rendszeren keresztül. Az egyik tagállamban (Dánia) – ahol a számadatokat a legutóbbi határozatok alapján állítják össze – a számadatok nem véglegesek, mivel a határozatokat később megfellebbezhették.

Bizonyos esetekben a nemzeti informatikai rendszerekben szereplő és a tagállamok által szolgáltatott adatok sem tesznek különbséget az online és offline elkövetett bűncselekmények között (Ausztria, Luxemburg, Lettország).

A tagállamok által benyújtott, igen eltérő jelentések és az eltérő nemzeti statisztikai adatgyűjtési módszerek ezért nem teszik lehetővé, hogy átfogó képet alkossunk a gyermekek online szexuális bántalmazása miatt az Unióban elítélt elkövetők számáról. A rendelkezésre álló adatok alapján jelenleg arra sincs mód, hogy ezeket az ítéleteket egyértelműen összekapcsoljuk a szolgáltatók és a gyermekek szexuális bántalmazása ellen közérdekből fellépő szervezetek által e rendelettel összhangban a konkrét adatszolgáltatási időszakokban benyújtott bejelentésekkel.

2.3.A technológiai fejlődéssel kapcsolatos fejlemények

A gyermekek online szexuális bántalmazásának felderítésére jelenleg használt technológiák közé tartoznak a gyermekek szexuális bántalmazását ábrázoló „ismert” (azaz korábban felderített) anyagok, a gyermekek szexuális bántalmazását ábrázoló „új” (azaz korábban fel nem derített) anyagok és a gyermekkel való kapcsolatfelvétel (ún. gyermekcsábítás) felderítésére szolgáló technológiák és eszközök.

Az alábbi példák a legszélesebb körben használt eszközök közül emelnek ki néhányat, és nem jelentenek kimerítő felsorolást. Ezen eszközök közül számosat a szolgáltatók, a bűnüldöző hatóságok és más szervezetek rendelkezésére bocsátanak, amennyiben igazolható a jogos érdekük. Ezen eszközöket a lehető legnagyobb pontosság biztosítása érdekében általában emberi felülvizsgálattal ötvözik.

Ez a szakasz a mesterséges intelligenciával kapcsolatos technológiai fejlődés további fejleményeire is kiterjed.

2.3.1. A gyermekek szexuális bántalmazását ábrázoló „ismert” anyagok felderítése

A gyermekek szexuális bántalmazását ábrázoló „ismert” anyagok felderítésére szolgáló meglévő technológiák kizárólag a tartalom automatikus elemzésére 14 támaszkodnak, és jellemzően hasításon alapulnak. A hasítási technológia a digitális lenyomatképzés egy fajtája. Létrehozza egy kép egyedi digitális aláírását (úgynevezett „digitális lenyomatát”), amelyet aztán összehasonlítanak más fényképek aláírásaival (digitális lenyomataival), hogy megtalálják ugyanannak a képnek a másolatait. Ez a technológia csak az egyező digitális lenyomatokat érzékeli, és nem „vesz észre” olyan anyagokat, amelyek nem egyeznek a digitális lenyomattal. A hash-értékek nem fordíthatók vissza, ezért nem használhatók fel a kép újbóli létrehozására.

A hasítási technológiának számos változata és alkalmazása létezik. A gyermekek szexuális bántalmazását ábrázoló „ismert” anyagok felderítésére használt azonosított eszközök közé tartoznak a következők: i. Microsoft PhotoDNA ; ii Google CSAI Match ; iii. Apple NeuralHash + Private Set Intersection ; iv. Meta SSN++ ; v. PDQ és TMK+PDQF ; vi. MD5 Hash generator (Skype); vii. Safer (Thorn).

A legszélesebb körben használt eszköz a Microsoft PhotoDNA, amelyet több mint 150 szervezet használ 15 . A PhotoDNA-t több mint 10 éve használják, és rendkívül pontos. A tesztek alapján a hamis pozitívok aránya a becslések szerint legfeljebb 1 az 50 milliárdhoz 16 . A PhotoDNA hibaaránya a technológia jellegéből adódóan továbbra is rendkívül alacsony. A technológia kizárólag a korábban azonosított tartalmak másolatait észleli. Jóllehet az eredeti PhotoDNA a gyermekek szexuális bántalmazását ábrázoló képeket észleli, már elérhető olyan változat is, amely a gyermekek szexuális bántalmazását ábrázoló videók felderítésére szolgál.

A technológia folyamatosan fejlődik és egyre jobb lesz. A Microsoft 2023 májusában bejelentette, hogy olyan új megfeleltetési képességeket vezet be, amelyek gyorsabb (mintegy 350-szer gyorsabb) keresést tesznek lehetővé, miközben a pontosság csorbulása nélkül csökkentik a megfeleltetési folyamat költségeit. A Microsoft szerint az új könyvtár a megfordított vagy elforgatott képek átfogóbb felderítését is lehetővé teszi. Emellett az Internet Watch Foundation (IWF) arról számolt be, hogy a közelmúltban továbbfejlesztette a hasítási technológiáját 17 .

2.3.2. A gyermekek szexuális bántalmazását ábrázoló „új” anyagok felderítése

A gyermekek szexuális bántalmazását ábrázoló „új” anyagok felderítésére jelenleg használt technológiák közé tartoznak az osztályozók és a mesterséges intelligencia (MI), amelyek képeket és videókat elemeznek azzal a céllal, hogy felderítsék a korábban azonosított, gyermekek szexuális bántalmazását ábrázoló anyagok alapján létrehozott mintákkal egyező tartalmi mintákat. Az osztályozó egy olyan algoritmus, amely az adatokat a mintafelismerés révén címkézett osztályokba vagy információkategóriákba sorolja. Az osztályozókat adatokon kell betanítani, és minél több adatot táplálnak be, annál pontosabbak.

A gyermekek szexuális bántalmazását ábrázoló „új” anyagok felderítésére szolgáló eszközök közé tartoznak a következők: i Safer (Thorn); ii. Google Content Safety API ; iii. a Facebook MI-technológiája 18 ; iv. Amazon Rekognition ; v. Hive MI a vizuális tartalomhoz .

A kutatások azt mutatják, hogy az osztályozókhoz hasonló automatizált eszközök és rendszerek a leghasznosabb eszközök a gyermekek szexuális bántalmazását ábrázoló anyagok felderítésére 19 . A gyermekek szexuális bántalmazását ábrázoló „új” anyagok felderítését illetően a pontossági arány jelenleg jóval 90 % felett van. Például a Thorn szerint a gyermekek szexuális bántalmazását ábrázoló anyagokkal kapcsolatos osztályozója 99 %-os pontossági arányra állítható be (gyermekek szexuális bántalmazását ábrázoló ismert és új anyagok esetében egyaránt), ami 0,1 %-os hamispozitív-arányt jelent 20 . Ezek a mérőszámok valószínűleg javulni fognak a használat és a visszajelzések növekedésével.

 

2.3.3. A gyermekcsábítás felderítése

A szöveges kommunikáción keresztüli gyermekcsábítás (gyermekkel való kapcsolatfelvétel) felderítésére szolgáló eszközök kizárólag a gyermekek online szexuális bántalmazásának gyanújával kapcsolatos lehetséges konkrét elemekre utaló minták felderítésére használnak technológiákat anélkül, hogy következtetni tudnának a tartalom lényegére. A módszert csevegőalkalmazásokban folytatott szöveges beszélgetésekhez alkalmazzák. A beszélgetéseket egy sor jellemző alapján értékelik, majd egy általános valószínűségi besorolást kapnak, amely annak becsült valószínűségét jelzi, hogy a beszélgetés gyermekcsábításnak minősül-e. E minősítések az egyes vállalatok által meghatározott, azt eldöntő tényezőként szolgálnak, hogy a beszélgetéseket további emberi felülvizsgálatra jelölik-e.

A szövegészlelési műveletekhez használt eszközök közé tartoznak a következők: i. a Microsoft Artemis projektje 21 ; ii. Amazon Rekognition ; iii. a Twitch által kifejlesztett (természetes nyelvi feldolgozáson, szövegosztályozókon alapuló) Spirit AI technológia 22 ; iv. a Meta házon belüli, saját fejlesztésű gépi tanulási „rangsoroló” osztályozója (belső nyelvi elemzési technológia metaadatokkal ötvözve); v. Roblox csevegésszűrő 23 ; iv. a Thorn és a Tech Coalition gépi tanuláson és osztályozókon alapuló technikai megoldása 24 .

A gyermekek szexuális bántalmazását ábrázoló „új” anyagok azonosításához hasonlóan a gyermekcsábítással kapcsolatos tartalmak azonosításához a technológiát ilyen tartalmakkal kell betanítani. Az ilyen technológiák fejlesztése és tökéletesítése szempontjából továbbra is az ilyen tanulóadatokhoz való hozzáférés jelenti a legnagyobb kihívást.

A Thorn a Tech Coalition szövetséggel és a tagjaival partnerségben új kezdeményezést indított azzal a céllal, hogy a szövegalapú kommunikációt kínáló különböző platformok számára hasznos és használható technikai megoldást dolgozzanak ki az online gyermekcsábítási kísérletek azonosítására és kezelésére. A megoldás a Thorn csapatának egy olyan természetes nyelvi feldolgozáson alapuló osztályozóval, illetve gépi tanulási modellel kapcsolatos munkáján alapul majd, amely felismeri és kategorizálja, ha az online tartalom vagy viselkedés a gyermekcsábításhoz kapcsolódó meghatározott „osztályokba” tartozik (például szexuális anyagoknak való kitettség vagy kiskorúakkal való személyes találkozás keresése), valamint egy általános pontszámot ad arra vonatkozóan, hogy egy beszélgetés mennyire kapcsolódik a gyermekcsábításhoz 25 . 

2.3.4. A mesterséges intelligencián alapuló csevegőrobotok és művészeti/képgenerátorok által felvetett új kihívások

A mesterséges intelligencián alapuló csevegőrobotok, mint a ChatGPT (az OpenAI által kifejlesztett nagy nyelvi modell), és az olyan művészeti/képgenerátorok, mint a DALL-E 26 és a Midjourney 27 , kifejlesztése és kiadása nagy figyelmet keltett a nyilvánosság körében, főként azért, mert gyorsan képesek kész válaszokat adni, vagy valósághű képeket létrehozni, amelyek végtelen sok különböző kontextusban alkalmazhatók. Ezek az új eszközök gyorsan nagy népszerűségre tettek szert, és használatuk széles körben elterjedt. A technológiai vállalatok – köztük a Microsoft és a Google – vezető termékeket finanszíroznak és fejlesztenek, az új technológiákat pedig rendszeresen finomítják és javított változatokat dobnak piacra.

Jóllehet ezek a technológiák nagyszerű lehetőségeket kínálnak a vállalkozások és a polgárok számára egyaránt, egyúttal azonban kockázatot is jelenthetnek számukra. Az ilyen termékekkel kapcsolatos aggodalmak közé tartozik, hogy a bűnözők hogyan kívánják őket kihasználni aljas céljaikra, ideértve a gyermekek szexuális kizsákmányolását is.

Amint arról az Europol beszámolt, bár a ChatGPT által nyújtott összes információ szabadon elérhető az interneten, az eszköz jelentősen megkönnyíti a rosszindulatú szereplők számára, hogy „előzetes ismeretek nélkül tájékozódjanak számos lehetséges bűnügyi területről, az otthonokba való betöréstől kezdve a terrorizmusig, a kiberbűnözésig és a gyermekek szexuális bántalmazásáig”. Ez lehetővé teszi az említett személyek számára, hogy jobban megértsék, később pedig végrehajtsák az ilyen típusú bűncselekményeket 28 .

Az OpenAI szabályai korlátozzák a ChatGPT azon képességét, hogy reagáljon a szexuális, gyűlöletkeltő, erőszakos vagy önkárosítást elősegítő tartalmakra. Mindazonáltal ezek a biztosítékok meglehetősen könnyen megkerülhetők prompt engineering segítségével 29 . A mesterséges intelligencián alapuló csevegőrobotok (pl. Snapchat általi) közelmúltbeli alkalmazása jól szemlélteti, hogy azok miként léphetik át a sértő vagy veszélyes interakcióktól elválasztó határvonalat, ideértve a gyermekek szexuális bántalmazását is 30 . Most, hogy egyre több vállalat fontolgatja a mesterséges intelligencián alapuló csevegőrobotok tesztelését a platformjain (Instagram, esetleg WhatsApp és Messenger), gondosan meg kell vizsgálni a felhasználókra, különösen a gyermekekre és fiatalokra gyakorolt hatásokat.

Ezek az új eszközök megfelelő biztosítékokat is igényelnek annak érdekében, hogy ne lehessen visszaélni velük mesterséges intelligenciával előállított, gyermekek szexuális bántalmazását ábrázoló mélykamu anyagok előállítására 31 . A mesterségesintelligencia-eszközök fejlődési ütemét tekintve valószínű, hogy hamarosan lényegesen könnyebbé válik a tényleges képektől megkülönböztethetetlen képeket létrehozni. Ez számos lényeges kihívást vet fel a gyermekek szexuális bántalmazása elleni küzdelem terén, mivel a bűnüldöző szervek számára komoly nehézséget jelenthet, hogy kivizsgálják és büntetőeljárás alá vonják a gyermekek szexuális bántalmazását ábrázoló anyagokkal kapcsolatos ügyeket, valamint azonosítsák a valódi áldozatokat, ha a gyermekek szexuális bántalmazását ábrázoló, számítógép által generált, rendkívül valósághű anyagok nagyon elterjednek az interneten 32 .

Kutatások kimutatták, hogy a gyermekek szexuális bántalmazását ábrázoló anyagokhoz való hozzáférés gyakran az első lépés a tényleges bántalmazás felé, függetlenül attól, hogy az anyag valós vagy valósághű bántalmazást és kizsákmányolást ábrázol-e 33 . Ennélfogva a gyermekek szexuális bántalmazását ábrázoló, mesterséges intelligencia által előállított, mélykamu anyagok terjesztésének korlátozása – mint az elkövetői oldali megelőzés egyik formája – döntő jelentőséggel bír. A másik fő probléma, hogy a gyermekcsábítók kihasználhatják a ChatGPT fejlett szöveggeneráló képességeit, és ezt a meglévő ingyenes, szövegből képet generáló mesterséges intelligenciával ötvözve gyorsan és könnyen létrehozhatnak hamis profilokhoz és fiatalokkal folytatott hihető beszélgetésekhez szükséges tartalmat, hogy az interneten gyermekeket vegyenek célba. „Bár a ChatGPT önmagában nem ösztönzi az embereket arra, hogy internetes gyermekcsábítókká váljanak, lehetővé teszi bárki számára, hogy a gyermekekkel folytatott online beszélgetésekhez igénybe vegye az MI-technológia segítségét, hogy meggyőzőbbé és hitelesebbé tegye magát az áldozatai számára, segítve ezzel a manipulációt” 34 . A generatív mesterséges intelligencia hozzájárulhat az online gyermekcsábítási ügyek számának növekedéséhez, és akár „nagy léptékben automatizálhatja a gyermekcsábítást” 35 .

3.KÖVETKEZTETÉSEK

Szolgáltatók által hozott végrehajtási intézkedések

A szolgáltatók jelentéseiből kiderült, hogy a gyermekek online szexuális bántalmazásának ideiglenes rendeletnek megfelelő felderítéséhez és bejelentéséhez különböző felderítési technológiákat és eljárásokat alkalmaznak. Mindegyik szolgáltató arról számolt be, hogy e bejelentéseket elküldi az NCMEC-nek. Ami a szolgáltatók által kezelt személyes adatok típusát és mennyiségét illeti, a jelentések a gyűjtött forgalmi adatok sokféleségéről és a kezelt adatmennyiségek különböző szintű részletezettségéről árulkodtak, ami megakadályozza, hogy a Bizottság a szóban forgó adatszolgáltatási időszakra (2021. július–2023. január 31.) vonatkozóan egységes uniós szintű adatokat szerezzen a szolgáltatókkal kapcsolatban.

A szolgáltatók nem adták meg a különböző alkalmazott technológiák hibáinak (hamis pozitívok) számát és arányát alkalmazott technológiák szerinti bontásban, ami arra utal, hogy a gyermekek online szexuális bántalmazásának felderítését illetően többszintű megközelítést alkalmaznak, amelyet emberi felülvizsgálattal egészítenek ki. Ugyanakkor a szolgáltatók számos intézkedést és biztosítékot vezettek be, hogy a felderítés során korlátozzák és csökkentsék a hibaarányt. Ezenkívül a szolgáltatók arról is beszámoltak, hogy adatmegőrzési szabályzattal és adatvédelmi biztosítékokkal rendelkeznek, amelyeket adatvédelmi szabályzatukban vagy nyilatkozataikban határoztak meg, és amelyeket általános iparági adatvédelmi biztosítékok és intézkedések támogatnak.

Tagállamok által hozott végrehajtási intézkedések

Az ideiglenes rendelet (a 8. cikke alapján) egyúttal arra kötelezi a tagállamokat, hogy szolgáltassanak kulcsfontosságú statisztikákat a gyermekek online szexuális bántalmazásának felderített és a bűnüldöző hatóságaiknak bejelentett eseteiről, az azonosított gyermekáldozatok számáról és az elítélt elkövetők számáról. Mivel a tagállamok többnyire eltérő adatszolgáltatási időszakokra vonatkozóan szolgáltattak adatokat, a benyújtott adatok alapján nem lehetett kiszámítani a gyermekek felderített online szexuális bántalmazását illetően uniós szinten kapott bejelentések teljes számát. Ezenkívül a tagállamok által kapott és küldött bejelentések eltérhetnek a megtámadható bejelentésektől, azaz a nyomozáshoz használható bejelentésektől, illetve a bejelentett esetek számától. Csak néhány tagállam jelölte meg, hogy milyen típusú szolgáltatók szolgáltatásainál észlelték gyermekek online szexuális bántalmazását. Egyes esetekben a nemzeti statisztikai adatok nem tesznek különbséget a szolgáltatók és a gyermekek szexuális bántalmazása ellen közérdekből fellépő egyéb szervezetek által benyújtott bejelentések alapján kivizsgált bűncselekmények és az egyéb bejelentések alapján kivizsgált bűncselekmények között.

Ennek megfelelően a kapott jelentések alapján nem lehetett nemek szerint megkülönböztetve megállapítani, hogy az Unióban összesen hány gyermek esett áldozatul a gyermekek online szexuális bántalmazásának. Ennek okai közé tartoznak például a következők: eltérő időszakokra vonatkozó adatszolgáltatás; a gyermekek online szexuális bántalmazásának áldozatává vált gyermekek meghatározásához használt különböző korhatárok; az ilyen részletességű statisztikák nemzeti szintű gyűjtésének elmulasztása technikai vagy egyéb korlátok miatt; a gyermekek online és offline szexuális bántalmazásának áldozatává vált gyermekek közötti különbségtétel elmulasztása stb. Egyes tagállamok a statisztikáikba a saját készítésű anyagokat előállító gyermekek is beleveszik. Ennél is fontosabb, hogy a statisztikák gyakran nem tesznek különbséget a szolgáltatók és a gyermekek szexuális bántalmazása ellen közérdekből fellépő egyéb szervezetek által a rendelet értelmében benyújtott bejelentések alapján azonosított áldozatok és az egyéb okok és eszközök alapján azonosított áldozatok között.

Az elítélt elkövetők számának áttekintése szintén töredékes. Bizonyos esetekben nem állnak rendelkezésre ilyen adatok, mivel az adatbázisok nem rögzítették az eredeti beterjesztés forrását, és így az adatok nem tesznek különbséget a rendeletnek megfelelően benyújtott bejelentések és az egyéb bejelentések alapján elítélt elkövetők között. Egyes esetekben a nemzeti informatikai rendszerekben szereplő adatok sem tesznek különbséget az online és offline elkövetett bűncselekmények között. Ráadásul az egy adott időszakra bejelentett, ítéletekre vonatkozó statisztikák nem feltétlenül kapcsolódnak az adott időszakban beérkezett bejelentésekhez, hanem korábbi időszakokból származó bejelentésekhez is kapcsolódhatnak. Az ítéletek számáról gyűjtött statisztikák eltérhetnek az elítélt elkövetők számától is (mivel előfordulhat, hogy egy elkövető esetében több ítélet is született).

A tagállamok – amelyek a jelek szerint nem mindig gyűjtik szisztematikusan és megfelelően az adatokat – által benyújtott heterogén statisztikák és a fent említett tényezők nem teszik lehetővé, hogy átfogó képet kapjunk a gyermekek online szexuális bántalmazásáról beérkezett bejelentésekről, az e bűncselekmény áldozataként azonosított gyermekek számáról vagy a rendelet alapján uniós szinten elítélt elkövetők számáról. Az, hogy a legtöbb tagállam esetében jelentős eltérés mutatkozik a tagállamnak az NCMEC által küldött bejelentések NCMEC által megadott száma és a tagállam által hozzá beérkezettként feltüntetett bejelentések száma között, arra utal, hogy az adatgyűjtés és jelentéstétel nem teljes körű. Egyes tagállamok megerősítették, hogy illetékes hatóságaiknál a gyermekek online szexuális bántalmazásával kapcsolatos bűncselekmények kivizsgálásáért felelős új osztályok létrehozásához kapcsolódóan szervezeti változtatásokra vagy átszervezésekre kerül sor. Egyes tagállamokban új informatikai rendszereket is bevezetnek, és a nemzeti hatóságokat felkérték, hogy módosítsák nyilvántartási eljárásaikat és statisztikáikat. Ez kedvező feltételeket teremthet ahhoz, hogy a jövőben pontosabb statisztikák álljanak rendelkezésre a tagállamokból. A Bizottság mindenesetre szükség esetén élni fog a Szerződések által rá ruházott hatáskörökkel annak biztosítása érdekében, hogy a tagállamok eleget tegyenek az ideiglenes rendelet szerinti jelentéstételi kötelezettségeiknek.

Általános megfontolások

Összességében e jelentés jelentős eltéréseket mutat mind a szolgáltatók, mind a tagállamok által a gyermekek online szexuális bántalmazása elleni küzdelemmel kapcsolatban az ideiglenes rendelet értelmében szolgáltatott adatok tekintetében. A rendelkezésre álló adatok és az adatszolgáltatás – például a gyermekek szexuális bántalmazásának megelőzéséről és az ellene folytatott küzdelemről szóló rendeletre irányuló javaslatban 36 foglaltak szerinti – nagyobb fokú egységesítése hozzájárulna ahhoz, hogy jobb képet kapjunk az e bűncselekmény elleni küzdelemmel kapcsolatos érintett tevékenységekről. Úgy tűnik, hogy a szolgáltatók és a tagállamok részéről további erőfeszítésekre van szükség ahhoz, hogy az ideiglenes rendelet követelményeivel összhangban gondoskodjanak az adatgyűjtésről és az jelentéstételről.

A rendelkezésre álló adatok azt mutatják, hogy a jelenlegi önkéntes felderítési és jelentéstételi rendszerben előfordulhat, hogy az esetlegesen gyermekek szexuális bántalmazását ábrázoló anyagként automatikusan megjelölt anyagokról az emberi felülvizsgálat során bebizonyosodik, hogy nem gyermekek szexuális bántalmazását ábrázoló anyagok. Ennek oka lehet az Unióban jogellenesnek minősített, gyermekek szexuális bántalmazását ábrázoló anyag felderítésére szolgáló közös digitális lenyomatok és egyéb mutatók hiánya, vagy a különböző joghatóságok – különösen az EU és az USA – eltérő jogi normái, különösen, ami a vonatkozó fogalommeghatározásokat illeti. Az adatok a felülvizsgálati kérelmek száma és a felülvizsgálatok sikerességi arányai terén is nagy eltéréseket mutatnak, amelyekből nem lehet következtetéseket levonni, mivel különösen a felülvizsgálati kérelmek hatályáról és a visszaállítás okairól nem áll rendelkezésre információ.

Ami a 9. cikk (2) bekezdésében foglalt, az adatkezelési feltételekre vonatkozó követelményeket illeti, a szolgáltatott információkból kitűnik, hogy az alkalmazott technológiák olyan technológiai alkalmazásoknak felelnek meg, amelyeket kizárólag a gyermekek online szexuális bántalmazását ábrázoló anyagok felderítésére és eltávolítására, valamint a bűnüldöző hatóságok és a gyermekek szexuális bántalmazása ellen közérdekből fellépő szervezetek felé történő bejelentésére terveztek. Nem szolgáltak információval arról, hogy a technológiákat a technika jelenlegi állásával összhangban és a magánéletet a lehető legkevésbé sértő módon vezették-e be, ahogy arról sem, hogy elvégezték-e az (EU) 2016/679 rendelet 35. cikkében említett előzetes adatvédelmi hatásvizsgálatot, illetve lefolytatták-e az ugyanezen rendelet 36. cikkében említett előzetes konzultációs eljárást.

Ami a rendelet arányosságát illeti, a központi kérdés az, hogy az ideiglenes rendeletnek sikerül-e elérnie azt az egyensúlyt, amelyet az uniós jogalkotó egyrészt a szóban forgó rendkívül súlyos bűncselekmények elleni hatékony küzdelemre irányuló közérdekű cél elérése, valamint a gyermekek alapvető jogainak (méltóság, testi épség, embertelen vagy megalázó bánásmód tilalma, magánélet, a gyermekek jogai) szükséges védelme, másrészt a jogszabály hatálya alá tartozó szolgáltatások felhasználói alapvető jogainak (magánélet, személyes adatok védelme, véleménynyilvánítás szabadsága, hatékony jogorvoslat) védelme között kívánt megteremteni. A rendelkezésre álló adatok nem elegendőek ahhoz, hogy e tekintetben végleges következtetéseket lehessen levonni. A szexuális bántalmazás gyermekek életére és jogaira gyakorolt rendkívül káros hatására tekintettel a megmentett gyermekek számát illetően nem lehet és nem is lenne helyénvaló számszerű mércét alkalmazni az arányosság értékelésekor. Mindazonáltal a fentiek fényében semmi sem utal arra, hogy az eltérés aránytalan lenne.

A rendelkezésre álló adatok hiányosságai ellenére, amelyek számos tagállamban nem engednek betekintést az önkéntes bejelentések alkalmazásába, a rendelkezésre álló adatokból egyértelműen kitűnik, hogy az adatszolgáltatási időszakban több ezer gyermeket azonosítottak, több mint kétezer ítéletet hoztak, és több millió képet és videót távolítottak el, ily módon csökkentve a másodlagos viktimizáció esélyét. Ezért megállapítható, hogy az önkéntes bejelentés jelentősen hozzájárult számos gyermek – többek között folyamatos bántalmazással szembeni – védelméhez, és az ideiglenes rendelet hatékonynak tűnik.

(1)

     A Twitter az átnevezése előtt nyújtotta be észrevételeit; a továbbiakban e jelentés további részében „X” néven hivatkozunk rá.

(2)

     A Meta és az X nem nevezte meg kifejezetten a konkrét cikket.

(3)

     A Meta és az X nem nevezte meg kifejezetten a konkrét cikket. 

(4)

     Zárójelben azok a szolgáltatók szerepelnek, amelyek kifejezetten beszámoltak a konkrét intézkedésekről. Ha egyes szolgáltatók nem szerepelnek a felsorolásban, az nem jelenti azt, hogy nem alkalmazzák az adott intézkedést, hanem csak azt, hogy nem említették a jelentésükben.

(5)

     Az X adatvédelmi szabályzata, 4. How Long We Keep Information [Mennyi ideig őrizzük meg az információkat?], Elérhető a következő címen: https://twitter.com/hu/privacy

(6)

     Zárójelben azok a szolgáltatók szerepelnek, amelyek kifejezetten beszámoltak a konkrét intézkedésekről. Ha egyes szolgáltatók nem szerepelnek a felsorolásban, az nem jelenti azt, hogy nem alkalmazzák az adott intézkedést, hanem csak azt, hogy nem említették a jelentésükben.

(7)

     Az ideiglenes rendelet 8. cikkének (2) bekezdése szerinti bizottsági kötelezettségeknek megfelelően a https://home-affairs.ec.europa.eu/policies/internal-security/child-sexual-abuse/legal-framework-protect-children_en oldalon közzétették a közérdekből fellépő olyan szervezetekre vonatkozó információkat, amelyeknek a szolgáltatók e rendelet alapján bejelentik a gyermekek online szexuális bántalmazását.

(8)

     Németország által az (EU) 2021/1232 rendelet 8. cikkével összhangban benyújtott jelentés, amely 2022. október 18-án érkezett be. Az NCMEC a beérkezett és az uniós tagállamokkal – köztük Németországgal – kapcsolatos bejelentésekre vonatkozó valamennyi adatot az országonkénti CyberTipline-jelentéseiben teszi közzé. Lásd: NCMEC, 2021. évi országonkénti CyberTipline-jelentések , hozzáférés: 2023. július; NCMEC, 2022. évi országonkénti CyberTipline-jelentések, hozzáférés: 2023. július.

(9)

     https://www.bka.de/SharedDocs/Kurzmeldungen/DE/Kurzmeldungen/230623_Mindestspeicherfristen_IP-Adressen.html

(10)

     NCMEC, 2021. évi országonkénti CyberTipline-jelentések , hozzáférés: 2023. november.

(11)

     NCMEC, 2022. évi országonkénti CyberTipline-jelentések, hozzáférés: 2023. november.

(12)

     Az NCMEC adatai itt érhetők el.

(13)

     Lásd például a gyermekek szexuális bántalmazásának megelőzéséről és az ellene folytatott küzdelemről szóló rendeletre irányuló javaslatot kísérő hatásvizsgálatban a vállalatok önkéntes bejelentésének köszönhetően az Unióban indított mintaesetek listáját (lásd konkrétan a 7. mellékletet).

(14)

     A szolgáltatók a metaadatokat nem tekintik hatékony eszköznek a gyermekek szexuális bántalmazását ábrázoló anyagok felderítésében. Lásd különösen: Pfefferkorn, R., Stanford Internet Observatory, Content-Oblivious Trust and Safety Techniques: Results from a Survey of Online Service Providers, 2021. szeptember 9., 10–11. o.

(15)

     Microsoft, Digitális Bűncselekmények Osztálya .

(16)

      Hany Farid, a PhotoDNA fejlesztője által a House Committee on Energy and Commerce (amerikai Energiaügyi és Kereskedelmi Bizottság) részére „Fostering a Healthier Internet to Protect Consumers” címmel benyújtott szakvélemény, 2019. október 16.  

(17)

     Internet Watch Foundation (IWF), 2022. évi éves jelentés , 129–133. o.

(18)

     A Facebook eszközéről itt és itt talál további információkat, amely a mesterséges intelligencia és gépi tanulás segítségével a gyermekmeztelenség és az eddig nem ismert, gyermekeket kizsákmányoló tartalmak proaktív felderítésére szolgál.

(19)

     Pfefferkorn, R.: Content-Oblivious Trust and Safety Techniques: Results from a Survey of Online Service Providers, Journal of Online Trust and Safety, 2022. február, 1–38. o.

(20)

     Thorn, Thorn’s Automated Tool to Remove Child Abuse Content at Scale Expands to More Platforms through AWS Marketplace , 2021. május 24.  

(21)

     A Microsoft Artemis projektjét a The Meet Group, a Roblox, a Kik és a Thorn együttműködésével fejlesztették ki.

(22)

   További információkért lásd: https://safety.twitch.tv/s/article/Our-Work-to-Combat-Online-Grooming?language=en_US  

(23)

     A Roblox a nem megfelelő tartalom tekintetében, valamint a személyes adatok, például a lakcímek közzétételének megakadályozása céljából a 12 éves és annál fiatalabb játékosok bejegyzéseit és csevegéseit szűri. Ez a szűrőrendszer a Roblox minden kommunikációs területére – a nyilvános és a magánkommunikációra egyaránt – kiterjed. Roblox, Safety Features: Chat, Privacy & Filtering , hozzáférés: 2023. július.

(24)

     Tech Coalition, New Technology to Help Companies Keep Young People Safe , 2023. június 20.

(25)

     Tech Coalition, New Technology to Help Companies Keep Young People Safe , 2023. június 20.

(26)

     A DALL-E olyan MI-rendszer, amely természetes nyelvi leírás alapján valósághű képeket és művészeti alkotásokat képes létrehozni.

(27)

     A Midjourney egy generatív mesterséges intelligencián alapuló program és szolgáltatás, amely természetes nyelvi leírások alapján készít képeket.

(28)

     Europol, ChatGPT – The impact of Large Language Models on Law Enforcement , 2023, ISBN 978-92-95220-57-7, 7. o.

(29)

     Swanson, S. M., ChatGPT Generated Child Sex Abuse When Asked to Write BDSM Scenarios , Vice, 2023. március 6.; Mitchell, A., ChatGPT gives sick child sex abuse answer, breaking its rules, New York Post, 2023. július 24.; Europol, ChatGPT – The impact of Large Language Models on Law Enforcement , 2023, ISBN 978-92-95220-57-7, 5. o.

(30)

     Fowler, G.A., Snapchat tried to make a safe AI. It chats with me about booze and sex , The Washington Post, 2023. március 14.; Vincent, J., Instagram is apparently testing an AI chatbot that lets you choose from 30 personalities , The Verge, 2023. július 7.

(31)

     Crawford, A., Smith, T., Illegal trade in AI child sex abuse images exposed , BBC, 2023. június 27.

(32)

     Thiel, D., Stroebel, M. és Portnoff, R. (2023). Generative ML and CSAM: Implications and Mitigations . Stanford Digital Repository. Elérhető a következő címen: https://purl.stanford.edu/jv206yg3793 .  https://doi.org/10.25740/jv206yg3793 . 2. o.

(33)

     Protect Children, Protect Children’s research in the dark web is revealing unprecedented data on CSAM users , 2021. június 6.; RAINN, What is Child Sexual Abuse Material (CSAM) , 2022. augusztus 25.

(34)

     Breck Foundation, Is artificial intelligence putting children at risk? , 2023. február 9., frissítve: 2023. április 3.

(35)

     Butler, J., AI tools could be used by predators to ‘automate child grooming’, eSafety commissioner warns , The Guardian, 2023. május 19.  

(36)

     Javaslat – Az Európai Parlament és a Tanács rendelete a gyermekek szexuális bántalmazásának megelőzésére és az ellene folytatott küzdelemre vonatkozó szabályok megállapításáról, COM(2022) 209 final .