EIROPAS KOMISIJA
Briselē, 19.12.2023
COM(2023) 797 final
KOMISIJAS ZIŅOJUMS EIROPAS PARLAMENTAM UN PADOMEI
par to, kā tiek īstenota Eiropas Parlamenta un Padomes Regula (ES) 2021/1232 (2021. gada 14. jūlijā) par pagaidu atkāpi no konkrētiem Direktīvas 2002/58/EK noteikumiem attiecībā uz tehnoloģiju izmantošanu, ko veic numurneatkarīgu starppersonu sakaru pakalpojumu sniedzēji, lai apstrādātu persondatus un citus datus nolūkā apkarot seksuālu vardarbību pret bērniem tiešsaistē
SATURA RĀDĪTĀJS
TERMINU UN SAĪSINĀJUMU SARAKSTS
1.
IEVADS
2.
ĪSTENOŠANAS PASĀKUMI
2.1.
Persondatu apstrāde, ko veic pakalpojumu sniedzēji (3. panta 1. punkta g) apakšpunkta vii) punkts)
2.1.1.
Apstrādāto datu veids un apjoms
2.1.2. Apstrādes pamatojums saskaņā ar Regulu (ES) 2016/679
2.1.3.
Pamatojums persondatu nosūtīšanai ārpus Savienības saskaņā ar VDAR V nodaļu (attiecīgā gadījumā)
2.1.4.
Konstatēto jeb identificēto seksuālas vardarbības pret bērniem tiešsaistē gadījumu skaits, nošķirot CSAM un uzmākšanos bērniem
2.1.5.
Lietotāju pārsūdzības mehānismi un iznākums
2.1.6.
Dažādo izmantoto tehnoloģiju kļūdu skaits un īpatsvars (pseidopozitīvi rezultāti)
2.1.7.
Pasākumi, kas piemēroti, lai ierobežotu kļūdu īpatsvaru, un panāktais kļūdu īpatsvars
2.1.8.
Datu glabāšanas politika un saskaņā ar VDAR piemērotie datu aizsardzības pasākumi
2.1.9.
To organizāciju nosaukumi, kuras darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem un ar kurām saskaņā ar attiecīgo regulu ir kopīgoti dati.
2.2.
Dalībvalstu statistika (8. pants)
2.2.1. Ziņojumu par konstatētajiem seksuālas vardarbības pret bērniem tiešsaistē gadījumiem kopējais skaits
2.2.2. Identificēto bērnu skaits
2.2.3. Notiesāto likumpārkāpēju skaits
2.3.
Tehnoloģiju attīstība
2.3.1. Zināmu CSAM atklāšana
2.3.2. Jaunu CSAM atklāšana
2.3.3. Iedraudzināšanas atklāšana
2.3.4. Mākslīgā intelekta sarunbotu un mākslas darbu / attēlu ģeneratoru radītās jaunās problēmas
3.
SECINĀJUMI
TERMINU UN SAĪSINĀJUMU SARAKSTS
|
Termins vai saīsinājums
|
Atšifrējums/definīcija
|
|
MI
|
Mākslīgais intelekts
|
|
API
|
Lietojumprogrammas saskarne
|
|
CG-CSAM
|
Ar datoru ģenerēts materiāls, kurā atspoguļota seksuāla vardarbība pret bērniem
|
|
ChatGPT
|
ChatGPT (Chat Generative Pre-trained Transformer) ir ģeneratīva MI veids. Tas ir OpenAI izstrādāts sarunbots, kas balstīts uz lielo valodas modeli un ļauj lietotājiem precizēt un virzīt sarunu, nosakot vēlamo garumu, formātu, stilu, detalizācijas līmeni un valodu.
|
|
Klasifikatori
|
Mākslīgā intelekta veids, algoritms, kas šķiro datus marķētās klasēs vai kategorijās
|
|
Satura drošuma API klasifikators
|
Google satura drošuma API klasifikators izmanto programmatisku piekļuvi un mākslīgo intelektu, kas palīdz klasificēt un prioritizēt miljardiem attēlu pārskatīšanai
|
|
CSA
|
Seksuāla vardarbība pret bērnu
|
|
CSAI Match
|
CSAI Match ir YouTube inženieru izstrādāta tehnoloģija, ar ko identificē gadījumus, kad tiek atkārtoti augšupielādi iepriekš identificēti video, kuros atspoguļota seksuāla vardarbība pret bērniem
|
|
CSAM
|
Materiāls, kurā atspoguļota seksuāla vardarbība pret bērniem, piemēram, attēli un video, kuros redzama CSA
|
|
CSA direktīva
|
Eiropas Parlamenta un Padomes Direktīva 2011/93/ES (2011. gada 13. decembris) par seksuālas vardarbības pret bērniem, bērnu seksuālas izmantošanas un bērnu pornogrāfijas apkarošanu un ar kuru aizstāj Padomes Pamatlēmumu 2004/68/TI, OV L 335, 17.12.2011., 1.–14. lpp.
|
|
CSEA
|
Bērnu seksuāla izmantošana un seksuāla vardarbība pret bērniem
|
|
CSA tiešsaistē
|
Kopējs termins, ko izmanto, lai apzīmētu CSA direktīvā definētos trīs seksuālas vardarbības pret bērniem veidus, proti: bērnu pornogrāfiju, pornogrāfisku priekšnesumu un uzmākšanos bērniem (“iedraudzināšanu”), kā definēts Pagaidu regulā (2. panta 3. punkts)
|
|
ES
|
Eiropas Savienība
|
|
VDAR
|
Eiropas Parlamenta un Padomes Regula (ES) 2016/679 (2016. gada 27. aprīlis) par fizisku personu aizsardzību attiecībā uz personas datu apstrādi un šādu datu brīvu apriti un ar ko atceļ Direktīvu 95/46/EK (Vispārīgā datu aizsardzības regula), OV L 119, 4.5.2016., 1.–88. lpp.
|
|
Iedraudzināšana
|
Likumpārkāpēji veido uzticēšanos un attiecības ar bērnu, lai iegūtu piekļuvi nepilngadīgajam seksuālas izmantošanas vai vardarbības nolūkā. Oficiāli saukta par uzmākšanos bērniem, kā definēts CSA direktīvas 6. pantā
|
|
Jaucējkods
|
Unikāls digitālais kods, kas izveidots ar matemātisku algoritmu (“jaucējalgoritmu”) un kļūst par faila parakstu jeb tā jaucējkodu
|
|
Pagaidu regula
|
Eiropas Parlamenta un Padomes Regula (ES) 2021/1232 (2021. gada 14. jūlijs) par pagaidu atkāpi no konkrētiem Direktīvas 2002/58/EK noteikumiem attiecībā uz tehnoloģiju izmantošanu, ko veic numurneatkarīgu starppersonu sakaru pakalpojumu sniedzēji, lai apstrādātu persondatus un citus datus nolūkā apkarot seksuālu vardarbību pret bērniem tiešsaistē, OV L 274, 30.7.2021., 41.–51. lpp.
|
|
LLM
|
Lielais valodas modelis (LLM) ir mākslīgā intelekta modeļa veids, kas ir apmācīts, izmantojot dziļās mācīšanās algoritmus, lai atpazītu, ģenerētu, tulkotu un/vai apkopotu milzīgu daudzumu cilvēku rakstītās valodas un teksta datu.
|
|
MD5
|
Kriptogrāfiskā ziņojuma autentifikācijas koda algoritms izmantošanai internetā
|
|
Meta SSN++
|
Meta izstrādāts MI modelis, kas spēj noteikt gandrīz precīzus dublikātus.
|
|
NCMEC
|
Bezvēsts pazudušo un izmantoto bērnu nacionālais centrs (National Centre for Missing and Exploited Children) — ASV privāta bezpeļņas organizācija, kuru saskaņā ar ASV tiesību aktiem tiešsaistes pakalpojumu sniedzēji informē par iespējamas seksuālas vardarbības pret bērniem gadījumiem, ko tie konstatējuši savos tīklos
|
|
PDQ un TMK+PDQF
|
Facebook izmantotie rīki kaitīga satura noteikšanai. PDQ ir fotoattēlu salīdzināšanas tehnoloģija; TMK+PDQF ir video salīdzināšanas tehnoloģija.
|
|
PhotoDNA
|
Visplašāk izmantotais rīks, kura pamatā ir jaucējalgoritma tehnoloģija un kurš ir pieejams bez maksas, pamatojoties uz licencēšanas līgumu, kas pielāgots, lai novērstu ļaunprātīgu izmantošanu un izmantošanu citiem mērķiem, nevis CSA atklāšanai
|
1.IEVADS
Ar Pagaidu regulas (turpmāk arī “regula”) 9. pantu Komisijai uzlikts pienākums sagatavot ziņojumu par tās īstenošanu, pamatojoties uz ziņojumiem, ko iesnieguši starppersonu sakaru pakalpojumu sniedzēji (turpmāk “pakalpojumu sniedzēji”) par persondatu apstrādi, un dalībvalstu sniegto statistiku. Saskaņā ar iepriekš minēto noteikumu īstenošanas ziņojumā Komisija jo īpaši novērtē:
a) attiecīgos nosacījumus attiecīgo persondatu un citu saskaņā ar regulu apstrādāto datu apstrādei;
b) regulā paredzētās atkāpes samērīgumu, cita starpā izvērtējot statistiku, ko dalībvalstis iesniegušas saskaņā ar 8. pantu;
c) tehnoloģiju attīstību saistībā ar darbībām, uz kurām attiecas regula, un to, cik lielā mērā šāda attīstība uzlabo precizitāti un samazina kļūdu skaitu un īpatsvaru (pseidopozitīvi rezultāti).
Šā saskaņā ar Pagaidu regulu sagatavotā īstenošanas ziņojuma pamatā ir dati, kas iegūti no pakalpojumu sniedzēju un dalībvalstu sniegtajiem ziņojumiem saskaņā ar regulas 3. panta 1. punkta g) apakšpunkta vii) punktu un 8. pantu. Minētie ziņojumi atklāja būtiskas atšķirības datu pieejamībā, savākto datu veidos un tādējādi arī pakalpojumu sniedzēju un dalībvalstu savākto datu salīdzināmībā. Tā kā regulā nav noteikta ziņojuma veidne, pakalpojumu sniedzēji sniedza dažāda veida informāciju, kas ne vienmēr bija salīdzināma; tāpēc Komisijas dienesti veica turpmākus pasākumus, lai nodrošinātu datu pareizu interpretāciju. Lielākā daļa dalībvalstu nespēja laikus sniegt datus, un vairākas no tām līdz šā ziņojuma publicēšanai nespēja sniegt nekādus datus. Tas būtiski ietekmēja ziņojuma publicēšanas laiku, pilnīgumu un lietderību. Neraugoties uz centieniem nodrošināt datu saskaņotību un salīdzināmību, joprojām pastāv būtiskas atšķirības, kas atspoguļotas turpmāk tabulās, kurās arī nav iekļauti dati par visiem pakalpojumu sniedzējiem vai dalībvalstīm visos punktos.
Šā īstenošanas ziņojuma mērķis ir sniegt faktisku pārskatu par pašreizējo stāvokli saistībā ar Pagaidu regulas īstenošanu, pamatojoties uz pieejamajiem datiem. Ziņojumā nav sniegtas nekādas regulas interpretācijas, un tajā nav pausta nekāda nostāja par to, kā regula ir interpretēta un piemērota praksē.
2.ĪSTENOŠANAS PASĀKUMI
2.1.Persondatu apstrāde, ko veic pakalpojumu sniedzēji (3. panta 1. punkta g) apakšpunkta vii) punkts)
Pagaidu regulas 3. panta 1. punkta g) apakšpunkta vii) punktā ir paredzēti nosacījumi, saskaņā ar kuriem pakalpojumu sniedzējiem, kas darbojas saskaņā ar tajā paredzēto atkāpi, līdz 2022. gada 3. februārim un pēc tam katru gadu līdz 31. janvārim jāpublicē un jāiesniedz kompetentajai uzraudzības iestādei un Komisijai ziņojums par persondatu apstrādi saskaņā ar šo regulu. Google, LinkedIn, Meta, Microsoft un X (iepriekš Twitter) iesniedza ziņojumus par 2021. un 2022. gadu.
2.1.1.Apstrādāto datu veids un apjoms
Pakalpojumu sniedzēji ziņoja, ka apstrādā gan satura datus, gan informācijas plūsmas datus.
Attiecībā uz satura datiem, kas apstrādāti nolūkā atklāt seksuālu vardarbību pret bērniem tiešsaistē, visi iepriekš minētie pakalpojumu sniedzēji minēja attēlus un video. Pārsvarā tie izmantoja jaucējkoda salīdzināšanas tehnoloģijas PhotoDNA un MD5 ar mērķi atklāt atbilsmes iepriekš identificētiem materiāliem, kuros atspoguļota seksuāla vardarbība pret bērniem (turpmāk “CSAM”). Tika izmantots Google CSAI Match rīks nolūkā izveidot platformās pieejamo video digitālos nospiedumus un salīdzināt tos ar failiem Google/YouTube nospiedumu repozitorijā (LinkedIn). Tika ziņots gan par automatizētu tehnoloģiju (mākslīgā intelekta mašīnmācīšanās), gan cilvēka veiktas pārskatīšanas izmantošanu (piemēram, Google). Google un LinkedIn apstiprināja, ka ir identificēti arī tādi CSAM, kas neatbilda iepriekš identificētajiem CSAM. Neviens no pieciem datus iesniegušajiem pakalpojumu sniedzējiem neziņoja par datiem attiecībā uz uzmākšanās bērniem atklāšanu, izmantojot teksta noteikšanu, saskaņā ar šajā regulā paredzēto atkāpi.
Attiecībā uz apkopotajiem informācijas plūsmas datiem un apstrādāto dažādo veidu satura datu un informācijas plūsmas datu attiecīgajiem apjomiem pakalpojumu sniedzēju ziņojumi ievērojami atšķīrās.
Pakalpojumu sniedzēju savāktie informācijas plūsmas dati, kas iekļauti CyberTipline ziņojumos ASV Bezvēsts pazudušo un izmantoto bērnu nacionālajam centram (turpmāk “NCMEC”) ietver šādus datus (visus vai daļu):
a)ar lietotāju / ziņojumā aplūkoto personu / kontu saistīti dati (Google, LinkedIn, Microsoft, X);
b)metadati, kas saistīti ar satura/darījumu datiem (Google, LinkedIn, Microsoft);
c)dati, kas saistīti ar potenciālo cietušo (Google);
d)Dati par operācijām, kas saistītas ar vardarbību (Google).
Attiecībā uz tādu datu apjomu, kas apstrādāti saskaņā ar Pagaidu regulu, LinkedIn ziņoja, ka no 2021. gada 14. jūlija līdz 31. decembrim apstrādāja 8 miljonus ES izcelsmes attēlu un video, bet 2022. gadā — 21 miljonu ES izcelsmes attēlu un 63 000 video. Microsoft ziņoja, ka no 2021. gada jūlija līdz decembrim regulas vajadzībām visā pasaulē apstrādāja 8,9 miljardus attēlu un video, bet 2022. gadā — 12,3 miljardus satura vienību visā pasaulē; skaitļi par ES nebija pieejami, tāpēc nav iespējams izdarīt nekādus secinājumus šā ziņojuma vajadzībām. Pārējie pakalpojumu sniedzēji nesniedza informāciju par apstrādāto datu apjomu. Tāpēc tikai viens no pieciem ziņojumus iesniegušajiem pakalpojumu sniedzējiem sniedza datus vajadzīgajā detalizācijas līmenī.
Lai ilustrētu vispārējo kontekstu, NCMEC ziņoja, ka 2022. gadā kopumā saņēma 87,2 miljonus attēlu un video no visas pasaules un 5,1 miljonu attēlu un video no ES, bet 2021. gadā 84,8 miljonus attēlu un video no visas pasaules un 1,8 miljonus attēlu un video no ES. Tie ir tikai tie materiāli, kurus pakalpojumu sniedzējs ir identificējis kā potenciālus CSAM, un tāpēc tos nevar uzskatīt par norādi uz kopējo datu apjomu, kas apstrādāts saskaņā ar Pagaidu regulu.
2.1.2. Apstrādes pamatojums saskaņā ar Regulu (ES) 2016/679
Pakalpojumu sniedzēji ziņoja, ka ir izmantojuši šādus pamatojumus saskaņā ar Regulu (ES) 2016/679 (turpmāk “VDAR”):
·VDAR 6. panta 1. punkta d) apakšpunkts, t. i., apstrāde, kas vajadzīga, lai aizsargātu bērnu un no seksuālas vardarbības pret bērniem tiešsaistē cietušo vitālās intereses (Google, Meta, X);
·VDAR 6. panta 1. punkta e) apakšpunkts, t. i., apstrāde, kas vajadzīga, lai izpildītu uzdevumus, ko veic sabiedrības interesēs, (LinkedIn, Microsoft, Meta, X);
·VDAR 6. panta 1. punkta f) apakšpunkts, t. i., apstrāde, kas vajadzīga, lai ievērotu šādu personu leģitīmās intereses:
I.pakalpojumu sniedzējs — lai atklātu, novērstu vai citādi vērstos pret seksuālu vardarbību pret bērniem tiešsaistē savos pakalpojumos un aizsargātu citus lietotājus, klientus, partnerus un sabiedrību no šāda veida nelikumīga satura (Google, Meta);
II.no seksuālās vardarbības pret bērniem cietušie un organizācija, kurai pakalpojumu sniedzējs ziņo par seksuālu vardarbību pret bērniem tiešsaistē (piemēram, NCMEC) — lai atklātu, novērstu un likvidētu seksuālu vardarbību pret bērniem tiešsaistē savos pakalpojumos (Google).
2.1.3.Pamatojums persondatu nosūtīšanai ārpus Savienības saskaņā ar VDAR V nodaļu (attiecīgā gadījumā)
Visi pakalpojumu sniedzēji ziņoja, ka izmanto līguma standartklauzulas, ko Komisija apstiprinājusi saskaņā ar VDAR 46. panta 2. punkta c) apakšpunktu. Attiecībā uz persondatu nosūtīšanu uz NCMEC LinkedIn arī ziņoja, ka izmanto saskaņā ar VDAR 49. panta 1. punktu atļauto atkāpi, ciktāl tā ir piemērojama.
2.1.4.Konstatēto jeb identificēto seksuālas vardarbības pret bērniem tiešsaistē gadījumu skaits, nošķirot CSAM un uzmākšanos bērniem
1. tabula 2021. gadā identificēto seksuālas vardarbības pret bērniem tiešsaistē gadījumu skaits
|
Pakalpojumu sniedzējs
|
2021. gadā identificēto CSAM skaits
|
Piezīmes
|
|
Google
|
33 Google Chat konti
|
Šis skaits attiecas uz ES lietotāju Google Chat kontu skaitu, kuros, izmantojot automatizētas tehnoloģijas, laikposmā no 2021. gada 2. augusta līdz 2021. gada 31. decembrim tika identificēta seksuāla vardarbība pret bērniem tiešsaistē. Netika sniegti dati par identificēto satura vienību skaitu.
|
|
LinkedIn
|
31 satura vienība
|
31 satura vienība tika apstiprināta kā CSAM, veicot manuālu pārskatīšanu, un par to tika ziņots NCMEC; 6 bija zināmi CSAM, bet pārējie 25 bija nezināmi CSAM.
|
|
Meta
|
340 000 kontu
|
Tādu kontu skaits, kuros no 2021. gada 8. novembra līdz 2021. gada 31. decembrim konstatēts, ka tie ir nosūtījuši vismaz vienu multivides vienību, kas ir CSAM, ziņojumu pavedienos, kuros piedalījās ES lietotājs.
|
|
Microsoft
|
6600 satura vienības
|
No vairāk nekā 20 000 satura vienību, kas visā pasaulē identificētas no 2021. gada jūlija līdz 2021. gada decembrim, 6600 satura vienību (atsevišķs attēls vai video) tika identificētas kā CSAM no Eiropas Savienības.
|
|
X (iepriekš Twitter)
|
532 898 konti
|
Konti (nav skaidrs, vai tikai no ES vai no visas pasaules), kas apturēti par X bērnu seksuālās izmantošanas politikas pārkāpumiem no 2021. gada 2. augusta līdz 2021. gada 31. decembrim.
|
Attiecībā uz X no sniegtajiem datiem nav skaidrs, vai tie attiecas tikai uz pakalpojumiem, uz kuriem attiecas Pagaidu regula (numurneatkarīgi starppersonu sakaru pakalpojumi), vai arī šis skaits ietver arī citus pakalpojumus (piemēram, informācijas sabiedrības pakalpojumus). Tas attiecas uz visiem šajā ziņojumā ietvertajiem datiem, kas saistīti ar X.
2. tabula 2022. gadā identificēto seksuālas vardarbības pret bērniem tiešsaistē gadījumu skaits
|
Pakalpojumu sniedzējs
|
2022. gadā identificēto CSAM skaits
|
Piezīmes
|
|
Google
|
2045 satura vienības
|
Satura vienības, kas identificētas un paziņotas NCMEC 752 ar ES lietotājiem saistītos Google kontos, izmantojot automatizētās tehnoloģijas.
|
|
LinkedIn
|
2 satura vienības
|
LinkedIn atklāja 2 attēlus un 0 video, kas apstiprināti kā CSAM.
|
|
Meta
|
6,6 miljoni satura vienību
|
Apturētās multivides vienības, kas ir CSAM un kas tika atklātas ar Meta multivides salīdzināšanas tehnoloģiju ziņojumu pavedienos,
kuros piedalījās ES lietotājs.
|
|
Microsoft
|
12 800 satura vienību
|
No vairāk nekā 50 000 satura vienību, kas visā pasaulē identificētas 2022. gadā, 12 800 satura vienību (atsevišķs attēls vai video) tika identificētas kā CSAM no Eiropas Savienības.
|
|
X (iepriekš Twitter)
|
2 348 712 konti
|
Konti (nav skaidrs, vai tikai no ES vai no visas pasaules), kas apturēti par X bērnu seksuālas izmantošanas politikas pārkāpumiem.
|
2.1.5.Lietotāju pārsūdzības mehānismi un iznākums
Saskaņā ar Pagaidu regulas 3. panta 1. punkta g) apakšpunkta iv) punktu pakalpojumu sniedzējiem ir jāievieš atbilstošas procedūras un pārsūdzības mehānismi, lai nodrošinātu, ka lietotāji var tiem iesniegt sūdzības. Turklāt regulas 5. pantā ir ietverti noteikumi par pārsūdzību tiesā.
Pakalpojumu sniedzēji ziņoja, ka ir ieviestas šādas iekšējās pārsūdzības procedūras un mehānismi lietotājiem, kuru konti ir ierobežoti saistībā ar CSAM kopīgošanu un/vai kuru saturs ir izņemts kā CSAM, lai viņi varētu pārsūdzēt ierobežojumus/izņemšanu un lai tiktu izvērtēts, vai viņu gadījumā nav pieļautas kļūdas.
Tie ziņoja par gadījumiem, kad lietotājs ir iesniedzis sūdzību iekšējā pārsūdzības mehānismā vai tiesu iestādē attiecībā uz jautājumiem, uz kuriem attiecas regula ES, un par šādu sūdzību iznākumu. Neviens pakalpojumu sniedzējs, izņemot Microsoft (kas 2021. un 2022. gadā ziņoja par 0 sūdzībām abos kanālos), nesniedza atsevišķu statistiku par iekšējo pārsūdzību un pārsūdzību tiesā; tāpēc turpmāk sniegtajās tabulās ir iekļautas gan iekšējās pārsūdzības, gan pārsūdzības tiesā procedūras.
3. tabula To gadījumu skaits 2021. gadā, kad lietotājs ir iesniedzis sūdzību iekšējā pārsūdzības mehānismā vai tiesu iestādē, un šādu sūdzību iznākums
|
Pakalpojumu sniedzējs
|
Lietotāju sūdzību skaits
|
Atjaunotu kontu skaits
|
Atjaunotu satura vienību skaits
|
Piezīmes
|
|
Google
|
8
|
0
|
n. p.
|
Tādu gadījumu skaits, kad saistībā ar seksuālu vardarbību pret bērniem tiešsaistē atspējota Google Chat konta lietotājs pārsūdzēja lēmumu: 8. Neviens konts netika atjaunots.
|
|
LinkedIn
|
0
|
n. p.
|
n. p.
|
|
|
Meta
|
4900
|
n. p.
|
207
|
4900 lietotāju pārsūdzēja lēmumu. Pēc pārsūdzības procesa 207 lietotājiem tika atjaunots saturs un tika atceltas ar kontu veiktās darbības.
|
|
Microsoft
|
0
|
n. p.
|
n. p.
|
|
|
X (iepriekš Twitter)
|
aptuveni 90 000
|
aptuveni 3000
|
n. p.
|
Aptuveni 90 000 pārsūdzības gadījumu. X atjaunoja aptuveni 3000 no šiem kontiem.
|
4. tabula To gadījumu skaits 2022. gadā, kad lietotājs ir iesniedzis sūdzību iekšējā pārsūdzības mehānismā vai tiesu iestādē, un šādu sūdzību iznākums
|
Pakalpojumu sniedzējs
|
Lietotāju sūdzību skaits
|
Atjaunotu kontu skaits
|
Atjaunotu satura vienību skaits
|
Piezīmes
|
|
Google
|
378
|
0
|
n. p.
|
Tādu gadījumu skaits, kad saistībā ar seksuālu vardarbību pret bērniem tiešsaistē atspējota Google konta lietotājs pārsūdzēja lēmumu: 378. Neviens konts netika atjaunots.
|
|
LinkedIn
|
0
|
n. p.
|
n. p.
|
|
|
Meta
|
29 000
|
n. p.
|
3700
|
Lietotāji pārsūdzēja veiktās darbības attiecībā uz aptuveni 29 000 viņu kopīgoto multivides vienību. Pēc pārsūdzības procesa tika atjaunotas aptuveni 3700 satura vienības un tika atceltas ar kontu veiktās darbības.
|
|
Microsoft
|
0
|
n. p.
|
n. p.
|
|
|
X (iepriekš Twitter)
|
aptuveni 430 000
|
aptuveni 4000
|
n. p.
|
aptuveni 430 000 pārsūdzības gadījumu X atjaunoja aptuveni 4000 no šiem kontiem.
|
2.1.6.Dažādo izmantoto tehnoloģiju kļūdu skaits un īpatsvars (pseidopozitīvi rezultāti)
Saskaņā ar Pagaidu regulas 3. panta 1. punkta e) apakšpunktu pakalpojumu sniedzējiem ir jānodrošina, ka izmantotās tehnoloģijas ir pietiekami uzticamas, jo tās maksimāli ierobežo kļūdu īpatsvaru attiecībā uz tāda satura atklāšanu, kas atspoguļo seksuālu vardarbību pret bērniem tiešsaistē.
Šajā sakarā pakalpojumu sniedzēji ziņoja, ka viņi neizmanto katru tehnoloģiju atsevišķi, lai atklātu CSA tiešsaistē. Nolūkā atklāt CSA tiešsaistē tie drīzāk izmanto daudzlīmeņu pieeju, apvienojot dažādas atklāšanas tehnoloģijas, lai palielinātu precizitāti. Lai samazinātu kļūdu vai pseidopozitīvu rezultātu skaitu, visi pakalpojumu sniedzēji papildus izmanto cilvēka veiktu pārskatīšanu. Pakalpojumu sniedzēji nesniedza informāciju par kļūdu (pseidopozitīvu rezultātu) skaitu un īpatsvaru katrai izmantotajai tehnoloģijai atsevišķi, bet gan sniedza apkopotus datus par visām izmantotajām tehnoloģijām.
Lielākā daļa pakalpojumu sniedzēju mēra kļūdu skaitu un īpatsvaru kā izpildes lēmumu atcelšanu, t. i., kā pārsūdzības rezultātā veiktās atjaunošanas/atcelšanas kopējo īpatsvaru (piemēram, cik lielu daļu atspējotu kontu vai satura pakalpojumu sniedzējs atjaunoja pēc lietotāja veiktās pārsūdzības). Pakalpojumu sniedzēju izmantotā pieeja ne vienmēr atspoguļo “pseidopozitīvu rezultātu” definīciju statistikā.
Paziņotie pārsūdzības rezultātā veiktās atjaunošanas/atcelšanas īpatsvara rādītāji ir šādi:
5. tabula Pārsūdzības rezultātā veiktās atjaunošanas/atcelšanas īpatsvars
|
|
2021.g.*
|
2022.g.
|
|
|
Pakalpojumu sniedzējs
|
atjaunoti konti (%) attiecībā pret pārsūdzību skaitu
|
atjaunoti konti (%) attiecībā pret apturētajiem kontiem
|
atjaunoti konti (%) attiecībā pret pārsūdzību skaitu
|
atjaunoti konti (%) attiecībā pret apturētajiem kontiem
|
Piezīmes
|
|
Google
|
0 % (0 pret 8)
|
0 % (0 pret 33)
|
0 % (0 pret 378)
|
0 %
(sk. piezīmes)
|
Par 2022. gadu apturēto kontu skaits netika norādīts. Tā vietā tika norādīts identificēto un NCMEC paziņoto satura vienību skaits — 2045. Pēc pārsūdzības neviens konts netika atjaunots.
|
|
LinkedIn
|
0 %
|
0 %
|
0 %
|
0 %
|
Lēmumi netika pārsūdzēti. Par laikposmu no 2021. gada 13. jūlija līdz 2021. gada 31. decembrim LinkedIn arī ziņoja, ka no 75 failiem, kas tika pārskatīti kā potenciāli ES izcelsmes CSAM, 31 tika atzīts par CSAM cilvēka veiktas pārskatīšanas rezultātā. LinkedIn nesniedza šādus datus par 2022. gadu.
|
|
Meta
|
4,22 %
(207 pret 4900)
|
0,06 %
(207 pret 340 000)
|
Sk. piezīmes
|
Sk. piezīmes
|
Netika sniegta informācija, kas ļautu precīzi noteikt pārsūdzību apjomu, saturu un atjaunošanas iemeslus.
Par 2022. gadu dati tika sniegti par satura vienībām, nevis kontiem:
-Apturēto satura vienību skaits: 6,6 miljoni
-To satura vienību skaits, par kurām pārsūdzēts lēmums: 29 000
-Atjaunoto satura vienību skaits: 3700
Tādējādi:
-atjaunotas satura vienības (%) attiecībā pret pārsūdzību skaitu: 12,8 % (3700 pret 29 000)
-atjaunotas satura vienības (%) attiecībā pret apturēto satura vienību skaitu: 0,06 % (3700 pret 6,6 miljoniem)
|
|
Microsoft
|
0 %
|
—
|
—
|
—
|
Nav pietiekamu datu, kas ļautu aprēķināt pārsūdzības rezultātā veiktās atjaunošanas/atcelšanas īpatsvaru. Attiecībā uz 2022. gadu bija kopumā 17 sākotnējā satura moderēšanas lēmuma atcelšanas gadījumi, bet netika sniegti skaitļi par pārsūdzību kopskaitu.
|
|
X (iepriekš Twitter)
|
1,43 %
(100 pret 7000)
|
0,06 %
(100 pret 166 000)
|
2,17 %
(500 pret 23 000)
|
0,10 %
(500 pret 501 000)
|
2021. gada otrajā pusgadā ar automatizētu mehānismu palīdzību saistībā ar CSA tika apturēti aptuveni 166 000 lietotāju. No šiem lietotājiem aptuveni 7000 iesniedza sūdzības, kuru rezultātā aptuveni 100 lēmumi tika atcelti.
2022. gadā ar automatizētu mehānismu palīdzību saistībā ar CSA tika apturēts aptuveni 501 000 lietotāju. No šiem lietotājiem aptuveni 23 000 iesniedza sūdzības, kuru rezultātā aptuveni 500 lēmumi tika atcelti.
|
* 2021. gada pārskata periodi katram pakalpojumu sniedzējam ir atšķirīgi.
2.1.7.Pasākumi, kas piemēroti, lai ierobežotu kļūdu īpatsvaru, un panāktais kļūdu īpatsvars
Saskaņā ar Pagaidu regulas 3. panta 1. punkta e) apakšpunktu izmantotajām tehnoloģijām jābūt pietiekami uzticamām, un, ja pa laikam kļūdas rodas, to sekas nekavējoties jānovērš. Turklāt 3. panta 1. punkta g) apakšpunkta ii) punktā ir noteikts, ka jānodrošina cilvēka veikta uzraudzība un, ja tas nepieciešams, cilvēka iejaukšanās.
Visi pakalpojumu sniedzēji ziņoja, ka izmanto daudzlīmeņu pieeju, lai atklātu un apkarotu CSA izplatīšanu tiešsaistē. Tas ietver jaucējkoda salīdzināšanas tehnoloģiju (t. sk. PhotoDNA) izmantošanu, lai atklātu CSAM, apvienojumā ar cilvēka veiktas pārskatīšanas procesiem nolūkā noskaidrot, vai multivides failā (attēlā un video) ir CSAM, kā arī cilvēka veiktu CSAM apstrādes uzraudzību.
Pakalpojumu sniedzēji ziņoja, ka izmanto dažādus pasākumus un aizsargmehānismus nolūkā ierobežot un samazināt kļūdu īpatsvaru tiešsaistes CSA atklāšanā, ziņošanā par tiem un to izņemšanā. Tai skaitā (saraksts nav izsmeļošs):
I.CSA atklāšanas rīku darbības uzraudzība un kvalitātes novērtēšana, lai pielāgotu precizitāti (lai tie atklātu tikai seksuālu vardarbību pret bērniem tiešsaistē) un atpazīšanu (lai to platformās nepalaistu garām seksuālu vardarbību pret bērniem tiešsaistē) (Google, X);
II.cilvēka veikta pārskatīšana un uzraudzība: multivides vienību paraugus, kas ar jaucējkoda salīdzināšanas tehnoloģijām ir identificēti kā CSAM, pārbauda pārskatīšanas darbinieki / apmācīti analītiķi (Google, LinkedIn, Meta, Microsoft);
III.lielapjoma kopu atzīmēšana un pārskatīšana (Meta);
IV.turpmāku manuālās pārskatīšanas procesu ieviešana kā nepārtrauktas jaucējkoda salīdzināšanas kvalitātes pārbaudes (LinkedIn, Microsoft);
V.cilvēkiem, kas veic pārskatīšanu, padomdevēja vadībā tiek rīkotas specializētas, intensīvas mācības par to, kā atpazīt CSAM saturu, lai nodrošinātu cilvēka veiktās pārskatīšanas precizitāti (Google);
VI.periodiski kvalitātes kontroles novērtējumi, kas attiecas uz darbiniekiem, kuri veic pārskatīšanu, un piemērotajiem lēmumiem (Google, X);
VII.citi kvalitātes kontroles procesi ar mērķi samazināt kļūdu skaitu un nekavējoties novērst kļūdas, piemēram, neatkarīga jaucējkoda verifikācija (Google, LinkedIn), cilvēka veikta katra līdz šim neredzēta CSAM pārskatīšana pirms ziņošanas (Google);
VIII.politikas un izpildes stratēģiju izstrāde un regulāra pārskatīšana, ko veic apmācīti tiešsaistes CSA jomas eksperti (Google);
IX.sadarbība ar NCMEC saistībā ar CyberTipline ziņojumu kvalitāti un pseidopozitīviem gadījumiem, ja tādi ir (Google, LinkedIn, Meta, Microsoft, X).
2.1.8.Datu glabāšanas politika un saskaņā ar VDAR piemērotie datu aizsardzības pasākumi
Pagaidu regulas 3. panta 1. punkta h) un i) apakšpunktā ir attiecīgi noteikts, ka attiecīgie persondati jāglabā drošā veidā tikai konkrētiem noteiktiem nolūkiem, un ietvertas norādes par glabāšanas termiņu. Turklāt ir jāievēro piemērojamās VDAR prasības.
Pakalpojumu sniedzēji ziņoja, ka viņiem ir iedarbīga datu glabāšanas politika un persondatu aizsardzības pasākumi. Datu glabāšanas politika atšķiras atkarībā no datu veida. Tajā ir norādīts, ka katrā gadījumā glabāšanas periods ir ierobežots līdz ilgumam, ko uzskata par atbilstošu datu veidam un apstrādes mērķim, un dati tiek dzēsti pēc glabāšanas perioda beigām. Pakalpojumu sniedzējiem ir sīkāka informācija par datu glabāšanas praksi, kas definēta to privātuma politikā/paziņojumos un pakalpojumu/lietotāju līgumos.
Lielākā daļa pakalpojumu sniedzēju (LinkedIn, Meta, Microsoft) piemēro 90 dienu glabāšanas politiku attiecībā uz regulas darbības jomā atklātajiem multivides failiem, par kuriem ir apstiprināts, ka tie satur CSAM. Šajā laikā saturs, kas apstiprināts kā CSAM, tiek glabāts atsevišķā un drošā CSAM krātuvē, ko pārvalda specializētas struktūrvienības (piemēram, Microsoft Tiesībaizsardzības un nacionālās drošības struktūrvienība). Šīs glabāšanas sistēmas automātiski dzēš glabāto CSAM saturu pēc 90 dienām, ja vien glabāšanas periods nav pagarināts pēc likumīgu procesuālu pieprasījumu saņemšanas, kas parasti saistīti ar tiesībaizsardzības iestādēm, kuras veic darbības pēc NCMEC ziņojumiem.
Google ziņoja, ka regulas darbības jomā atklāto CSAM saturu glabā ne ilgāk, kā tas ir absolūti nepieciešams attiecīgajiem mērķiem saskaņā ar regulu, un jebkurā gadījumā ne ilgāk kā 12 mēnešus no CSAM identificēšanas un paziņošanas brīža, ar iespējamu pagarinājumu, pamatojoties uz spēkā esošu likumīgu saglabāšanas pieprasījumu.
X (iepriekš Twitter) ziņoja, ka profila informāciju un saturu glabā, kamēr pastāv lietotāja konts, un persondatus, kas savākti, kad lietotāji izmanto šo pakalpojumu, glabā ne ilgāk kā 18 mēnešus. Ja lietotājs deaktivizē kontu, X parasti saglabā datus vēl 30 dienas, bet pēc tam konts tiek dzēsts. Lietotāja dati, kas saistīti ar sūdzībām un politikas pārkāpumiem, tai skaitā pārkāpēju konta informācija (piemēram, identifikatori, kas izmantoti, lai izveidotu kontu: e-pasta adrese vai tālruņa numurs), tiek glabāti bezgalīgi, lai novērstu iespēju noteikumu atkārtotu pārkāpumu izdarītājiem izveidot jaunus kontus un nodrošinātu, ka X noteikumu pārkāpēji nevar vienkārši nogaidīt dzēšanas periodu un tad atkal pārkāpt noteikumus.
Pakalpojumu sniedzēju īstenotie persondatu aizsardzības pasākumi ietver nozares standarta pasākumus (visus vai atsevišķus), piemēram (saraksts nav izsmeļošs):
I.anonimizācijas vai pseidonimizācijas metožu izmantošana un datu anonimizācija (piemēram, maskēšana, jaukšana, diferencēts privātums) (Goggle, LinkedIn, Meta, Microsoft);
II.tikai jaucējkodu sniegšana trešām personām CSAM atklāšanas nolūkā (Google, LinkedIn);
III.nozares standarta šifrēšanas (algoritmu un protokolu) izmantošana datiem, kas tiek pārsūtīti starp privātu infrastruktūru un publiskajiem tīkliem (Meta);
IV.datu pārvaldības stratēģiju / visaptverošu privātuma programmu īstenošana (X (iepriekš Twitter), Google) un stingri iekšēji datu piekļuves ierobežojumi (Meta) (piemēram, darbiniekiem, darbuzņēmējiem, aģentiem, kuriem informācija nepieciešama apstrādei), piekļuves kontrolsarakstu izmantošana CSAM pārskatīšanas rīkos un jaucējkodu aizliegumi (Meta), kā arī stingras līgumiskas konfidencialitātes saistības, ko piemēro personām, kam ir piekļuve;
V.anonimizācijas un datu pārvaldības stratēģiju pārskatīšana, t. i., privātuma pārskatu veikšana, lai identificētu, novērtētu un mazinātu iespējamos privātuma riskus, ko rada persondatu vākšana, apstrāde, glabāšana un kopīgošana, kā arī aizsardzības prakses pārskatīšana (Microsoft);
VI.drošības incidentu gadījumiem paredzētu reaģēšanas plānu uzturēšana, kas ļauj uzraudzīt, atklāt un novērst iespējamās drošības ievainojamības un incidentus visā infrastruktūrā (Google, Meta).
2.1.9.To organizāciju nosaukumi, kuras darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem un ar kurām saskaņā ar attiecīgo regulu ir kopīgoti dati.
Abos pārskata periodos (no 2021. gada jūlija/augusta līdz 2021. gada decembrim un no 2022. gada janvāra līdz 2022. gada decembrim) visi pakalpojumu sniedzēji ziņoja, ka saskaņā ar šo regulu apstrādātos datus kopīgo ar NCMEC. Visi ziņojumus iesniegušie pakalpojumu sniedzēji saskaņā ar Pagaidu regulas 7. panta 1. punktu arī paziņoja Komisijai, ka tie saskaņā ar šo regulu ir ziņojuši NCMEC par seksuālu vardarbību pret bērniem tiešsaistē.
2.2.Dalībvalstu statistika (8. pants)
Saskaņā ar Pagaidu regulas 8. panta 1. punktu dalībvalstīm ir pienākums sniegt statistiku par:
(a)kopējo to ziņojumu skaitu par konstatētajiem seksuālas vardarbības pret bērniem tiešsaistē gadījumiem, kurus pakalpojumu sniedzēji un organizācijas, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem, ir snieguši kompetentajām valsts tiesībaizsardzības iestādēm, nošķirot (ja šāda informācija ir pieejama) absolūto gadījumu skaitu un tos gadījumus, par kuriem ziņots vairākas reizes, un to pakalpojumu sniedzēja veidu, kura pakalpojumā seksuāla vardarbība pret bērniem tiešsaistē tika konstatēta;
(b)to bērnu skaitu, kuri identificēti, veicot darbības saskaņā ar 3. pantu, nošķirot pēc dzimuma;
(c)notiesāto likumpārkāpēju skaitu.
Lai gan lielākā daļa dalībvalstu sniedza vismaz daļēju informāciju, daudzās dalībvalstīs nebija izveidotas attiecīgās datu vākšanas un ziņošanas sistēmas. Tāpēc, ja tika sniegti statistikas dati, tie attiecās uz ļoti dažādiem pārskata periodiem un ievērojami atšķīrās detalizācijas līmeņa ziņā. Dažas dalībvalstis iesniedza ikgadējo statistiku no regulas spēkā stāšanās dienas. Lielākā daļa no tām ziņoja par kalendārajiem gadiem, jo tām, iespējams, nebija tehnisko līdzekļu, lai nošķirtu pieprasītos statistikas datus pa gadiem no regulas spēkā stāšanās dienas. Dažas dalībvalstis nesniedza nekādus datus.
Jāatzīmē arī, ka dažos gadījumos statistikas dati ir iegūti no tā sauktajām aktuālajām datubāzēm vai žurnālu un lietu pārvaldības sistēmām, nevis no faktiskām statistikas sistēmām. Dažkārt skaitļi tiek sniegti, pamatojoties uz dinamiskiem datiem, kas nozīmē, ka dati nav galīgi, t. i., tie var mainīties. Izmaiņas notiek, piemēram, atkarībā no ieguves laika (piemēram, Slovēnijā un Dānijā), kad lielāks skaits izmeklēšanu un tiesas lietu ir pabeigtas.
Vairākās dalībvalstīs kompetentās iestādes veido jaunas struktūrvienības ar mērķi izmeklēt noziegumus, kas saistīti ar seksuālu vardarbību pret bērniem tiešsaistē, un izveido centralizētu ziņošanu par seksuālu vardarbību pret bērniem tiešsaistē (Latvija, Čehija). Paredzams, ka tas nākotnē palīdzēs iegūt precīzāku statistiku.
Vācija ziņoja, ka saskaņā ar Pagaidu regulas 8. panta 1. punktu tā nevar sniegt nekādus statistikas datus, jo uzskata, ka tai nav juridiska pamata brīvprātīgai atklāšanai. Tomēr Vācijas Federālais krimināllietu birojs (BKA) savā tīmekļvietnē ziņoja par 89 844 ziņojumu saņemšanu no NCMEC 2022. gadā, un NCMEC ziņoja par 138 193 ziņojumu nosūtīšanu Vācijas iestādēm
. Trīs dalībvalstis (Malta, Portugāle un Rumānija) neiesniedza nekādus datus vai pamatojumu tam, kāpēc neziņo saskaņā ar šo noteikumu.
2.2.1. Ziņojumu par konstatētajiem seksuālas vardarbības pret bērniem tiešsaistē gadījumiem kopējais skaits
Lielākā daļa dalībvalstu saskaņā ar Pagaidu regulas 8. panta 1. punkta a) apakšpunktu sniedza zināmu statistiku par to, cik kopskaitā ir iesniegtu ziņojumu par konstatētajiem seksuālas vardarbības pret bērniem tiešsaistē gadījumiem. Tā kā dalībvalstis sniedza datus par dažādiem pārskata periodiem, nebija iespējams aprēķināt ES līmenī saņemto ziņojumu par konstatēto seksuālas vardarbības pret bērniem tiešsaistē gadījumu kopējo skaitu kādā konkrētā periodā, piemēram, regulas īstenošanas laikā.
Dalībvalstis lielākoties sniedza informāciju par to, cik kopskaitā ir ziņojumu, kas saņemti no pakalpojumu sniedzējiem vai citām organizācijām, kuras darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem, un kas iesniegti valsts tiesībaizsardzības iestādēm. Ņemot vērā to, ka lielākā daļa ASV reģistrēto pakalpojumu sniedzēju ziņo NCMEC, lielākā daļa dalībvalstu ziņoja, ka lielāko daļu vai visus ziņojumus saņem no NCMEC. Dalībvalstis nenorādīja to ziņojumu skaitu, kas ir piemēroti izmeklēšanai, bet dažas norādīja ierosināto lietu skaitu, kas ir ievērojami mazāks. Atšķirību starp saņemtajiem ziņojumiem un izmeklētajiem gadījumiem skaidroja ar vairākiem iemesliem, piemēram, ar to, ka ziņojums bija par CSAM, bet tajā nebija pietiekamas informācijas, lai sāktu izmeklēšanu, ziņojumu apvienošanu, ja uz konkrētu aizdomās turēto personu attiecas vairāk nekā viens ziņojums, vai to, ka materiāls netika novērtēts kā noziedzīgs saskaņā ar valsts tiesību aktiem, lai gan atspoguļoja izmantošanas situācijas. Turklāt dalībvalstis lielākoties nenošķīra absolūto gadījumu skaitu un gadījumus, par kuriem ziņots vairākas reizes. Gadījumos, kad ziņojumus sniedza NCMEC, NCMEC jau iepriekš klasificēja no pakalpojumu sniedzējiem saņemtos ziņojumus kā “izmeklēšanai piemērotus” vai “informatīvus”. NCMEC izmeklēšanai piemērotu ziņojumu definē kā ziņojumu, kurā ir pietiekami daudz informācijas, lai varētu sākt izmeklēšanu. Tas parasti ietver informāciju par lietotāju, attēlus un iespējamo atrašanās vietu. Ziņojums tiek klasificēts kā “informatīvs”, ja tajā ir nepietiekama informācija vai ja attēli tiek uzskatīti par virāliem un par tiem ir ziņots vairākkārt. NCMEC 2022. gadā 49 % ziņojumu klasificēja kā “izmeklēšanai piemērotus”, bet 51 % — kā “informatīvus”.
Tikai dažas dalībvalstis norādīja tādu pakalpojumu sniedzēju veidus, kuru pakalpojumos tika atklāta seksuāla vardarbība pret bērniem tiešsaistē (piemēram, Beļģija, Čehija, Igaunija, Francija un Polija), un tikai viena dalībvalsts sniedza detalizētu sadalījumu (Beļģija).
Slovēnija minēja, ka tā nevar norādīt gadījumu skaitu tikai par nodarījumiem, kas izmeklēti saistībā ar pakalpojumu sniedzēju un organizāciju iesniegtajiem ziņojumiem, bet tā vietā var norādīt skaitu tikai par visām izmeklēšanām saistībā ar seksuālu vardarbību pret bērniem tiešsaistē neatkarīgi no informācijas avota, kas bija par iemeslu izmeklēšanas uzsākšanai.
6. tabula Dalībvalstu paziņotais ziņojumu par konstatētajiem seksuālas vardarbības pret bērniem tiešsaistē gadījumiem kopējais skaits
|
Valsts
|
Pārskata periods
|
Ziņojumu par seksuālu vardarbību pret bērniem tiešsaistē kopējais skaits
|
Ziņojumu avots
|
Piezīmes
|
|
Austrija
|
2021.–2022.g.
|
16 311
|
NCMEC
|
|
|
Beļģija
|
2021. gada 1. augusts – 2022. gada 31. jūlijs
|
26 226
|
Ziņojumi no pakalpojumu sniedzējiem (sociālie mediji) un Childfocus uzticības tālruņa
|
|
|
Bulgārija
|
2021.–2022.g.
|
9120
|
Pakalpojumu sniedzēji un INHOPE uzticības tālrunis, izmantojot “Safenet” u. c.
|
No tiem 9112 ziņojumi bija par tīmekļvietnēm, kas satur CSAM un ko mitinājuši Bulgārijas pakalpojumu sniedzēji.
|
|
Horvātija
|
2021. gada 1. janvāris – 2022. gada 31. oktobris
|
9044
|
NCMEC
|
|
|
Kipra
|
2021. gada 1. jūlijs – 2022. gada 31. decembris
|
3570
|
NCMEC
|
|
|
Čehija
|
2022. gada 1. janvāris – 2022. gada 31. jūlijs
|
13 279
|
NCMEC
|
|
|
Dānija
|
2021. gada 2. augusts – 2023. gada 20. janvāris
|
10 744
|
NCMEC
|
|
|
Igaunija
|
—
|
—
|
NCMEC, Bērnu uzticības tālrunis 116 111
|
Igaunija ziņoja, ka policijas un robežsardzes, tai skaitā NCMEC, statistika nav publiska. 2021. gadā tās ziņoja par 360 bezkontakta dzimumnoziegumiem pret bērnu. Turklāt 86 % no visiem bezkontakta dzimumnoziegumiem tika pastrādāti interneta vidē vai izmantojot informācijas tehnoloģiju rīkus.
|
|
Somija
|
2022.g.
|
25 000
|
NCMEC un “Glābiet bērnus”
|
|
|
Francija
|
2021. gada 1. augusts – 2022. gada 1. augusts
|
120 000
|
NCMEC
|
|
|
Vācija
|
—
|
—
|
—
|
Dati nav pieejami / nav paziņoti.
|
|
Grieķija
|
2021.–2022.g.
|
142
|
NCMEC, Grieķijas uzticības tālrunis nelegālam interneta saturam — Safeline, Nacionālā telesakaru un pasta komisija, Nacionālais SOS tālrunis 1056 — “Bērna smaids”, Grieķijas ombuds
|
|
|
Ungārija
|
2022.g.
|
0
|
Neviens no pakalpojumu sniedzēju nosūtītajiem ziņojumiem netika nosūtīts saskaņā ar Pagaidu regulu.
|
|
|
Īrija
|
2021.–2022.g.
|
15 355
|
NCMEC
|
|
|
Itālija
|
2022.g.
|
4607
|
Nav norādīts
|
|
|
Latvija
|
2022. gada 1. augusts – 2023. gada 6. marts
|
Aptuveni 115–220 ziņojumi mēnesī
|
No ārpus Latvijas esošiem pakalpojumu sniedzējiem un organizācijām, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem (galvenokārt NCMEC), un Latvijas pakalpojumu sniedzējiem un organizācijām (galvenokārt Latvijas Drošāka interneta centrs)
|
|
|
Lietuva
|
2021. gada 1. janvāris – 2022. gada 30. jūnijs
|
4142
|
Nav norādīts
|
|
|
Luksemburga
|
2021.–2022.g.
|
2491
|
Nav norādīts
|
|
|
Malta
|
—
|
—
|
—
|
Dati netika iesniegti/paziņoti.
|
|
Nīderlande
|
2021.g.
|
36 537
|
Pakalpojumu sniedzēji un organizācijas, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem
|
|
|
Polija
|
2021. gada 3. augusts – 2023. gada 3. augusts
|
227
|
Pakalpojumu sniedzēji un organizācijas, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem
|
Laikposmā no 2022. gada 3. augusta līdz 2023. gada 3. augustam Polija konstatēja 1 ziņojumu par bērnu iedraudzināšanu un 105 ziņojumus par CSAM.
|
|
Portugāle
|
—
|
—
|
—
|
Dati netika iesniegti/paziņoti.
|
|
Rumānija
|
—
|
—
|
—
|
Dati netika iesniegti/paziņoti.
|
|
Slovākija
|
2021. gada 1. augusts – 2022. gada 31. jūlijs
|
7206
|
Pakalpojumu sniedzēji un organizācijas, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem
|
|
|
Slovēnija
|
2021. gada 1. janvāris – 2023. gada 14. jūlijs
|
452
|
Šis skaitlis norāda noziedzīgus nodarījumus, kas saistīti ar darbībām internetā. Pašlaik esošie statistikas dati neļauj Slovēnijai statistikas datus par nodarījumiem, kas izmeklēti, pamatojoties uz pakalpojumu sniedzēju un organizāciju iesniegtajiem ziņojumiem, nošķirt no statistikas datiem par citiem ziņojumiem.
|
|
|
Spānija
|
2022.g.
|
31 474
|
Organizācijas, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem
|
|
|
Zviedrija
|
2021. gada augusts – 2022. gada 31. decembris
|
32 830
|
Galvenokārt NCMEC
|
|
Ņemot vērā, ka NCMEC ir galvenais ziņojumu avots, ir lietderīgi salīdzināt dalībvalstu saņemto ziņojumu skaitu ar NCMEC sniegtajiem datiem par dalībvalstīm nosūtītajiem ziņojumiem. 2021. gadā NCMEC saņēma kopumā 29 397 681 ziņojumu no nozares visā pasaulē, no kuriem 99,7 % (jeb 29 309 106) ietvēra vienu vai vairākus attēlus vai video, kuros redzama seksuāla vardarbība pret bērniem, 0,15 % (jeb 44 155) bija saistīti ar iedraudzināšanu un 0,05 % (jeb 16 032) — ar bērnu tirdzniecību seksuālas izmantošanas nolūkā. 2022. gadā NCMEC saņēma kopumā 32 059 029 ziņojumus, no kuriem 99,5 % (jeb 31 901 234) bija saistīti ar attēliem vai video, kuros redzama seksuāla vardarbība pret bērniem, 0,25 % (80 524) bija saistīti ar iedraudzināšanu un 0,06 % (jeb 18 336) — ar bērnu tirdzniecību seksuālas izmantošanas nolūkā. Attiecībā uz ES sadalījums ir šāds:
7. tabula NCMEC ziņojumi par aizdomām par seksuālu vardarbību pret bērniem tiešsaistē, kas sniegti ES dalībvalstīm 2021. un 2022. gadā
|
Valsts
|
Kopā ziņojumi 2021. g.
|
% no ES kopējā skaita 2021. g.
|
Kopā ziņojumi 2022. g.
|
% no ES kopējā skaita 2022. g.
|
% no ES iedzīvotāju skaita
|
|
Austrija
|
7580
|
1,36 %
|
18 501
|
1,23 %
|
2,00 %
|
|
Beļģija
|
15 762
|
2,84 %
|
50 255
|
3,34 %
|
2,60 %
|
|
Bulgārija
|
13 584
|
2,44 %
|
31 937
|
2,12 %
|
1,53 %
|
|
Horvātija
|
4744
|
0,85 %
|
11 693
|
0,78 %
|
0,86 %
|
|
Kipra
|
2657
|
0,48 %
|
7361
|
0,49 %
|
0,20 %
|
|
Čehija
|
15 004
|
2,70 %
|
61 994
|
4,12 %
|
2,36 %
|
|
Dānija
|
5891
|
1,06 %
|
30 215
|
2,01 %
|
1,31 %
|
|
Igaunija
|
2729
|
0,49 %
|
6408
|
0,43 %
|
0,30 %
|
|
Somija
|
6079
|
1,09 %
|
10 904
|
0,73 %
|
1,24 %
|
|
Francija
|
98 233
|
17,67 %
|
227 465
|
15,13 %
|
15,16 %
|
|
Vācija
|
79 701
|
14,34 %
|
138 193
|
9,19 %
|
18,59 %
|
|
Grieķija
|
14 616
|
2,63 %
|
43 345
|
2,88 %
|
2,37 %
|
|
Ungārija
|
31 710
|
5,70 %
|
109 434
|
7,28 %
|
2,16 %
|
|
Īrija
|
7327
|
1,32 %
|
19 770
|
1,31 %
|
1,13 %
|
|
Itālija
|
37 480
|
6,74 %
|
96 512
|
6,42 %
|
13,32 %
|
|
Latvija
|
1537
|
0,28 %
|
3688
|
0,25 %
|
0,42 %
|
|
Lietuva
|
3509
|
0,63 %
|
16 603
|
1,10 %
|
0,63 %
|
|
Luksemburga
|
2005
|
0,36 %
|
2004
|
0,13 %
|
0,14 %
|
|
Malta
|
750
|
0,13 %
|
4713
|
0,31 %
|
0,12 %
|
|
Nīderlande
|
36 790
|
6,62 %
|
57 012
|
3,79 %
|
3,96 %
|
|
Polija
|
37 758
|
6,79 %
|
235 310
|
15,65 %
|
8,41 %
|
|
Portugāle
|
34 415
|
6,19 %
|
42 674
|
2,84 %
|
2,31 %
|
|
Rumānija
|
32 765
|
5,89 %
|
96 287
|
6,40 %
|
4,25 %
|
|
Slovākija
|
7275
|
1,31 %
|
39 748
|
2,64 %
|
1,21 %
|
|
Slovēnija
|
3162
|
0,57 %
|
14 795
|
0,98 %
|
0,47 %
|
|
Spānija
|
33 136
|
5,96 %
|
77 727
|
5,17 %
|
10,60 %
|
|
Zviedrija
|
19 635
|
3,53 %
|
48 883
|
3,25 %
|
2,33 %
|
|
Kopā
|
555 834
|
|
1 503 431
|
|
|
Būtiskās atšķirības starp ziņojumu skaitu 2021. un 2022. gadā, kas liecina par strauju ziņojumu skaita pieaugumu 2022. gadā, lielā mērā skaidrojamas ar brīvprātīgas atklāšanas gadījumu skaita samazināšanos laikā no 2021. gada janvāra līdz augustam, kad Pagaidu regula vēl nebija piemērojama.
NCMEC savā statistikā par katru ES dalībvalsti ziņojumus nenošķir atkarībā no ziņojuma avota, jo īpaši atkarībā no tā, vai tas saņemts no numurneatkarīga starppersonu sakaru pakalpojuma. Tomēr NCMEC sniedz statistiku par tādu ziņojumu kopējo skaitu, kas attiecas uz ES un kas saņemti no numurneatkarīgiem starppersonu sakaru pakalpojumiem. 2021. gadā 283 265 ziņojumi, kas attiecas uz dalībvalstīm, tika saņemti no tērzēšanas, ziņapmaiņas vai e-pasta pakalpojumiem, t. i., 51 % no visiem ziņojumiem, kas attiecas uz ES. Vēl 164 645 ziņojumi (30 % no kopējā skaita) tika saņemti no sociālajiem medijiem vai tiešsaistes spēļu platformām, kurās var būt integrēti arī ziņapmaiņas vai tērzēšanas pakalpojumi. 2021. gadā 3565 ziņojumi, kas attiecas uz ES, bija par iedraudzināšanu. 2022. gadā 1015 231 ziņojums, kas attiecas uz dalībvalstīm, tika saņemts no tērzēšanas, ziņapmaiņas vai e-pasta pakalpojumiem, t. i., 68 % no visiem ziņojumiem, kas attiecas uz ES. Vēl 325 847 ziņojumi (22 % no kopējā skaita) tika saņemti no sociālajiem medijiem vai tiešsaistes spēļu platformām, kurās var būt integrēti arī ziņapmaiņas vai tērzēšanas pakalpojumi. 2022. gadā 7561 ziņojums, kas attiecas uz ES, bija par iedraudzināšanu. Arī 2021. un 2022. gadā no numurneatkarīgiem starppersonu sakaru pakalpojumiem saņemto ziņojumu skaita atšķirības ir skaidrojamas ar brīvprātīgas atklāšanas gadījumu skaita samazināšanos laikā no 2021. gada janvāra līdz augustam, kad Pagaidu regula vēl nebija piemērojama.
Daudzos gadījumos ziņojumu īpatsvars katrā dalībvalstī aptuveni atbilst dalībvalsts iedzīvotāju īpatsvaram salīdzinājumā ar ES kopējo iedzīvotāju skaitu, un tas varētu liecināt par seksuālas vardarbības pret bērniem tiešsaistē līdzīgu biežumu visās dalībvalstīs. Ievērojamas novirzes ir vērojamas attiecībā uz Spāniju un Itāliju, kur procentuālais īpatsvars šķiet zems salīdzinājumā ar ES iedzīvotāju procentuālo īpatsvaru abos gados, savukārt citās dalībvalstīs ziņojumu īpatsvars, šķiet, ievērojami svārstās (piemēram, Vācijā, Polijā, Nīderlandē, Slovākijā). Šīs izmaiņas nav atspoguļotas ziņojumos par gadījumu skaitu, tāpēc ir grūti izdarīt secinājumus par korelāciju starp ziņojumiem un izmeklēšanām.
Ņemot vērā atšķirīgos pārskata periodus, tieša salīdzināšana nav iespējama, tomēr pastāv būtiskas atšķirības starp NCMEC sniegtajiem statistikas datiem un dalībvalstu paziņotajiem skaitļiem. Turklāt NCMEC datus par dalībvalstīm arī nevar pilnībā salīdzināt ar iepriekšējā iedaļā minētajiem nozares sniegtajiem datiem. Lai gan dažas no atšķirībām var būt saistītas ar ziņojumiem par seksuālu vardarbību pret bērniem tiešsaistē, kas nāk no citiem avotiem, nevis no starppersonu sakariem, tam būtu nepieciešama turpmāka analīze, jo, ņemot vērā to pakalpojumu sniedzēju sarakstu, kuri ziņo NCMEC, ir iespējams, ka notiek arī brīvprātīgi atklāšanas pasākumi attiecībā uz ES, ko veic citi pakalpojumu sniedzēji, nevis tie, kas līdz šim ir iesnieguši ziņojumus Komisijai. Tomēr fakts, ka attiecībā uz lielāko daļu dalībvalstu pastāv būtiskas atšķirības starp to ziņojumu skaitu, kurus NCMEC norāda kā nosūtītus dalībvalstij, un to ziņojumu skaitu, kurus dalībvalsts norāda kā saņemtus, liecina, ka dalībvalstu datu vākšana un ziņošana nav pilnīga.
Saistībā ar katru iepriekš minēto NCMEC ziņojumu saistītie attēli un video, kuros atspoguļota seksuāla vardarbība pret bērniem, tika noņemti un izņemti no aprites. Tas ir īpaši svarīgi pašreizējiem seksuālās vardarbības pret bērniem upuriem un cietušajiem. Pētījumi liecina, ka nepārtraukta tādu attēlu un video aprite, kuros redzama vardarbība, ierobežo upuru spēju pārvarēt vardarbības psiholoģiskās sekas un rada sekundāru viktimizāciju.
2.2.2. Identificēto bērnu skaits
Lielākā daļa dalībvalstu sniedza pilnīgu vai daļēju statistiku par identificēto bērnu skaitu, nošķirot pēc dzimuma, saskaņā ar Pagaidu regulas 8. panta 1. punkta b) apakšpunktu. Tomēr vairākas dalībvalstis neiesniedza nekādus datus vai pamatojumu tam, kāpēc neziņo saskaņā ar šo noteikumu.
Vairākas dalībvalstis par pārskata periodu nesniedza statistikas datus vai sniedza tikai daļējus statistikas datus, taču norādīja iemeslus. Norādītie iemesli ir šādi:
-nevar uzskaitīt bērnus, kas cietuši no CSA tiešsaistē (Francija);
-dati nav pieejami, jo nav apkopoti valsts statistikas datu vākšanas ietvaros / valsts iestādes nav reģistrējušas šos statistikas datus (Dānija, Lietuva);
-dati valsts statistikas datu vākšanā nav sadalīti pēc dzimuma (Beļģija, Kipra, Čehija, Grieķija, Īrija, Itālija, Lietuva, Nīderlande);
-esošajās informācijas sistēmās nav pieejama pieprasītā detalizācijas līmeņa informācija (Somija);
-informācija netiek vākta (Vācija).
Dažas no tām dalībvalstīm, kuras norādīja, ka nevar sniegt statistikas datus, apstiprināja, ka to valsts iestādēm tika lūgts mainīt brīvprātīgo ziņojumu un izmeklēšanu reģistrācijas un statistikas datu vākšanas procedūru (Dānija) un/vai tās ievieš jaunas informācijas sistēmas, kas ļautu sniegt ziņojumus vajadzīgajā detalizācijas līmenī (Somija).
Vienā dalībvalstī turpmāk sniegtajos datos nav nošķirti no CSA tiešsaistē un bezsaistē cietušie bērni (Ungārijā). Dažos gadījumos statistikā ir iekļauti arī bērni, par kuriem tika konstatēts, ka viņi paši ir radījuši un augšupielādējuši šos materiālus (pašu radīti materiāli, galvenokārt video) (Čehija, Igaunija).
Tā kā dalībvalstis lielākoties ziņoja par atšķirīgiem ziņošanas periodiem, nebija iespējams aprēķināt tādu bērnu kopējo skaitu, kas ES identificēti kā seksuālās vardarbības pret bērniem tiešsaistē upuri, gadā un/vai tajā pašā pārskata periodā.
8. tabula Identificēto bērnu skaits, nošķirot pēc dzimuma
|
Valsts
|
Pārskata periods
|
Sieviete
|
Vīrietis
|
Kopā
|
Piezīmes
|
|
Austrija
|
2021.–2022.g.
|
11
|
6
|
17
|
|
|
Beļģija
|
2021.–2022.g.
|
—
|
—
|
63
|
Nav pieejami dati, kas nošķirti pēc dzimuma.
|
|
Bulgārija
|
2022.g.
|
50
|
12
|
62
|
|
|
Horvātija
|
2021. gada 1. janvāris – 2022. gada 31. oktobris
|
20
|
0
|
20
|
|
|
Kipra
|
2022.g.
|
—
|
—
|
102
|
Nav pieejami dati, kas nošķirti pēc dzimuma.
|
|
Čehija
|
2022.g.
|
—
|
—
|
30
|
Nav pieejami dati, kas nošķirti pēc dzimuma.
|
|
Dānija
|
—
|
—
|
—
|
—
|
Dati nav pieejami.
|
|
Igaunija
|
2021.g.
|
6
|
12
|
18
|
|
|
Somija
|
—
|
—
|
—
|
—
|
Dati nav pieejami.
|
|
Francija
|
—
|
—
|
—
|
—
|
Dati nav pieejami.
|
|
Vācija
|
—
|
—
|
—
|
—
|
Dati nav pieejami.
|
|
Grieķija
|
2021.–2022.g.
|
—
|
—
|
4
|
Nav pieejami dati, kas nošķirti pēc dzimuma.
|
|
Ungārija
|
2021.–2022.g.
|
379
|
47
|
426
|
Nav iespējams nošķirt no CSA tiešsaistē un bezsaistē cietušos. Iekļauti tikai bērni līdz 16 gadu vecumam.
|
|
Īrija
|
2021.–2022.g.
|
—
|
—
|
101
|
Datus par 2021. gadu (50 cietušie) nav iespējams nošķirt pēc dzimuma. Pēc dzimuma nošķirti dati par 2022. gadu ir šādi: identificēti 25 sieviešu dzimuma un 26 vīriešu dzimuma bērni.
|
|
Itālija
|
2022.g.
|
—
|
—
|
385
|
Nav pieejami dati, kas nošķirti pēc dzimuma.
|
|
Latvija
|
2022. gada 1. augusts – 2023. gada 6. marts
|
1
|
—
|
1
|
|
|
Lietuva
|
—
|
—
|
—
|
—
|
Dati nav pieejami.
|
|
Luksemburga
|
2021.–2022.g.
|
0
|
0
|
0
|
|
|
Malta
|
—
|
—
|
—
|
—
|
Dati netika iesniegti/paziņoti.
|
|
Nīderlande
|
2021.g.
|
—
|
—
|
222
|
Nav pieejami dati, kas nošķirti pēc dzimuma.
|
|
Polija
|
2022.g.
|
2368
|
487
|
3014
|
2022. gadā Polijas Valsts policijas informācijas sistēma sniedz datus par 3014 cietušajiem ar CSA saistītos noziedzīgos nodarījumos (2368 sievietes, 487 vīrieši, 159 gadījumos dzimums nav norādīts).
|
|
Portugāle
|
—
|
—
|
—
|
—
|
Dati netika iesniegti/paziņoti.
|
|
Rumānija
|
—
|
—
|
—
|
—
|
Dati netika iesniegti/paziņoti.
|
|
Slovākija
|
2021. gada augusts – 2022. gada jūlijs
|
13
|
8
|
21
|
|
|
Slovēnija
|
2021. gada 1. janvāris – 2023. gada 14. jūlijs
|
220
|
85
|
305
|
|
|
Spānija
|
2022.g.
|
80
|
39
|
119
|
|
|
Zviedrija
|
2022.g.
|
8
|
4
|
12
|
|
|
KOPĀ VISAS DALĪBVALSTIS
|
2021. gada 1. janvāris – 2023. gada 6. marts
|
3156
|
700
|
4922
|
|
Uz iepriekš minētajiem datiem attiecas vairākas papildu atrunas. Esošie statistikas dati ne vienmēr ļauj dalībvalstīm datus par cietušajiem, kuri tika identificēti, pamatojoties uz pakalpojumu sniedzēja ziņojumu, nošķirt no datiem par cietušajiem, kuri, piemēram, paši ir ziņojuši par noziedzīgo nodarījumu vai par to ir ziņojis kāds cits, kurš pazina cietušo vai atklāja noziedzīgo nodarījumu (kā norādīja Slovēnija). Zviedrija norādīja, ka ziņo arī par bērniem, kas identificēti, izmantojot tērzēšanas žurnālus, lai gan seksuālu vardarbību atspoguļojošas fotogrāfijas vai video nekad nav atrasti vai nav konstatēts, ka to autors ir šis konkrētais cietušais.
Kopumā 8. tabulā sniegtie dati ne vienmēr atbilst Pagaidu regulā noteiktajiem ziņošanas pienākumiem, kas attiecas tikai uz cietušajiem, kuri izglābti, pateicoties pakalpojumu sniedzēju un organizāciju, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem, iesniegtajiem ziņojumiem saskaņā ar šo regulu. Dažos gadījumos sniegtie dati ietver cietušos, kas identificēti dažādu citu iemeslu un līdzekļu dēļ.
Tādējādi šie dati neļauj gūt visaptverošu pārskatu par to bērnu skaitu, kas ES identificēti kā seksuālās vardarbības pret bērniem tiešsaistē upuri.
Turklāt pat tad, ja cietušais ir identificēts, tas vēl nenozīmē, ka saistībā ar šo identifikāciju ir pieņemts notiesājošs spriedums. Dažos gadījumos cietušais tika identificēts, taču izmeklēšanas gaitā neizdevās noskaidrot aizdomās turamo vai panākt notiesājošu spriedumu (Zviedrija).
Tomēr no datiem var secināt, ka ievērojams skaits cietušo ir identificēti, izmantojot brīvprātīgu ziņošanu saskaņā ar Pagaidu regulu. To apstiprina tiesībaizsardzības iestāžu ziņojumi par lietām, kas bieži vien tiek ierosinātas, pamatojoties tikai uz brīvprātīgiem ziņojumiem.
2.2.3. Notiesāto likumpārkāpēju skaits
Lai gan lielākā daļa dalībvalstu izpildīja savus pienākumus, divas dalībvalstis nesniedza nekādus datus vai pamatojumu, kāpēc neiesniedza ziņojumus saskaņā ar Pagaidu regulas 8. panta 1. punkta c) apakšpunktu.
Vairākas dalībvalstis nesniedza statistikas datus par pārskata periodu saskaņā ar šo noteikumu un norādīja šādus iemeslus:
-dati vēl nav pieejami (Beļģija un Spānija);
-centrālajā datubāzē, ko izmanto noziegumu reģistrēšanai, nav prasīts reģistrēt sākotnējā ziņojuma veidu (Īrija);
-dati netiek vākti (Vācija).
Dalībvalstis sniedza ļoti atšķirīgus datus par notiesāto likumpārkāpēju skaitu, un pārskata periodi atšķīrās, kā redzams 9. tabulā.
9. tabula Notiesāto likumpārkāpēju skaits
|
Valsts
|
Pārskata periods
|
Notiesājošu spriedumu skaits
|
Piezīmes
|
|
Austrija
|
2021.g.
|
850
|
Datos nav nošķirti nodarījumi, kas īstenoti tiešsaistē un bezsaistē.
|
|
Beļģija
|
—
|
—
|
Dati nav pieejami.
|
|
Bulgārija
|
2021.–2022.g.
|
52
|
|
|
Horvātija
|
—
|
—
|
Dati nav pieejami.
|
|
Kipra
|
2022.g.
|
0
|
Līdz šim nav notiesājošu spriedumu.
|
|
Čehija
|
2022. gada 1. janvāris – 2022. gada 31. jūlijs
|
20
|
|
|
Dānija
|
2021. gada 2. augusts – 2023. gada 20. janvāris
|
224
|
|
|
Igaunija
|
2021.g.
|
2
|
Ietver tikai notiesājošus spriedumus, kas pieņemti NCMEC ziņojumu rezultātā.
|
|
Somija
|
2021.g.
|
240
|
|
|
Francija
|
2021. gada 4. augusts – 2022. gada 3. augusts
|
820
|
|
|
Vācija
|
—
|
—
|
Dati nav pieejami.
|
|
Grieķija
|
2021.–2022.g.
|
62
|
|
|
Ungārija
|
2021.–2022.g.
|
126
|
|
|
Īrija
|
—
|
—
|
Dati nav pieejami.
|
|
Itālija
|
2021.–2022.g.
|
5835
|
Datos nav nošķirti nodarījumi, kas īstenoti tiešsaistē un bezsaistē.
|
|
Latvija
|
2021.–2022.g.
|
33
|
Datos nav nošķirti nodarījumi, kas īstenoti tiešsaistē un bezsaistē.
|
|
Lietuva
|
2021. gada 1. janvāris – 2022. gada 30. jūnijs
|
10
|
|
|
Luksemburga
|
2022.g.
|
11
|
Datos nav nošķirti nodarījumi, kas īstenoti tiešsaistē un bezsaistē.
|
|
Malta
|
—
|
—
|
Dati netika iesniegti/paziņoti.
|
|
Nīderlande
|
2021.g.
|
217
|
|
|
Polija
|
No 2021. gada otrā pusgada līdz 2022. gada pirmajam pusgadam / 2022. gads / 2023. gada pirmais pusgads
|
185 / 194 / 81
|
|
|
Portugāle
|
—
|
—
|
Dati netika iesniegti/paziņoti.
|
|
Rumānija
|
—
|
—
|
Dati netika iesniegti/paziņoti.
|
|
Slovākija
|
2021.g.
|
10
|
|
|
Slovēnija
|
2021.–2022.g.
|
45
|
|
|
Spānija
|
2022.g.
|
—
|
Dati nav pieejami.
|
|
Zviedrija
|
2022.g.
|
55
|
|
Ir svarīgi atzīmēt, ka notiesājošo spriedumu skaits nav vienāds ar notiesāto likumpārkāpēju skaitu, jo persona var tikt notiesāta par vienu vai vairākiem nodarījumiem, kas saistīti ar seksuālu vardarbību pret bērniem tiešsaistē.
Turklāt statistika par notiesājošiem spriedumiem, par kuriem ziņots par noteiktu periodu, ne vienmēr ir saistīta ar ziņojumiem, kas saņemti attiecīgajā periodā (t. i., notiesājošs spriedums 2022. gadā var būt saistīts, piemēram, ar 2021. vai 2020. gada ziņojumu, un 2022. gada ziņojums var novest pie notiesājoša sprieduma tikai 2023. gadā vai vēlāk). Vairākas dalībvalstis (Īrija, Luksemburga, Zviedrija) to īpaši uzsvēra savos ziņojumos.
Dažos gadījumos netika apkopoti statistikas dati par to, vai ziņojumi par aizdomīgām darbībām (piemēram, ar NCMEC starpniecību) ir noveduši pie notiesājošiem spriedumiem vai, citiem vārdiem sakot, vai notiesājoši spriedumi ir izrietējuši no pakalpojumu sniedzēja vai publiskā sektora organizācijas sniegtās informācijas (Austrija, Latvija). Tikai Igaunija nepārprotami apstiprināja, ka statistikā ir norādīti tikai tie notiesājošie spriedumi, kas izriet no NCMEC ziņojumiem. Iespējams, ka šie ziņojumi ir ļāvuši identificēt arī citus likumpārkāpējus, par kuriem notiek izmeklēšana un kuri notiesāti izmeklēšanas rezultātā (Austrija).
Pārsvarā tiek pieņemts, ka paziņotais notiesājošo spriedumu skaits ir no brīža, kad lieta ir pabeigta pēc tam, kad spriedums, iespējams, ir pārsūdzēts tiesu sistēmā. Vienā dalībvalstī (Dānijā), kur skaitļi ir apkopoti, ņemot vērā jaunāko nolēmumu, šie skaitļi nav galīgi, jo nolēmumi varēja tikt pārsūdzēti pēc tam.
Atsevišķos gadījumos valstu IT sistēmās ietvertie un dalībvalstu paziņotie dati nenošķir tiešsaistē un bezsaistē īstenotos noziedzīgos nodarījumus (Austrija, Luksemburga, Latvija).
Tāpēc dalībvalstu iesniegtie ļoti atšķirīgie ziņojumi un veids, kādā statistikas dati tiek apkopoti valstu līmenī, neļauj gūt visaptverošu pārskatu par to, cik daudz likumpārkāpēju ES ir notiesāti par seksuālu vardarbību pret bērniem tiešsaistē. Pamatojoties uz pieejamajiem datiem, pašlaik arī nav iespējams skaidri sasaistīt šos notiesājošos spriedumus ar ziņojumiem, ko saskaņā ar attiecīgo regulu konkrētos pārskata periodos iesnieguši pakalpojumu sniedzēji un organizācijas, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem.
2.3.Tehnoloģiju attīstība
Tehnoloģijas, ko pašlaik izmanto, lai atklātu seksuālu vardarbību pret bērniem tiešsaistē, ietver tehnoloģijas un rīkus, kas paredzēti, lai atklātu “zināmus” (t. i., iepriekš atklātus) CSAM, “jaunus” (t. i., iepriekš neatklātus) CSAM un uzmākšanos bērniem (saukta par “iedraudzināšanu”).
Turpmāk minētie piemēri ietver dažus no visplašāk izmantotajiem rīkiem, un tie nav uzskatāmi par izsmeļošu sarakstu. Daudzi no šiem rīkiem ir pieejami pakalpojumu sniedzējiem, tiesībaizsardzības iestādēm un citām organizācijām, ja var pierādīt leģitīmas intereses. Parasti šie rīki tiek kombinēti ar cilvēka veiktu pārskatīšanu, lai nodrošinātu pēc iespējas lielāku precizitāti.
Šajā iedaļā ir iekļauti arī papildu sasniegumi tehnoloģiju attīstībā, kas saistīti ar mākslīgo intelektu.
2.3.1. Zināmu CSAM atklāšana
Esošās tehnoloģijas zināmu CSAM atklāšanai balstās tikai uz automātisku satura analīzi un parasti ir balstītas uz jaucējalgoritmu. Jaucējalgoritma tehnoloģija ir digitālo nospiedumu veids. Tā izveido unikālu attēla digitālo parakstu (tā saukto “jaucējkodu”), kas pēc tam tiek salīdzināts ar citu fotoattēlu parakstiem (jaucējkodiem), lai atrastu tā paša attēla kopijas. Šī tehnoloģija atklāj tikai atbilstošus jaucējkodus un “neredz” materiālus, kuri neatbilst jaucējkodam. Jaucējkodi arī nav atgriezeniski, tāpēc tos nevar izmantot attēla atjaunošanai.
Pastāv daudz jaucējalgoritma tehnoloģijas variāciju un izmantošanas veidu. Rīki, kas identificēti kā izmantoti zināmu CSAM atklāšanai, ir šādi: i)
Microsoft PhotoDNA
; ii)
Google CSAI Match
; iii) Apple
NeuralHash + Private Set Intersection
; iv)
Meta SSN++
; v)
PDQ un TMK+PDQF
; vi)
MD5 Hash generator
(Skype); vii)
Safer
(Thorn).
Visplašāk izmantotais rīks ir Microsoft PhotoDNA, ko izmanto vairāk nekā 150 organizācijas. PhotoDNA izmanto jau vairāk nekā 10 gadus, un šim rīkam ir augsta precizitāte. Pamatojoties uz testēšanas rezultātiem, tiek lēsts, ka pseidopozitīvu rezultātu īpatsvars ir ne vairāk kā 1 no 50 miljardiem. PhotoDNA kļūdu īpatsvars ir ārkārtīgi zems tehnoloģijas īpatnību dēļ. Šī tehnoloģija atklāj tikai iepriekš identificēta satura kopijas. Sākotnējā PhotoDNA tehnoloģija atklāj zināmus CSAM attēlos, taču ir pieejama arī versija CSAM atklāšanai video materiālos.
Tehnoloģija nepārtraukti attīstās un tiek uzlabota. 2023. gada maijā Microsoft paziņoja par jaunu salīdzināšanas iespēju ieviešanu, kas nodrošina ātrāku meklēšanu (aptuveni 350 reižu ātrāk), vienlaikus samazinot salīdzināšanas procesa izmaksas un nezaudējot precizitāti. Saskaņā ar Microsoft sniegto informāciju jaunā bibliotēka nodrošina arī apvērstu vai pagrieztu attēlu uzlabotu atklāšanu. Turklāt Internet Watch Foundation (IWF) ziņoja, ka nesen uzlaboja savu jaucējalgoritma tehnoloģiju.
2.3.2. Jaunu CSAM atklāšana
Tehnoloģijas, ko pašlaik izmanto jaunu CSAM atklāšanai, ietver klasifikatorus un mākslīgo intelektu (MI), kas analizē attēlus un video, lai atklātu satura modeļus, kuri atbilst modeļiem, kas izveidoti, pamatojoties uz iepriekš identificētiem materiāliem, kuros atspoguļota seksuāla vardarbība pret bērniem. Klasifikators ir algoritms, kas sagrupē datus marķētās klasēs vai informācijas kategorijās, izmantojot modeļa atpazīšanu. Klasifikatoru apmācībai ir nepieciešami dati, un to precizitāte uzlabojas, kad tajos ievada arvien vairāk datu.
Jaunu CSAM atklāšanas rīki ietver: i)
Safer
(Thorn); ii)
Google satura drošuma API
; iii) Facebook MI tehnoloģiju; iv)
Amazon Rekognition
; v)
Hive AI vizuālajam saturam
.
Pētījumi liecina, ka visnoderīgākie CSAM atklāšanas līdzekļi ir automatizēti rīki un sistēmas, piemēram, klasifikatori. Jaunu CSAM atklāšanas precizitātes rādītājs pašlaik ievērojami pārsniedz 90 %. Piemēram, Thorn norāda, ka tā CSAM klasifikatoru var iestatīt uz 99 % precizitāti (gan zināmiem, gan jauniem CSAM), kas nozīmē 0,1 % pseidopozitīvu rezultātu. Šie rādītāji, visticamāk, uzlabosies, palielinoties lietojumam un atgriezeniskajai saitei.
2.3.3. Iedraudzināšanas atklāšana
Teksta saziņas jomā iedraudzināšanas (uzmākšanās bērniem) atklāšanas rīki izmanto tehnoloģijas, tikai lai atklātu modeļus, kas norāda uz iespējamiem konkrētiem elementiem, kuri rada aizdomas par seksuālu vardarbību pret bērniem tiešsaistē, bet nevar noteikt satura būtību. Šī metode tiek izmantota teksta tērzēšanas sarunām. Sarunas tiek novērtētas pēc vairākiem raksturlielumiem, un tām tiek piešķirts vispārējs varbūtības vērtējums, kas norāda, cik liela ir paredzamā varbūtība, ka saruna ietver iedraudzināšanu. Šie vērtējumi kalpo kā noteicošais faktors, ko nosaka atsevišķi uzņēmumi, lai atzīmētu sarunas, kuras nepieciešams papildus pārbaudīt cilvēkam.
Teksta noteikšanas operācijās tiek izmantoti šādi rīki: i)
Microsoft Project Artemis
; ii)
Amazon Rekognition
; iii) Twitch
Spirit AI
tehnoloģija (tās pamatā ir dabiskās valodas apstrāde (NLP), teksta klasifikatori); iv) Meta iekšēji izstrādāts mašīnmācīšanās klasifikators (apvieno iekšējās valodas analīzes tehnoloģijas ar metadatiem); v)
Roblox
tērzēšanas filtrēšanas sistēma; vi) Thorn un Tech Coalition tehniskais risinājums, kura pamatā ir mašīnmācīšanās un klasifikatori.
Tāpat kā jaunu CSAM identificēšanas gadījumā, arī iedraudzināšanas satura identificēšanai ir nepieciešams apmācīt tehnoloģiju ar šādu saturu. Piekļuve šādiem apmācības datiem joprojām ir lielākā problēma šādu tehnoloģiju izstrādē un uzlabošanā.
Thorn sadarbībā ar Tech Coalition un tās dalībniekiem ir uzsācis jaunu iniciatīvu, kuras mērķis ir izstrādāt tehnisku risinājumu nolūkā identificēt un novērst iedraudzināšanas mēģinājumus tiešsaistē, kas būtu noderīgs un izmantojams dažādās platformās, kuras piedāvā teksta saziņu. Tā pamatā būs Thorn darbs pie NLP (dabiskās valodas apstrādes) klasifikatora jeb mašīnmācīšanās modeļa, kas nosaka un klasificē gadījumus, kad tiešsaistes saturs vai uzvedība ietilpst noteiktās “klasēs”, kas saistītas ar iedraudzināšanu (piemēram, seksuāla rakstura materiālu rādīšana vai mēģinājumi klātienē tikties ar nepilngadīgu personu), kā arī nosaka kopējo vērtējumu, cik lielā mērā konkrētā saruna ir saistīta ar iedraudzināšanu.
2.3.4. Mākslīgā intelekta sarunbotu un mākslas darbu / attēlu ģeneratoru radītās jaunās problēmas
MI sarunbotu, piemēram,
ChatGPT
(
OpenAI
izstrādātais lielais valodas modelis (LLM)), un mākslas darbu / attēlu ģeneratoru, piemēram,
DALL-E
un
Midjourney
, izstrāde un izlaišana ir izraisījusi lielu sabiedrības uzmanību, galvenokārt tāpēc, ka tie spēj ātri sniegt gatavas atbildes vai radīt reālistiskus attēlus, ko var izmantot daudzos dažādos kontekstos. Šie jaunie rīki ātri ieguva plašu popularitāti un tiek plaši izmantoti. Tehnoloģiju uzņēmumi, to vidū Microsoft un Google, finansē un izstrādā vadošos produktus, un jaunās tehnoloģijas tiek pilnveidotas un regulāri tiek ieviestas to uzlabotas versijas.
Lai gan šīs tehnoloģijas piedāvā lieliskas iespējas gan uzņēmumiem, gan sabiedrībai, tās tiem var arī radīt risku. Vienas no bažām par šādiem produktiem ir tas, ka noziedznieki var censties tos izmantot negodīgiem mērķiem, tai skaitā bērnu seksuālai izmantošanai.
Kā ziņo Eiropols, lai gan visa ChatGPT sniegtā informācija ir brīvi pieejama internetā, šis rīks ļaundariem “ievērojami atvieglo iespēju bez priekšzināšanām uzzināt par ļoti daudzām potenciālajām noziegumu jomām, sākot no tā, kā iekļūt mājoklī, līdz terorismam, kibernoziegumiem un seksuālai vardarbībai pret bērniem”. Tas ļauj minētajām personām labāk izprast un vēlāk veikt šāda veida noziegumus.
OpenAI noteikumi ierobežo ChatGPT spēju reaģēt uz seksuāla, naidīga, vardarbīga satura vai satura, kas veicina paškaitējumu, pieprasījumiem. Tomēr šos aizsargmehānismus var diezgan viegli apiet, izmantojot uzvedņu inženieriju. Nesenā MI sarunbotu ieviešana (piemēram, Snapchat) liecina, ka tie var pārkāpt aizskarošas vai bīstamas saziņas robežu, ieskaitot seksuālu vardarbību pret bērniem.Tā kā arvien vairāk uzņēmumu apsver MI sarunbotu testēšanu savās platformās (Instagram, iespējams, WhatsApp un Messenger), ir rūpīgi jāizvērtē to ietekme uz lietotājiem, īpaši bērniem un jauniešiem.
Šiem jaunajiem rīkiem ir nepieciešami arī atbilstoši aizsargmehānismi, lai tie netiktu ļaunprātīgi izmantoti tādu MI radītu dziļviltotu materiālu ģenerēšanai, kuros atspoguļota seksuāla vardarbība pret bērniem. Ņemot vērā MI rīku attīstības tempu, iespējams, ka drīz būs ievērojami vieglāk ģenerēt attēlus, ko nav iespējams atšķirt no īstiem attēliem. Tas rada vairākas būtiskas problēmas cīņā pret CSA, jo tiesībaizsardzības iestāžu spēja izmeklēt CSAM lietas, saukt likumpārkāpējus pie atbildības un identificēt reālus cietušos var tikt ļoti apgrūtināta, ja ļoti reālistiski ar datoru ģenerēti CSAM kļūs ļoti izplatīti tiešsaistē.
Pētījumi liecina, ka piekļuve materiāliem, kuros atspoguļota seksuāla vardarbība pret bērniem, bieži vien ir pirmais solis ceļā uz fizisku vardarbību neatkarīgi no tā, vai šie materiāli attēlo reālu vai reālistisku vardarbību un izmantošanu. Tāpēc ir ļoti svarīgi ierobežot tādu MI radītu dziļviltotu materiālu izplatīšanu, kuros atspoguļota seksuāla vardarbība pret bērniem, jo tas ir viens no veidiem, kā novērst noziedzīgā nodarījuma izdarīšanu. Vēl viena būtiska problēma ir tā, ka iedraudzinātāji var izmantot ChatGPT uzlabotās teksta ģenerēšanas iespējas apvienojumā ar esošo bezmaksas MI, kas tekstu pārvērš par attēlu, lai ātri un viegli ģenerētu saturu viltus profiliem un ticamām sarunām ar jauniešiem ar mērķi iedraudzināt bērnus tiešsaistē. “Lai gan ChatGPT pats par sevi nepamudinās cilvēkus kļūt par tiešsaistes iedraudzinātājiem, tā ļauj ikvienam, izmantojot MI tehnoloģiju, papildināt savas sarunas ar bērniem tiešsaistē, lai padarītu sevi pārliecinošāku un uzticamāku saviem upuriem, tādējādi veicinot manipulēšanu.” “Ģeneratīvajam MI varētu būt potenciāls veicināt iedraudzināšanas gadījumu skaita pieaugumu tiešsaistē un pat “automatizēt bērnu iedraudzināšanu plašā mērogā”.”
3.SECINĀJUMI
Pakalpojumu sniedzēju veiktie īstenošanas pasākumi
Pakalpojumu sniedzēju ziņojumi liecināja, ka saskaņā ar Pagaidu regulu tie ir atklājuši seksuālu vardarbību pret bērniem tiešsaistē un ziņojuši par to, izmantojot dažādas atklāšanas tehnoloģijas un procesus. Visi pakalpojumu sniedzēji ziņoja par šo ziņojumu nosūtīšanu NCMEC. Attiecībā uz pakalpojumu sniedzēju apstrādāto persondatu veidu un apjomiem ziņojumos tika norādīts, ka ir savākti dažādi informācijas plūsmas dati un apstrādāto datu apjomi ir dažāda detalizācijas līmeņa, kas neļauj Komisijai iegūt vienotus ES līmeņa datus par pakalpojumu sniedzējiem attiecīgajā pārskata periodā (no 2021. gada jūlija līdz 2023. gada 31. janvārim).
Pakalpojumu sniedzēji neiesniedza informāciju par dažādo izmantoto tehnoloģiju kļūdu skaitu un īpatsvaru (pseidopozitīvi rezultāti) sadalījumā pa izmantotajām tehnoloģijām, norādot, ka tie izmanto daudzlīmeņu pieeju tiešsaistes CSA atklāšanai, ko papildina ar cilvēka veiktu pārskatīšanu. Tajā pašā laikā pakalpojumu sniedzēji īstenoja dažādus pasākumus un aizsargmehānismus nolūkā ierobežot un samazināt kļūdu īpatsvaru atklāšanā. Turklāt pakalpojumu sniedzēji ziņoja, ka ir izstrādājuši datu glabāšanas politiku un datu aizsardzības pasākumus, kas definēti to privātuma politikā vai paziņojumos un ko atbalsta nozares standarta datu aizsardzības mehānismi un pasākumi.
Dalībvalstu veiktie īstenošanas pasākumi
Pagaidu regula arī uzliek dalībvalstīm pienākumu (saskaņā ar tās 8. pantu) sniegt galveno statistiku par seksuālas vardarbības pret bērniem tiešsaistē gadījumiem, kas atklāti un paziņoti to tiesībaizsardzības iestādēm, identificēto cietušo bērnu skaitu un notiesāto likumpārkāpēju skaitu. Tā kā dalībvalstis pārsvarā sniedza datus par atšķirīgiem pārskata periodiem, no iesniegtajiem datiem nebija iespējams aprēķināt ES līmenī saņemto ziņojumu par konstatēto seksuālas vardarbības pret bērniem tiešsaistē gadījumu kopējo skaitu. Turklāt dalībvalstu saņemto un paziņoto ziņojumu skaits var atšķirties no izmeklēšanai piemērotu ziņojumu skaita vai no paziņoto gadījumu skaita. Tikai dažas dalībvalstis norādīja pakalpojumu sniedzējus, kuru pakalpojumos tika konstatēta seksuāla vardarbība pret bērniem tiešsaistē. Dažos gadījumos valsts statistikas datos nav nošķirti nodarījumi, kas izmeklēti, pamatojoties uz ziņojumiem, kurus iesnieguši pakalpojumu sniedzēji un citas organizācijas, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem, no nodarījumiem, kas izmeklēti, pamatojoties uz citiem ziņojumiem.
Līdz ar to no saņemtajiem ziņojumiem nebija iespējams iegūt informāciju par tādu bērnu kopējo skaitu, kas ES identificēti kā seksuālas vardarbības pret bērniem tiešsaistē upuri, nošķirot tos pēc dzimuma. Iemesli ir, piemēram, šādi: dati tika paziņoti par atšķirīgiem pārskata periodiem; tika izmantotas dažādas vecuma robežas no CSA tiešsaistē cietušo bērnu definēšanai; šāda detalizācijas līmeņa statistikas datu vākšana valsts līmenī netika veikta tehnisku vai citu ierobežojumu dēļ; netika nošķirti no CSA tiešsaistē un bezsaistē cietušie bērni utt. Dažas dalībvalstis savā statistikā iekļauj arī bērnus, kas paši radījuši materiālus. Vēl svarīgāk ir tas, ka statistikā bieži vien netiek nošķirti cietušie, kas identificēti, pamatojoties uz ziņojumiem, kurus iesnieguši pakalpojumu sniedzēji un organizācijas, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem, saskaņā ar regulu, un cietušie, kas identificēti, pamatojoties uz citiem iemesliem un līdzekļiem.
Arī pārskats par notiesāto likumpārkāpēju skaitu ir sadrumstalots. Atsevišķos gadījumos šādi dati nav pieejami, jo datubāzēs nav reģistrēts sākotnējā ziņojuma avots, un tādējādi datos nav nošķirti likumpārkāpēji, kas notiesāti saskaņā ar regulu iesniegto ziņojumu un citu ziņojumu rezultātā. Dažos gadījumos valsts IT sistēmās ietvertie dati arī nenošķir tiešsaistē un bezsaistē īstenotos noziedzīgos nodarījumus. Turklāt statistika par notiesājošiem spriedumiem, par kuriem ziņots par noteiktu periodu, ne vienmēr ir saistīta ar ziņojumiem, kas saņemti attiecīgajā periodā, bet var attiekties uz ziņojumiem, kas saņemti agrākos periodos. Apkopotā statistika par notiesājošo spriedumu skaitu var atšķirties arī no notiesāto likumpārkāpēju skaita (jo vienam likumpārkāpējam var būt vairāki notiesājoši spriedumi).
Dalībvalstu iesniegtā neviendabīgā statistika un tas, ka dalībvalstis, šķiet, ne vienmēr sistemātiski un pienācīgi vāc datus, kā arī visi iepriekš minētie faktori neļauj gūt visaptverošu pārskatu par saņemtajiem ziņojumiem par CSA tiešsaistē, par to bērnu skaitu, kuri identificēti kā šā nozieguma upuri, vai par to, cik likumpārkāpēji ir notiesāti ES līmenī saskaņā ar regulu. Fakts, ka attiecībā uz lielāko daļu dalībvalstu pastāv būtiskas atšķirības starp to ziņojumu skaitu, kurus NCMEC norāda kā nosūtītus dalībvalstij, un to ziņojumu skaitu, kurus dalībvalsts norāda kā saņemtus, liecina, ka datu vākšana un ziņošana nav pilnīga. Dažas dalībvalstis apstiprināja, ka to kompetentajās iestādēs notiek strukturālas izmaiņas vai reorganizācija, kas saistīta ar tādu jaunu nodaļu izveidi, kuras atbild par noziegumu izmeklēšanu saistībā ar seksuālu vardarbību pret bērniem tiešsaistē. Tiek ieviestas arī jaunas IT sistēmas, un valstu iestādēm tika lūgts mainīt reģistrācijas procedūras un statistiku atsevišķās dalībvalstīs. Tam vajadzētu radīt labvēlīgus apstākļus, kas ļautu nākotnē no dalībvalstīm iegūt precīzāku statistiku. Jebkurā gadījumā Komisija vajadzības gadījumā izmantos Līgumos noteiktās pilnvaras, lai nodrošinātu, ka dalībvalstis izpilda savus ziņošanas pienākumus saskaņā ar Pagaidu regulu.
Vispārīgi apsvērumi
Kopumā šis ziņojums liecina par ievērojamām atšķirībām gan pakalpojumu sniedzēju, gan dalībvalstu sniegtajos ziņojumos par datiem saistībā ar cīņu pret CSA tiešsaistē saskaņā ar Pagaidu regulu. Plašāka pieejamo datu standartizācija un ziņošana par tiem, piemēram, kā paredzēts priekšlikumā regulai par seksuālas vardarbības pret bērniem novēršanu un apkarošanu, palīdzētu gūt labāku priekšstatu par attiecīgajiem pasākumiem cīņā pret šo noziegumu. Šķiet, ka pakalpojumu sniedzējiem un dalībvalstīm ir papildus jācenšas, lai nodrošinātu datu vākšanu un ziņošanu saskaņā ar Pagaidu regulas prasībām.
Pieejamie dati liecina, ka saskaņā ar pašreizējo brīvprātīgās atklāšanas un ziņošanas sistēmu ir iespējams, ka materiāli automātiski tiek atzīmēti kā iespējami CSAM, bet pēc cilvēka veiktas pārskatīšanas tiek konstatēts, ka tie nav CSAM. Tas var būt saistīts ar to, ka trūkst vienota jaucējkodu un citu rādītāju kopuma, kas ļautu atklāt CSAM, kuri ES ir atzīti par nelikumīgiem, vai ar atšķirīgiem juridiskajiem standartiem dažādās jurisdikcijās, jo īpaši ES un ASV, it īpaši saistībā ar attiecīgajām definīcijām. Dati liecina arī par lielām atšķirībām pārskatīšanas pieprasījumu skaitā un pozitīva pārskatīšanas iznākuma rādītājos, un tāpēc nav iespējams izdarīt secinājumus, jo trūkst informācijas, īpaši par pārskatīšanas pieprasījumu apjomu un atjaunošanas iemesliem.
Attiecībā uz 9. panta 2. punkta prasībām par apstrādes nosacījumiem sniegtā informācija liecina, ka izmantotās tehnoloģijas atbilst tehnoloģiskajām lietojumprogrammām, kas izstrādātas vienīgi ar mērķi atklāt un izņemt tiešsaistē pieejamus materiālus, kuros atspoguļota seksuāla vardarbība pret bērniem, un ziņot par tiem tiesībaizsardzības iestādēm un organizācijām, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem. Netika sniegta informācija par to, vai tehnoloģiju ieviešana atbilst jaunākajiem sasniegumiem un notiek privātumu vismazāk aizskarošā veidā, kā arī par to, vai ir veikts Regulas (ES) 2016/679 35. pantā minētais iepriekšējais novērtējums par ietekmi uz datu aizsardzību un regulas 36. pantā minētā iepriekšējas apspriešanās procedūra.
Attiecībā uz regulas proporcionalitāti galvenais jautājums ir, vai ar Pagaidu regulu ir panākts līdzsvars, ko ES likumdevēji centās panākt, no vienas puses, starp sabiedrības interešu mērķa — rezultatīvi apkarot attiecīgos ārkārtīgi smagos noziegumus — sasniegšanu un nepieciešamību aizsargāt bērnu pamattiesības (cieņu, neaizskaramību, necilvēcīgas vai pazemojošas izturēšanās aizliegumu, privāto dzīvi, bērna tiesības) un, no otras puses, aizsargāt attiecīgo pakalpojumu lietotāju pamattiesības (privātumu, persondatu aizsardzību, vārda aizsardzību, efektīvu tiesisko aizsardzību). Pieejamie dati ir nepietiekami galīgu secinājumu izdarīšanai šajā jautājumā. Nav ne iespējams, ne arī lietderīgi piemērot skaitliskus standartus, novērtējot šādu proporcionalitāti attiecībā uz izglābto bērnu skaitu, ņemot vērā būtisko negatīvo ietekmi uz bērna dzīvi un tiesībām, ko izraisa seksuāla vardarbība. Tomēr, ņemot vērā iepriekš minēto, nekas neliecina, ka atkāpe nav samērīga.
Neraugoties uz pieejamo datu nepilnībām, kas neļauj gūt ieskatu par brīvprātīgo ziņojumu izmantošanu ievērojamā skaitā dalībvalstu, no pieejamajiem datiem ir skaidrs, ka pārskata periodā tika identificēti tūkstošiem bērnu, tika pieņemti vairāk nekā divi tūkstoši notiesājošu spriedumu un no aprites tika izņemti miljoniem attēlu un video, tādējādi samazinot sekundāro viktimizāciju. Tāpēc var secināt, ka brīvprātīga ziņošana ievērojami palīdzēja aizsargāt lielu skaitu bērnu, tai skaitā no ilgstošas vardarbības, un šķiet, ka Pagaidu regula ir rezultatīva.