Briselē, 19.12.2023

COM(2023) 797 final

KOMISIJAS ZIŅOJUMS EIROPAS PARLAMENTAM UN PADOMEI

par to, kā tiek īstenota Eiropas Parlamenta un Padomes Regula (ES) 2021/1232 (2021. gada 14. jūlijā) par pagaidu atkāpi no konkrētiem Direktīvas 2002/58/EK noteikumiem attiecībā uz tehnoloģiju izmantošanu, ko veic numurneatkarīgu starppersonu sakaru pakalpojumu sniedzēji, lai apstrādātu persondatus un citus datus nolūkā apkarot seksuālu vardarbību pret bērniem tiešsaistē


SATURA RĀDĪTĀJS

TERMINU UN SAĪSINĀJUMU SARAKSTS    

1.    IEVADS    

2.    ĪSTENOŠANAS PASĀKUMI    

2.1.    Persondatu apstrāde, ko veic pakalpojumu sniedzēji (3. panta 1. punkta g) apakšpunkta vii) punkts)    

2.1.1.    Apstrādāto datu veids un apjoms    

2.1.2. Apstrādes pamatojums saskaņā ar Regulu (ES) 2016/679    

2.1.3.    Pamatojums persondatu nosūtīšanai ārpus Savienības saskaņā ar VDAR V nodaļu (attiecīgā gadījumā)    

2.1.4.    Konstatēto jeb identificēto seksuālas vardarbības pret bērniem tiešsaistē gadījumu skaits, nošķirot CSAM un uzmākšanos bērniem    

2.1.5.    Lietotāju pārsūdzības mehānismi un iznākums    

2.1.6.    Dažādo izmantoto tehnoloģiju kļūdu skaits un īpatsvars (pseidopozitīvi rezultāti)    

2.1.7.    Pasākumi, kas piemēroti, lai ierobežotu kļūdu īpatsvaru, un panāktais kļūdu īpatsvars    

2.1.8.    Datu glabāšanas politika un saskaņā ar VDAR piemērotie datu aizsardzības pasākumi    

2.1.9.    To organizāciju nosaukumi, kuras darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem un ar kurām saskaņā ar attiecīgo regulu ir kopīgoti dati.    

2.2.    Dalībvalstu statistika (8. pants)    

2.2.1. Ziņojumu par konstatētajiem seksuālas vardarbības pret bērniem tiešsaistē gadījumiem kopējais skaits    

2.2.2. Identificēto bērnu skaits    

2.2.3. Notiesāto likumpārkāpēju skaits    

2.3.    Tehnoloģiju attīstība    

2.3.1. Zināmu CSAM atklāšana    

2.3.2. Jaunu CSAM atklāšana    

2.3.3. Iedraudzināšanas atklāšana    

2.3.4. Mākslīgā intelekta sarunbotu un mākslas darbu / attēlu ģeneratoru radītās jaunās problēmas    

3.    SECINĀJUMI    

TERMINU UN SAĪSINĀJUMU SARAKSTS

Termins vai saīsinājums

Atšifrējums/definīcija

MI

Mākslīgais intelekts

API

Lietojumprogrammas saskarne

CG-CSAM

Ar datoru ģenerēts materiāls, kurā atspoguļota seksuāla vardarbība pret bērniem

ChatGPT

ChatGPT (Chat Generative Pre-trained Transformer) ir ģeneratīva MI veids. Tas ir OpenAI izstrādāts sarunbots, kas balstīts uz lielo valodas modeli un ļauj lietotājiem precizēt un virzīt sarunu, nosakot vēlamo garumu, formātu, stilu, detalizācijas līmeni un valodu.

Klasifikatori

Mākslīgā intelekta veids, algoritms, kas šķiro datus marķētās klasēs vai kategorijās

Satura drošuma API klasifikators

Google satura drošuma API klasifikators izmanto programmatisku piekļuvi un mākslīgo intelektu, kas palīdz klasificēt un prioritizēt miljardiem attēlu pārskatīšanai

CSA

Seksuāla vardarbība pret bērnu

CSAI Match 

CSAI Match ir YouTube inženieru izstrādāta tehnoloģija, ar ko identificē gadījumus, kad tiek atkārtoti augšupielādi iepriekš identificēti video, kuros atspoguļota seksuāla vardarbība pret bērniem

CSAM

Materiāls, kurā atspoguļota seksuāla vardarbība pret bērniem, piemēram, attēli un video, kuros redzama CSA

CSA direktīva

Eiropas Parlamenta un Padomes Direktīva 2011/93/ES (2011. gada 13. decembris) par seksuālas vardarbības pret bērniem, bērnu seksuālas izmantošanas un bērnu pornogrāfijas apkarošanu un ar kuru aizstāj Padomes Pamatlēmumu 2004/68/TI, OV L 335, 17.12.2011., 1.–14. lpp.

CSEA

Bērnu seksuāla izmantošana un seksuāla vardarbība pret bērniem

CSA tiešsaistē

Kopējs termins, ko izmanto, lai apzīmētu CSA direktīvā definētos trīs seksuālas vardarbības pret bērniem veidus, proti: bērnu pornogrāfiju, pornogrāfisku priekšnesumu un uzmākšanos bērniem (“iedraudzināšanu”), kā definēts Pagaidu regulā (2. panta 3. punkts)

ES

Eiropas Savienība

VDAR

Eiropas Parlamenta un Padomes Regula (ES) 2016/679 (2016. gada 27. aprīlis) par fizisku personu aizsardzību attiecībā uz personas datu apstrādi un šādu datu brīvu apriti un ar ko atceļ Direktīvu 95/46/EK (Vispārīgā datu aizsardzības regula), OV L 119, 4.5.2016., 1.–88. lpp. 

Iedraudzināšana

Likumpārkāpēji veido uzticēšanos un attiecības ar bērnu, lai iegūtu piekļuvi nepilngadīgajam seksuālas izmantošanas vai vardarbības nolūkā. Oficiāli saukta par uzmākšanos bērniem, kā definēts CSA direktīvas 6. pantā

Jaucējkods

Unikāls digitālais kods, kas izveidots ar matemātisku algoritmu (“jaucējalgoritmu”) un kļūst par faila parakstu jeb tā jaucējkodu

Pagaidu regula

Eiropas Parlamenta un Padomes Regula (ES) 2021/1232 (2021. gada 14. jūlijs) par pagaidu atkāpi no konkrētiem Direktīvas 2002/58/EK noteikumiem attiecībā uz tehnoloģiju izmantošanu, ko veic numurneatkarīgu starppersonu sakaru pakalpojumu sniedzēji, lai apstrādātu persondatus un citus datus nolūkā apkarot seksuālu vardarbību pret bērniem tiešsaistē, OV L 274, 30.7.2021., 41.–51. lpp.

LLM

Lielais valodas modelis (LLM) ir mākslīgā intelekta modeļa veids, kas ir apmācīts, izmantojot dziļās mācīšanās algoritmus, lai atpazītu, ģenerētu, tulkotu un/vai apkopotu milzīgu daudzumu cilvēku rakstītās valodas un teksta datu.

MD5

Kriptogrāfiskā ziņojuma autentifikācijas koda algoritms izmantošanai internetā

Meta SSN++

Meta izstrādāts MI modelis, kas spēj noteikt gandrīz precīzus dublikātus.

NCMEC

Bezvēsts pazudušo un izmantoto bērnu nacionālais centrs (National Centre for Missing and Exploited Children) — ASV privāta bezpeļņas organizācija, kuru saskaņā ar ASV tiesību aktiem tiešsaistes pakalpojumu sniedzēji informē par iespējamas seksuālas vardarbības pret bērniem gadījumiem, ko tie konstatējuši savos tīklos

PDQ un TMK+PDQF

Facebook izmantotie rīki kaitīga satura noteikšanai. PDQ ir fotoattēlu salīdzināšanas tehnoloģija; TMK+PDQF ir video salīdzināšanas tehnoloģija.

PhotoDNA

Visplašāk izmantotais rīks, kura pamatā ir jaucējalgoritma tehnoloģija un kurš ir pieejams bez maksas, pamatojoties uz licencēšanas līgumu, kas pielāgots, lai novērstu ļaunprātīgu izmantošanu un izmantošanu citiem mērķiem, nevis CSA atklāšanai

1.IEVADS

Ar Pagaidu regulas (turpmāk arī “regula”) 9. pantu Komisijai uzlikts pienākums sagatavot ziņojumu par tās īstenošanu, pamatojoties uz ziņojumiem, ko iesnieguši starppersonu sakaru pakalpojumu sniedzēji (turpmāk “pakalpojumu sniedzēji”) par persondatu apstrādi, un dalībvalstu sniegto statistiku. Saskaņā ar iepriekš minēto noteikumu īstenošanas ziņojumā Komisija jo īpaši novērtē:

a) attiecīgos nosacījumus attiecīgo persondatu un citu saskaņā ar regulu apstrādāto datu apstrādei;

b) regulā paredzētās atkāpes samērīgumu, cita starpā izvērtējot statistiku, ko dalībvalstis iesniegušas saskaņā ar 8. pantu;

c) tehnoloģiju attīstību saistībā ar darbībām, uz kurām attiecas regula, un to, cik lielā mērā šāda attīstība uzlabo precizitāti un samazina kļūdu skaitu un īpatsvaru (pseidopozitīvi rezultāti).

Šā saskaņā ar Pagaidu regulu sagatavotā īstenošanas ziņojuma pamatā ir dati, kas iegūti no pakalpojumu sniedzēju un dalībvalstu sniegtajiem ziņojumiem saskaņā ar regulas 3. panta 1. punkta g) apakšpunkta vii) punktu un 8. pantu. Minētie ziņojumi atklāja būtiskas atšķirības datu pieejamībā, savākto datu veidos un tādējādi arī pakalpojumu sniedzēju un dalībvalstu savākto datu salīdzināmībā. Tā kā regulā nav noteikta ziņojuma veidne, pakalpojumu sniedzēji sniedza dažāda veida informāciju, kas ne vienmēr bija salīdzināma; tāpēc Komisijas dienesti veica turpmākus pasākumus, lai nodrošinātu datu pareizu interpretāciju. Lielākā daļa dalībvalstu nespēja laikus sniegt datus, un vairākas no tām līdz šā ziņojuma publicēšanai nespēja sniegt nekādus datus. Tas būtiski ietekmēja ziņojuma publicēšanas laiku, pilnīgumu un lietderību. Neraugoties uz centieniem nodrošināt datu saskaņotību un salīdzināmību, joprojām pastāv būtiskas atšķirības, kas atspoguļotas turpmāk tabulās, kurās arī nav iekļauti dati par visiem pakalpojumu sniedzējiem vai dalībvalstīm visos punktos.

Šā īstenošanas ziņojuma mērķis ir sniegt faktisku pārskatu par pašreizējo stāvokli saistībā ar Pagaidu regulas īstenošanu, pamatojoties uz pieejamajiem datiem. Ziņojumā nav sniegtas nekādas regulas interpretācijas, un tajā nav pausta nekāda nostāja par to, kā regula ir interpretēta un piemērota praksē.



2.ĪSTENOŠANAS PASĀKUMI

2.1.Persondatu apstrāde, ko veic pakalpojumu sniedzēji (3. panta 1. punkta g) apakšpunkta vii) punkts)

Pagaidu regulas 3. panta 1. punkta g) apakšpunkta vii) punktā ir paredzēti nosacījumi, saskaņā ar kuriem pakalpojumu sniedzējiem, kas darbojas saskaņā ar tajā paredzēto atkāpi, līdz 2022. gada 3. februārim un pēc tam katru gadu līdz 31. janvārim jāpublicē un jāiesniedz kompetentajai uzraudzības iestādei un Komisijai ziņojums par persondatu apstrādi saskaņā ar šo regulu. Google, LinkedIn, Meta, Microsoft un X (iepriekš Twitter) 1 iesniedza ziņojumus par 2021. un 2022. gadu.

2.1.1.Apstrādāto datu veids un apjoms

Pakalpojumu sniedzēji ziņoja, ka apstrādā gan satura datus, gan informācijas plūsmas datus.

Attiecībā uz satura datiem, kas apstrādāti nolūkā atklāt seksuālu vardarbību pret bērniem tiešsaistē, visi iepriekš minētie pakalpojumu sniedzēji minēja attēlus un video. Pārsvarā tie izmantoja jaucējkoda salīdzināšanas tehnoloģijas PhotoDNA un MD5 ar mērķi atklāt atbilsmes iepriekš identificētiem materiāliem, kuros atspoguļota seksuāla vardarbība pret bērniem (turpmāk “CSAM”). Tika izmantots Google CSAI Match rīks nolūkā izveidot platformās pieejamo video digitālos nospiedumus un salīdzināt tos ar failiem Google/YouTube nospiedumu repozitorijā (LinkedIn). Tika ziņots gan par automatizētu tehnoloģiju (mākslīgā intelekta mašīnmācīšanās), gan cilvēka veiktas pārskatīšanas izmantošanu (piemēram, Google). Google un LinkedIn apstiprināja, ka ir identificēti arī tādi CSAM, kas neatbilda iepriekš identificētajiem CSAM. Neviens no pieciem datus iesniegušajiem pakalpojumu sniedzējiem neziņoja par datiem attiecībā uz uzmākšanās bērniem atklāšanu, izmantojot teksta noteikšanu, saskaņā ar šajā regulā paredzēto atkāpi.

Attiecībā uz apkopotajiem informācijas plūsmas datiem un apstrādāto dažādo veidu satura datu un informācijas plūsmas datu attiecīgajiem apjomiem pakalpojumu sniedzēju ziņojumi ievērojami atšķīrās.

Pakalpojumu sniedzēju savāktie informācijas plūsmas dati, kas iekļauti CyberTipline ziņojumos ASV Bezvēsts pazudušo un izmantoto bērnu nacionālajam centram (turpmāk “NCMEC”) ietver šādus datus (visus vai daļu):

a)ar lietotāju / ziņojumā aplūkoto personu / kontu saistīti dati (Google, LinkedIn, Microsoft, X);

b)metadati, kas saistīti ar satura/darījumu datiem (Google, LinkedIn, Microsoft);

c)dati, kas saistīti ar potenciālo cietušo (Google);

d)Dati par operācijām, kas saistītas ar vardarbību (Google).

Attiecībā uz tādu datu apjomu, kas apstrādāti saskaņā ar Pagaidu regulu, LinkedIn ziņoja, ka no 2021. gada 14. jūlija līdz 31. decembrim apstrādāja 8 miljonus ES izcelsmes attēlu un video, bet 2022. gadā — 21 miljonu ES izcelsmes attēlu un 63 000 video. Microsoft ziņoja, ka no 2021. gada jūlija līdz decembrim regulas vajadzībām visā pasaulē apstrādāja 8,9 miljardus attēlu un video, bet 2022. gadā — 12,3 miljardus satura vienību visā pasaulē; skaitļi par ES nebija pieejami, tāpēc nav iespējams izdarīt nekādus secinājumus šā ziņojuma vajadzībām. Pārējie pakalpojumu sniedzēji nesniedza informāciju par apstrādāto datu apjomu. Tāpēc tikai viens no pieciem ziņojumus iesniegušajiem pakalpojumu sniedzējiem sniedza datus vajadzīgajā detalizācijas līmenī.

Lai ilustrētu vispārējo kontekstu, NCMEC ziņoja, ka 2022. gadā kopumā saņēma 87,2 miljonus attēlu un video no visas pasaules un 5,1 miljonu attēlu un video no ES, bet 2021. gadā 84,8 miljonus attēlu un video no visas pasaules un 1,8 miljonus attēlu un video no ES. Tie ir tikai tie materiāli, kurus pakalpojumu sniedzējs ir identificējis kā potenciālus CSAM, un tāpēc tos nevar uzskatīt par norādi uz kopējo datu apjomu, kas apstrādāts saskaņā ar Pagaidu regulu.

2.1.2. Apstrādes pamatojums saskaņā ar Regulu (ES) 2016/679

Pakalpojumu sniedzēji ziņoja, ka ir izmantojuši šādus pamatojumus saskaņā ar Regulu (ES) 2016/679 (turpmāk “VDAR”):

·VDAR 6. panta 1. punkta d) apakšpunkts, t. i., apstrāde, kas vajadzīga, lai aizsargātu bērnu un no seksuālas vardarbības pret bērniem tiešsaistē cietušo vitālās intereses (Google, Meta, X 2 );

·VDAR 6. panta 1. punkta e) apakšpunkts, t. i., apstrāde, kas vajadzīga, lai izpildītu uzdevumus, ko veic sabiedrības interesēs, (LinkedIn, Microsoft, Meta, X 3 );

·VDAR 6. panta 1. punkta f) apakšpunkts, t. i., apstrāde, kas vajadzīga, lai ievērotu šādu personu leģitīmās intereses:

I.pakalpojumu sniedzējs — lai atklātu, novērstu vai citādi vērstos pret seksuālu vardarbību pret bērniem tiešsaistē savos pakalpojumos un aizsargātu citus lietotājus, klientus, partnerus un sabiedrību no šāda veida nelikumīga satura (Google, Meta);

II.no seksuālās vardarbības pret bērniem cietušie un organizācija, kurai pakalpojumu sniedzējs ziņo par seksuālu vardarbību pret bērniem tiešsaistē (piemēram, NCMEC) — lai atklātu, novērstu un likvidētu seksuālu vardarbību pret bērniem tiešsaistē savos pakalpojumos (Google).

2.1.3.Pamatojums persondatu nosūtīšanai ārpus Savienības saskaņā ar VDAR V nodaļu (attiecīgā gadījumā)

Visi pakalpojumu sniedzēji ziņoja, ka izmanto līguma standartklauzulas, ko Komisija apstiprinājusi saskaņā ar VDAR 46. panta 2. punkta c) apakšpunktu. Attiecībā uz persondatu nosūtīšanu uz NCMEC LinkedIn arī ziņoja, ka izmanto saskaņā ar VDAR 49. panta 1. punktu atļauto atkāpi, ciktāl tā ir piemērojama.

2.1.4.Konstatēto jeb identificēto seksuālas vardarbības pret bērniem tiešsaistē gadījumu skaits, nošķirot CSAM un uzmākšanos bērniem

1. tabula 2021. gadā identificēto seksuālas vardarbības pret bērniem tiešsaistē gadījumu skaits

Pakalpojumu sniedzējs

2021. gadā identificēto CSAM skaits

Piezīmes

Google

33 Google Chat konti

Šis skaits attiecas uz ES lietotāju Google Chat kontu skaitu, kuros, izmantojot automatizētas tehnoloģijas, laikposmā no 2021. gada 2. augusta līdz 2021. gada 31. decembrim tika identificēta seksuāla vardarbība pret bērniem tiešsaistē. Netika sniegti dati par identificēto satura vienību skaitu.

LinkedIn

31 satura vienība

31 satura vienība tika apstiprināta kā CSAM, veicot manuālu pārskatīšanu, un par to tika ziņots NCMEC; 6 bija zināmi CSAM, bet pārējie 25 bija nezināmi CSAM.

Meta

340 000 kontu

Tādu kontu skaits, kuros no 2021. gada 8. novembra līdz 2021. gada 31. decembrim konstatēts, ka tie ir nosūtījuši vismaz vienu multivides vienību, kas ir CSAM, ziņojumu pavedienos, kuros piedalījās ES lietotājs.

Microsoft

6600 satura vienības

No vairāk nekā 20 000 satura vienību, kas visā pasaulē identificētas no 2021. gada jūlija līdz 2021. gada decembrim, 6600 satura vienību (atsevišķs attēls vai video) tika identificētas kā CSAM no Eiropas Savienības.

X (iepriekš Twitter)

532 898 konti

Konti (nav skaidrs, vai tikai no ES vai no visas pasaules), kas apturēti par X bērnu seksuālās izmantošanas politikas pārkāpumiem no 2021. gada 2. augusta līdz 2021. gada 31. decembrim.

Attiecībā uz X no sniegtajiem datiem nav skaidrs, vai tie attiecas tikai uz pakalpojumiem, uz kuriem attiecas Pagaidu regula (numurneatkarīgi starppersonu sakaru pakalpojumi), vai arī šis skaits ietver arī citus pakalpojumus (piemēram, informācijas sabiedrības pakalpojumus). Tas attiecas uz visiem šajā ziņojumā ietvertajiem datiem, kas saistīti ar X.

2. tabula 2022. gadā identificēto seksuālas vardarbības pret bērniem tiešsaistē gadījumu skaits

Pakalpojumu sniedzējs

2022. gadā identificēto CSAM skaits

Piezīmes

Google

2045 satura vienības

Satura vienības, kas identificētas un paziņotas NCMEC 752 ar ES lietotājiem saistītos Google kontos, izmantojot automatizētās tehnoloģijas.

LinkedIn

2 satura vienības

LinkedIn atklāja 2 attēlus un 0 video, kas apstiprināti kā CSAM.

Meta

6,6 miljoni satura vienību

Apturētās multivides vienības, kas ir CSAM un kas tika atklātas ar Meta multivides salīdzināšanas tehnoloģiju ziņojumu pavedienos,

kuros piedalījās ES lietotājs.

Microsoft

12 800 satura vienību

No vairāk nekā 50 000 satura vienību, kas visā pasaulē identificētas 2022. gadā, 12 800 satura vienību (atsevišķs attēls vai video) tika identificētas kā CSAM no Eiropas Savienības.

X (iepriekš Twitter)

2 348 712 konti

Konti (nav skaidrs, vai tikai no ES vai no visas pasaules), kas apturēti par X bērnu seksuālas izmantošanas politikas pārkāpumiem.

2.1.5.Lietotāju pārsūdzības mehānismi un iznākums 

Saskaņā ar Pagaidu regulas 3. panta 1. punkta g) apakšpunkta iv) punktu pakalpojumu sniedzējiem ir jāievieš atbilstošas procedūras un pārsūdzības mehānismi, lai nodrošinātu, ka lietotāji var tiem iesniegt sūdzības. Turklāt regulas 5. pantā ir ietverti noteikumi par pārsūdzību tiesā.

Pakalpojumu sniedzēji ziņoja, ka ir ieviestas šādas iekšējās pārsūdzības procedūras un mehānismi lietotājiem, kuru konti ir ierobežoti saistībā ar CSAM kopīgošanu un/vai kuru saturs ir izņemts kā CSAM, lai viņi varētu pārsūdzēt ierobežojumus/izņemšanu un lai tiktu izvērtēts, vai viņu gadījumā nav pieļautas kļūdas.

Tie ziņoja par gadījumiem, kad lietotājs ir iesniedzis sūdzību iekšējā pārsūdzības mehānismā vai tiesu iestādē attiecībā uz jautājumiem, uz kuriem attiecas regula ES, un par šādu sūdzību iznākumu. Neviens pakalpojumu sniedzējs, izņemot Microsoft (kas 2021. un 2022. gadā ziņoja par 0 sūdzībām abos kanālos), nesniedza atsevišķu statistiku par iekšējo pārsūdzību un pārsūdzību tiesā; tāpēc turpmāk sniegtajās tabulās ir iekļautas gan iekšējās pārsūdzības, gan pārsūdzības tiesā procedūras.

3. tabula To gadījumu skaits 2021. gadā, kad lietotājs ir iesniedzis sūdzību iekšējā pārsūdzības mehānismā vai tiesu iestādē, un šādu sūdzību iznākums

Pakalpojumu sniedzējs

Lietotāju sūdzību skaits

Atjaunotu kontu skaits

Atjaunotu satura vienību skaits

Piezīmes

Google

8

0

n. p.

Tādu gadījumu skaits, kad saistībā ar seksuālu vardarbību pret bērniem tiešsaistē atspējota Google Chat konta lietotājs pārsūdzēja lēmumu: 8. Neviens konts netika atjaunots.

LinkedIn

0

n. p.

n. p.

Meta

4900

n. p.

207

4900 lietotāju pārsūdzēja lēmumu. Pēc pārsūdzības procesa 207 lietotājiem tika atjaunots saturs un tika atceltas ar kontu veiktās darbības.

Microsoft

0

n. p.

n. p.

X (iepriekš Twitter)

aptuveni 90 000

aptuveni 3000

n. p.

Aptuveni 90 000 pārsūdzības gadījumu. X atjaunoja aptuveni 3000 no šiem kontiem.

4. tabula To gadījumu skaits 2022. gadā, kad lietotājs ir iesniedzis sūdzību iekšējā pārsūdzības mehānismā vai tiesu iestādē, un šādu sūdzību iznākums

Pakalpojumu sniedzējs

Lietotāju sūdzību skaits

Atjaunotu kontu skaits

Atjaunotu satura vienību skaits

Piezīmes

Google

378

0

n. p.

Tādu gadījumu skaits, kad saistībā ar seksuālu vardarbību pret bērniem tiešsaistē atspējota Google konta lietotājs pārsūdzēja lēmumu: 378. Neviens konts netika atjaunots.

LinkedIn

0

n. p.

n. p.

Meta

29 000

n. p.

3700

Lietotāji pārsūdzēja veiktās darbības attiecībā uz aptuveni 29 000 viņu kopīgoto multivides vienību. Pēc pārsūdzības procesa tika atjaunotas aptuveni 3700 satura vienības un tika atceltas ar kontu veiktās darbības.

Microsoft

0

n. p.

n. p.

X (iepriekš Twitter)

aptuveni 430 000

aptuveni 4000

n. p.

aptuveni 430 000 pārsūdzības gadījumu X atjaunoja aptuveni 4000 no šiem kontiem.

2.1.6.Dažādo izmantoto tehnoloģiju kļūdu skaits un īpatsvars (pseidopozitīvi rezultāti)

Saskaņā ar Pagaidu regulas 3. panta 1. punkta e) apakšpunktu pakalpojumu sniedzējiem ir jānodrošina, ka izmantotās tehnoloģijas ir pietiekami uzticamas, jo tās maksimāli ierobežo kļūdu īpatsvaru attiecībā uz tāda satura atklāšanu, kas atspoguļo seksuālu vardarbību pret bērniem tiešsaistē.

Šajā sakarā pakalpojumu sniedzēji ziņoja, ka viņi neizmanto katru tehnoloģiju atsevišķi, lai atklātu CSA tiešsaistē. Nolūkā atklāt CSA tiešsaistē tie drīzāk izmanto daudzlīmeņu pieeju, apvienojot dažādas atklāšanas tehnoloģijas, lai palielinātu precizitāti. Lai samazinātu kļūdu vai pseidopozitīvu rezultātu skaitu, visi pakalpojumu sniedzēji papildus izmanto cilvēka veiktu pārskatīšanu. Pakalpojumu sniedzēji nesniedza informāciju par kļūdu (pseidopozitīvu rezultātu) skaitu un īpatsvaru katrai izmantotajai tehnoloģijai atsevišķi, bet gan sniedza apkopotus datus par visām izmantotajām tehnoloģijām.

Lielākā daļa pakalpojumu sniedzēju mēra kļūdu skaitu un īpatsvaru kā izpildes lēmumu atcelšanu, t. i., kā pārsūdzības rezultātā veiktās atjaunošanas/atcelšanas kopējo īpatsvaru (piemēram, cik lielu daļu atspējotu kontu vai satura pakalpojumu sniedzējs atjaunoja pēc lietotāja veiktās pārsūdzības). Pakalpojumu sniedzēju izmantotā pieeja ne vienmēr atspoguļo “pseidopozitīvu rezultātu” definīciju statistikā.

Paziņotie pārsūdzības rezultātā veiktās atjaunošanas/atcelšanas īpatsvara rādītāji ir šādi:

5. tabula Pārsūdzības rezultātā veiktās atjaunošanas/atcelšanas īpatsvars

2021.g.*

2022.g.

Pakalpojumu sniedzējs

atjaunoti konti (%) attiecībā pret pārsūdzību skaitu

atjaunoti konti (%) attiecībā pret apturētajiem kontiem

atjaunoti konti (%) attiecībā pret pārsūdzību skaitu

atjaunoti konti (%) attiecībā pret apturētajiem kontiem

Piezīmes

Google

0 % (0 pret 8)

0 % (0 pret 33)

0 % (0 pret 378)

0 %

(sk. piezīmes)

Par 2022. gadu apturēto kontu skaits netika norādīts. Tā vietā tika norādīts identificēto un NCMEC paziņoto satura vienību skaits — 2045. Pēc pārsūdzības neviens konts netika atjaunots.

LinkedIn

0 %

0 %

0 %

0 %

Lēmumi netika pārsūdzēti. Par laikposmu no 2021. gada 13. jūlija līdz 2021. gada 31. decembrim LinkedIn arī ziņoja, ka no 75 failiem, kas tika pārskatīti kā potenciāli ES izcelsmes CSAM, 31 tika atzīts par CSAM cilvēka veiktas pārskatīšanas rezultātā. LinkedIn nesniedza šādus datus par 2022. gadu.

Meta

4,22 %

(207 pret 4900)

0,06 %

(207 pret 340 000)

Sk. piezīmes

Sk. piezīmes

Netika sniegta informācija, kas ļautu precīzi noteikt pārsūdzību apjomu, saturu un atjaunošanas iemeslus.

Par 2022. gadu dati tika sniegti par satura vienībām, nevis kontiem:

-Apturēto satura vienību skaits: 6,6 miljoni

-To satura vienību skaits, par kurām pārsūdzēts lēmums: 29 000

-Atjaunoto satura vienību skaits: 3700

Tādējādi:

-atjaunotas satura vienības (%) attiecībā pret pārsūdzību skaitu: 12,8 % (3700 pret 29 000)

-atjaunotas satura vienības (%) attiecībā pret apturēto satura vienību skaitu: 0,06 % (3700 pret 6,6 miljoniem)

Microsoft

0 %

Nav pietiekamu datu, kas ļautu aprēķināt pārsūdzības rezultātā veiktās atjaunošanas/atcelšanas īpatsvaru. Attiecībā uz 2022. gadu bija kopumā 17 sākotnējā satura moderēšanas lēmuma atcelšanas gadījumi, bet netika sniegti skaitļi par pārsūdzību kopskaitu.

X (iepriekš Twitter)

1,43 %

(100 pret 7000)

0,06 %

(100 pret 166 000)

2,17 %

(500 pret 23 000)

0,10 %

(500 pret 501 000)

2021. gada otrajā pusgadā ar automatizētu mehānismu palīdzību saistībā ar CSA tika apturēti aptuveni 166 000 lietotāju. No šiem lietotājiem aptuveni 7000 iesniedza sūdzības, kuru rezultātā aptuveni 100 lēmumi tika atcelti.

2022. gadā ar automatizētu mehānismu palīdzību saistībā ar CSA tika apturēts aptuveni 501 000 lietotāju. No šiem lietotājiem aptuveni 23 000 iesniedza sūdzības, kuru rezultātā aptuveni 500 lēmumi tika atcelti.

* 2021. gada pārskata periodi katram pakalpojumu sniedzējam ir atšķirīgi.

2.1.7.Pasākumi, kas piemēroti, lai ierobežotu kļūdu īpatsvaru, un panāktais kļūdu īpatsvars

Saskaņā ar Pagaidu regulas 3. panta 1. punkta e) apakšpunktu izmantotajām tehnoloģijām jābūt pietiekami uzticamām, un, ja pa laikam kļūdas rodas, to sekas nekavējoties jānovērš. Turklāt 3. panta 1. punkta g) apakšpunkta ii) punktā ir noteikts, ka jānodrošina cilvēka veikta uzraudzība un, ja tas nepieciešams, cilvēka iejaukšanās.

Visi pakalpojumu sniedzēji ziņoja, ka izmanto daudzlīmeņu pieeju, lai atklātu un apkarotu CSA izplatīšanu tiešsaistē. Tas ietver jaucējkoda salīdzināšanas tehnoloģiju (t. sk. PhotoDNA) izmantošanu, lai atklātu CSAM, apvienojumā ar cilvēka veiktas pārskatīšanas procesiem nolūkā noskaidrot, vai multivides failā (attēlā un video) ir CSAM, kā arī cilvēka veiktu CSAM apstrādes uzraudzību.

Pakalpojumu sniedzēji ziņoja, ka izmanto dažādus pasākumus un aizsargmehānismus nolūkā ierobežot un samazināt kļūdu īpatsvaru tiešsaistes CSA atklāšanā, ziņošanā par tiem un to izņemšanā. Tai skaitā (saraksts nav izsmeļošs) 4 :

I.CSA atklāšanas rīku darbības uzraudzība un kvalitātes novērtēšana, lai pielāgotu precizitāti (lai tie atklātu tikai seksuālu vardarbību pret bērniem tiešsaistē) un atpazīšanu (lai to platformās nepalaistu garām seksuālu vardarbību pret bērniem tiešsaistē) (Google, X);

II.cilvēka veikta pārskatīšana un uzraudzība: multivides vienību paraugus, kas ar jaucējkoda salīdzināšanas tehnoloģijām ir identificēti kā CSAM, pārbauda pārskatīšanas darbinieki / apmācīti analītiķi (Google, LinkedIn, Meta, Microsoft);

III.lielapjoma kopu atzīmēšana un pārskatīšana (Meta);

IV.turpmāku manuālās pārskatīšanas procesu ieviešana kā nepārtrauktas jaucējkoda salīdzināšanas kvalitātes pārbaudes (LinkedIn, Microsoft);

V.cilvēkiem, kas veic pārskatīšanu, padomdevēja vadībā tiek rīkotas specializētas, intensīvas mācības par to, kā atpazīt CSAM saturu, lai nodrošinātu cilvēka veiktās pārskatīšanas precizitāti (Google);

VI.periodiski kvalitātes kontroles novērtējumi, kas attiecas uz darbiniekiem, kuri veic pārskatīšanu, un piemērotajiem lēmumiem (Google, X);

VII.citi kvalitātes kontroles procesi ar mērķi samazināt kļūdu skaitu un nekavējoties novērst kļūdas, piemēram, neatkarīga jaucējkoda verifikācija (Google, LinkedIn), cilvēka veikta katra līdz šim neredzēta CSAM pārskatīšana pirms ziņošanas (Google);

VIII.politikas un izpildes stratēģiju izstrāde un regulāra pārskatīšana, ko veic apmācīti tiešsaistes CSA jomas eksperti (Google);

IX.sadarbība ar NCMEC saistībā ar CyberTipline ziņojumu kvalitāti un pseidopozitīviem gadījumiem, ja tādi ir (Google, LinkedIn, Meta, Microsoft, X).

2.1.8.Datu glabāšanas politika un saskaņā ar VDAR piemērotie datu aizsardzības pasākumi

Pagaidu regulas 3. panta 1. punkta h) un i) apakšpunktā ir attiecīgi noteikts, ka attiecīgie persondati jāglabā drošā veidā tikai konkrētiem noteiktiem nolūkiem, un ietvertas norādes par glabāšanas termiņu. Turklāt ir jāievēro piemērojamās VDAR prasības.

Pakalpojumu sniedzēji ziņoja, ka viņiem ir iedarbīga datu glabāšanas politika un persondatu aizsardzības pasākumi. Datu glabāšanas politika atšķiras atkarībā no datu veida. Tajā ir norādīts, ka katrā gadījumā glabāšanas periods ir ierobežots līdz ilgumam, ko uzskata par atbilstošu datu veidam un apstrādes mērķim, un dati tiek dzēsti pēc glabāšanas perioda beigām. Pakalpojumu sniedzējiem ir sīkāka informācija par datu glabāšanas praksi, kas definēta to privātuma politikā/paziņojumos un pakalpojumu/lietotāju līgumos.

Lielākā daļa pakalpojumu sniedzēju (LinkedIn, Meta, Microsoft) piemēro 90 dienu glabāšanas politiku attiecībā uz regulas darbības jomā atklātajiem multivides failiem, par kuriem ir apstiprināts, ka tie satur CSAM. Šajā laikā saturs, kas apstiprināts kā CSAM, tiek glabāts atsevišķā un drošā CSAM krātuvē, ko pārvalda specializētas struktūrvienības (piemēram, Microsoft Tiesībaizsardzības un nacionālās drošības struktūrvienība). Šīs glabāšanas sistēmas automātiski dzēš glabāto CSAM saturu pēc 90 dienām, ja vien glabāšanas periods nav pagarināts pēc likumīgu procesuālu pieprasījumu saņemšanas, kas parasti saistīti ar tiesībaizsardzības iestādēm, kuras veic darbības pēc NCMEC ziņojumiem.

Google ziņoja, ka regulas darbības jomā atklāto CSAM saturu glabā ne ilgāk, kā tas ir absolūti nepieciešams attiecīgajiem mērķiem saskaņā ar regulu, un jebkurā gadījumā ne ilgāk kā 12 mēnešus no CSAM identificēšanas un paziņošanas brīža, ar iespējamu pagarinājumu, pamatojoties uz spēkā esošu likumīgu saglabāšanas pieprasījumu.

X (iepriekš Twitter) ziņoja, ka profila informāciju un saturu glabā, kamēr pastāv lietotāja konts, un persondatus, kas savākti, kad lietotāji izmanto šo pakalpojumu, glabā ne ilgāk kā 18 mēnešus. Ja lietotājs deaktivizē kontu, X parasti saglabā datus vēl 30 dienas, bet pēc tam konts tiek dzēsts. Lietotāja dati, kas saistīti ar sūdzībām un politikas pārkāpumiem, tai skaitā pārkāpēju konta informācija (piemēram, identifikatori, kas izmantoti, lai izveidotu kontu: e-pasta adrese vai tālruņa numurs), tiek glabāti bezgalīgi, lai novērstu iespēju noteikumu atkārtotu pārkāpumu izdarītājiem izveidot jaunus kontus un nodrošinātu, ka X noteikumu pārkāpēji nevar vienkārši nogaidīt dzēšanas periodu un tad atkal pārkāpt noteikumus 5 .

Pakalpojumu sniedzēju īstenotie persondatu aizsardzības pasākumi ietver nozares standarta pasākumus (visus vai atsevišķus), piemēram (saraksts nav izsmeļošs) 6 :

I.anonimizācijas vai pseidonimizācijas metožu izmantošana un datu anonimizācija (piemēram, maskēšana, jaukšana, diferencēts privātums) (Goggle, LinkedIn, Meta, Microsoft);

II.tikai jaucējkodu sniegšana trešām personām CSAM atklāšanas nolūkā (Google, LinkedIn);

III.nozares standarta šifrēšanas (algoritmu un protokolu) izmantošana datiem, kas tiek pārsūtīti starp privātu infrastruktūru un publiskajiem tīkliem (Meta);

IV.datu pārvaldības stratēģiju / visaptverošu privātuma programmu īstenošana (X (iepriekš Twitter), Google) un stingri iekšēji datu piekļuves ierobežojumi (Meta) (piemēram, darbiniekiem, darbuzņēmējiem, aģentiem, kuriem informācija nepieciešama apstrādei), piekļuves kontrolsarakstu izmantošana CSAM pārskatīšanas rīkos un jaucējkodu aizliegumi (Meta), kā arī stingras līgumiskas konfidencialitātes saistības, ko piemēro personām, kam ir piekļuve;

V.anonimizācijas un datu pārvaldības stratēģiju pārskatīšana, t. i., privātuma pārskatu veikšana, lai identificētu, novērtētu un mazinātu iespējamos privātuma riskus, ko rada persondatu vākšana, apstrāde, glabāšana un kopīgošana, kā arī aizsardzības prakses pārskatīšana (Microsoft);

VI.drošības incidentu gadījumiem paredzētu reaģēšanas plānu uzturēšana, kas ļauj uzraudzīt, atklāt un novērst iespējamās drošības ievainojamības un incidentus visā infrastruktūrā (Google, Meta).

2.1.9.To organizāciju nosaukumi, kuras darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem un ar kurām saskaņā ar attiecīgo regulu ir kopīgoti dati.

Abos pārskata periodos (no 2021. gada jūlija/augusta līdz 2021. gada decembrim un no 2022. gada janvāra līdz 2022. gada decembrim) visi pakalpojumu sniedzēji ziņoja, ka saskaņā ar šo regulu apstrādātos datus kopīgo ar NCMEC. Visi ziņojumus iesniegušie pakalpojumu sniedzēji saskaņā ar Pagaidu regulas 7. panta 1. punktu arī paziņoja Komisijai, ka tie saskaņā ar šo regulu ir ziņojuši NCMEC par seksuālu vardarbību pret bērniem tiešsaistē 7 .

2.2.Dalībvalstu statistika (8. pants)

Saskaņā ar Pagaidu regulas 8. panta 1. punktu dalībvalstīm ir pienākums sniegt statistiku par:

(a)kopējo to ziņojumu skaitu par konstatētajiem seksuālas vardarbības pret bērniem tiešsaistē gadījumiem, kurus pakalpojumu sniedzēji un organizācijas, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem, ir snieguši kompetentajām valsts tiesībaizsardzības iestādēm, nošķirot (ja šāda informācija ir pieejama) absolūto gadījumu skaitu un tos gadījumus, par kuriem ziņots vairākas reizes, un to pakalpojumu sniedzēja veidu, kura pakalpojumā seksuāla vardarbība pret bērniem tiešsaistē tika konstatēta;

(b)to bērnu skaitu, kuri identificēti, veicot darbības saskaņā ar 3. pantu, nošķirot pēc dzimuma;

(c)notiesāto likumpārkāpēju skaitu.

Lai gan lielākā daļa dalībvalstu sniedza vismaz daļēju informāciju, daudzās dalībvalstīs nebija izveidotas attiecīgās datu vākšanas un ziņošanas sistēmas. Tāpēc, ja tika sniegti statistikas dati, tie attiecās uz ļoti dažādiem pārskata periodiem un ievērojami atšķīrās detalizācijas līmeņa ziņā. Dažas dalībvalstis iesniedza ikgadējo statistiku no regulas spēkā stāšanās dienas. Lielākā daļa no tām ziņoja par kalendārajiem gadiem, jo tām, iespējams, nebija tehnisko līdzekļu, lai nošķirtu pieprasītos statistikas datus pa gadiem no regulas spēkā stāšanās dienas. Dažas dalībvalstis nesniedza nekādus datus.

Jāatzīmē arī, ka dažos gadījumos statistikas dati ir iegūti no tā sauktajām aktuālajām datubāzēm vai žurnālu un lietu pārvaldības sistēmām, nevis no faktiskām statistikas sistēmām. Dažkārt skaitļi tiek sniegti, pamatojoties uz dinamiskiem datiem, kas nozīmē, ka dati nav galīgi, t. i., tie var mainīties. Izmaiņas notiek, piemēram, atkarībā no ieguves laika (piemēram, Slovēnijā un Dānijā), kad lielāks skaits izmeklēšanu un tiesas lietu ir pabeigtas.

Vairākās dalībvalstīs kompetentās iestādes veido jaunas struktūrvienības ar mērķi izmeklēt noziegumus, kas saistīti ar seksuālu vardarbību pret bērniem tiešsaistē, un izveido centralizētu ziņošanu par seksuālu vardarbību pret bērniem tiešsaistē (Latvija, Čehija). Paredzams, ka tas nākotnē palīdzēs iegūt precīzāku statistiku.

Vācija ziņoja, ka saskaņā ar Pagaidu regulas 8. panta 1. punktu tā nevar sniegt nekādus statistikas datus, jo uzskata, ka tai nav juridiska pamata brīvprātīgai atklāšanai 8 . Tomēr Vācijas Federālais krimināllietu birojs (BKA) savā tīmekļvietnē ziņoja par 89 844 ziņojumu saņemšanu no NCMEC 2022. gadā, un NCMEC ziņoja par 138 193 ziņojumu nosūtīšanu Vācijas iestādēm 9 . Trīs dalībvalstis (Malta, Portugāle un Rumānija) neiesniedza nekādus datus vai pamatojumu tam, kāpēc neziņo saskaņā ar šo noteikumu.

2.2.1. Ziņojumu par konstatētajiem seksuālas vardarbības pret bērniem tiešsaistē gadījumiem kopējais skaits

Lielākā daļa dalībvalstu saskaņā ar Pagaidu regulas 8. panta 1. punkta a) apakšpunktu sniedza zināmu statistiku par to, cik kopskaitā ir iesniegtu ziņojumu par konstatētajiem seksuālas vardarbības pret bērniem tiešsaistē gadījumiem. Tā kā dalībvalstis sniedza datus par dažādiem pārskata periodiem, nebija iespējams aprēķināt ES līmenī saņemto ziņojumu par konstatēto seksuālas vardarbības pret bērniem tiešsaistē gadījumu kopējo skaitu kādā konkrētā periodā, piemēram, regulas īstenošanas laikā.

Dalībvalstis lielākoties sniedza informāciju par to, cik kopskaitā ir ziņojumu, kas saņemti no pakalpojumu sniedzējiem vai citām organizācijām, kuras darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem, un kas iesniegti valsts tiesībaizsardzības iestādēm. Ņemot vērā to, ka lielākā daļa ASV reģistrēto pakalpojumu sniedzēju ziņo NCMEC, lielākā daļa dalībvalstu ziņoja, ka lielāko daļu vai visus ziņojumus saņem no NCMEC. Dalībvalstis nenorādīja to ziņojumu skaitu, kas ir piemēroti izmeklēšanai, bet dažas norādīja ierosināto lietu skaitu, kas ir ievērojami mazāks. Atšķirību starp saņemtajiem ziņojumiem un izmeklētajiem gadījumiem skaidroja ar vairākiem iemesliem, piemēram, ar to, ka ziņojums bija par CSAM, bet tajā nebija pietiekamas informācijas, lai sāktu izmeklēšanu, ziņojumu apvienošanu, ja uz konkrētu aizdomās turēto personu attiecas vairāk nekā viens ziņojums, vai to, ka materiāls netika novērtēts kā noziedzīgs saskaņā ar valsts tiesību aktiem, lai gan atspoguļoja izmantošanas situācijas. Turklāt dalībvalstis lielākoties nenošķīra absolūto gadījumu skaitu un gadījumus, par kuriem ziņots vairākas reizes. Gadījumos, kad ziņojumus sniedza NCMEC, NCMEC jau iepriekš klasificēja no pakalpojumu sniedzējiem saņemtos ziņojumus kā “izmeklēšanai piemērotus” vai “informatīvus”. NCMEC izmeklēšanai piemērotu ziņojumu definē kā ziņojumu, kurā ir pietiekami daudz informācijas, lai varētu sākt izmeklēšanu. Tas parasti ietver informāciju par lietotāju, attēlus un iespējamo atrašanās vietu. Ziņojums tiek klasificēts kā “informatīvs”, ja tajā ir nepietiekama informācija vai ja attēli tiek uzskatīti par virāliem un par tiem ir ziņots vairākkārt. NCMEC 2022. gadā 49 % ziņojumu klasificēja kā “izmeklēšanai piemērotus”, bet 51 % — kā “informatīvus”.

Tikai dažas dalībvalstis norādīja tādu pakalpojumu sniedzēju veidus, kuru pakalpojumos tika atklāta seksuāla vardarbība pret bērniem tiešsaistē (piemēram, Beļģija, Čehija, Igaunija, Francija un Polija), un tikai viena dalībvalsts sniedza detalizētu sadalījumu (Beļģija).

Slovēnija minēja, ka tā nevar norādīt gadījumu skaitu tikai par nodarījumiem, kas izmeklēti saistībā ar pakalpojumu sniedzēju un organizāciju iesniegtajiem ziņojumiem, bet tā vietā var norādīt skaitu tikai par visām izmeklēšanām saistībā ar seksuālu vardarbību pret bērniem tiešsaistē neatkarīgi no informācijas avota, kas bija par iemeslu izmeklēšanas uzsākšanai.

6. tabula Dalībvalstu paziņotais ziņojumu par konstatētajiem seksuālas vardarbības pret bērniem tiešsaistē gadījumiem kopējais skaits

Valsts

Pārskata periods

Ziņojumu par seksuālu vardarbību pret bērniem tiešsaistē kopējais skaits

Ziņojumu avots

Piezīmes

Austrija

2021.–2022.g.

16 311

NCMEC 

Beļģija

2021. gada 1. augusts – 2022. gada 31. jūlijs

26 226

Ziņojumi no pakalpojumu sniedzējiem (sociālie mediji) un Childfocus uzticības tālruņa

Bulgārija

2021.–2022.g.

9120

Pakalpojumu sniedzēji un INHOPE uzticības tālrunis, izmantojot “Safenet” u. c.

No tiem 9112 ziņojumi bija par tīmekļvietnēm, kas satur CSAM un ko mitinājuši Bulgārijas pakalpojumu sniedzēji.

Horvātija

2021. gada 1. janvāris – 2022. gada 31. oktobris

9044

NCMEC

Kipra

2021. gada 1. jūlijs – 2022. gada 31. decembris

3570

NCMEC

Čehija

2022. gada 1. janvāris – 2022. gada 31. jūlijs

13 279

NCMEC 

Dānija

2021. gada 2. augusts – 2023. gada 20. janvāris

10 744

NCMEC

Igaunija

NCMEC, Bērnu uzticības tālrunis 116 111

Igaunija ziņoja, ka policijas un robežsardzes, tai skaitā NCMEC, statistika nav publiska. 2021. gadā tās ziņoja par 360 bezkontakta dzimumnoziegumiem pret bērnu. Turklāt 86 % no visiem bezkontakta dzimumnoziegumiem tika pastrādāti interneta vidē vai izmantojot informācijas tehnoloģiju rīkus.  

Somija

2022.g.

25 000

NCMEC un “Glābiet bērnus”

Francija

2021. gada 1. augusts – 2022. gada 1. augusts

120 000

NCMEC

Vācija

Dati nav pieejami / nav paziņoti.

Grieķija

2021.–2022.g.

142

NCMEC, Grieķijas uzticības tālrunis nelegālam interneta saturam — Safeline, Nacionālā telesakaru un pasta komisija, Nacionālais SOS tālrunis 1056 — “Bērna smaids”, Grieķijas ombuds

Ungārija

2022.g.

0

Neviens no pakalpojumu sniedzēju nosūtītajiem ziņojumiem netika nosūtīts saskaņā ar Pagaidu regulu.

Īrija

2021.–2022.g.

15 355

NCMEC

Itālija

2022.g.

4607

Nav norādīts

Latvija

2022. gada 1. augusts – 2023. gada 6. marts

Aptuveni 115–220 ziņojumi mēnesī

No ārpus Latvijas esošiem pakalpojumu sniedzējiem un organizācijām, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem (galvenokārt NCMEC), un Latvijas pakalpojumu sniedzējiem un organizācijām (galvenokārt Latvijas Drošāka interneta centrs)

Lietuva

2021. gada 1. janvāris – 2022. gada 30. jūnijs

4142

Nav norādīts

Luksemburga

2021.–2022.g.

2491

Nav norādīts

Malta

Dati netika iesniegti/paziņoti.

Nīderlande

2021.g.

36 537

Pakalpojumu sniedzēji un organizācijas, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem

Polija

2021. gada 3. augusts – 2023. gada 3. augusts

227

Pakalpojumu sniedzēji un organizācijas, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem

Laikposmā no 2022. gada 3. augusta līdz 2023. gada 3. augustam Polija konstatēja 1 ziņojumu par bērnu iedraudzināšanu un 105 ziņojumus par CSAM.

Portugāle

Dati netika iesniegti/paziņoti.

Rumānija

Dati netika iesniegti/paziņoti.

Slovākija

2021. gada 1. augusts – 2022. gada 31. jūlijs

7206

Pakalpojumu sniedzēji un organizācijas, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem

Slovēnija

2021. gada 1. janvāris – 2023. gada 14. jūlijs

452

Šis skaitlis norāda noziedzīgus nodarījumus, kas saistīti ar darbībām internetā. Pašlaik esošie statistikas dati neļauj Slovēnijai statistikas datus par nodarījumiem, kas izmeklēti, pamatojoties uz pakalpojumu sniedzēju un organizāciju iesniegtajiem ziņojumiem, nošķirt no statistikas datiem par citiem ziņojumiem.

Spānija

2022.g.

31 474

Organizācijas, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem

Zviedrija

2021. gada augusts – 2022. gada 31. decembris

32 830

Galvenokārt NCMEC

Ņemot vērā, ka NCMEC ir galvenais ziņojumu avots, ir lietderīgi salīdzināt dalībvalstu saņemto ziņojumu skaitu ar NCMEC sniegtajiem datiem par dalībvalstīm nosūtītajiem ziņojumiem. 2021. gadā NCMEC saņēma kopumā 29 397 681 ziņojumu no nozares visā pasaulē, no kuriem 99,7 % (jeb 29 309 106) ietvēra vienu vai vairākus attēlus vai video, kuros redzama seksuāla vardarbība pret bērniem, 0,15 % (jeb 44 155) bija saistīti ar iedraudzināšanu un 0,05 % (jeb 16 032) — ar bērnu tirdzniecību seksuālas izmantošanas nolūkā. 2022. gadā NCMEC saņēma kopumā 32 059 029 ziņojumus, no kuriem 99,5 % (jeb 31 901 234) bija saistīti ar attēliem vai video, kuros redzama seksuāla vardarbība pret bērniem, 0,25 % (80 524) bija saistīti ar iedraudzināšanu un 0,06 % (jeb 18 336) — ar bērnu tirdzniecību seksuālas izmantošanas nolūkā. Attiecībā uz ES sadalījums ir šāds:

7. tabula NCMEC ziņojumi par aizdomām par seksuālu vardarbību pret bērniem tiešsaistē, kas sniegti ES dalībvalstīm 2021. un 2022. gadā

Valsts

Kopā ziņojumi 2021. g. 10

% no ES kopējā skaita 2021. g.

Kopā ziņojumi 2022. g. 11

% no ES kopējā skaita 2022. g.

% no ES iedzīvotāju skaita

Austrija

7580

1,36 %

18 501

1,23 %

2,00 %

Beļģija

15 762

2,84 %

50 255

3,34 %

2,60 %

Bulgārija

13 584

2,44 %

31 937

2,12 %

1,53 %

Horvātija

4744

0,85 %

11 693

0,78 %

0,86 %

Kipra

2657

0,48 %

7361

0,49 %

0,20 %

Čehija

15 004

2,70 %

61 994

4,12 %

2,36 %

Dānija

5891

1,06 %

30 215

2,01 %

1,31 %

Igaunija

2729

0,49 %

6408

0,43 %

0,30 %

Somija

6079

1,09 %

10 904

0,73 %

1,24 %

Francija

98 233

17,67 %

227 465

15,13 %

15,16 %

Vācija

79 701

14,34 %

138 193

9,19 %

18,59 %

Grieķija

14 616

2,63 %

43 345

2,88 %

2,37 %

Ungārija

31 710

5,70 %

109 434

7,28 %

2,16 %

Īrija

7327

1,32 %

19 770

1,31 %

1,13 %

Itālija

37 480

6,74 %

96 512

6,42 %

13,32 %

Latvija

1537

0,28 %

3688

0,25 %

0,42 %

Lietuva

3509

0,63 %

16 603

1,10 %

0,63 %

Luksemburga

2005

0,36 %

2004

0,13 %

0,14 %

Malta

750

0,13 %

4713

0,31 %

0,12 %

Nīderlande

36 790

6,62 %

57 012

3,79 %

3,96 %

Polija

37 758

6,79 %

235 310

15,65 %

8,41 %

Portugāle

34 415

6,19 %

42 674

2,84 %

2,31 %

Rumānija

32 765

5,89 %

96 287

6,40 %

4,25 %

Slovākija

7275

1,31 %

39 748

2,64 %

1,21 %

Slovēnija

3162

0,57 %

14 795

0,98 %

0,47 %

Spānija

33 136

5,96 %

77 727

5,17 %

10,60 %

Zviedrija

19 635

3,53 %

48 883

3,25 %

2,33 %

Kopā

555 834

1 503 431

Būtiskās atšķirības starp ziņojumu skaitu 2021. un 2022. gadā, kas liecina par strauju ziņojumu skaita pieaugumu 2022. gadā, lielā mērā skaidrojamas ar brīvprātīgas atklāšanas gadījumu skaita samazināšanos laikā no 2021. gada janvāra līdz augustam, kad Pagaidu regula vēl nebija piemērojama.

NCMEC savā statistikā par katru ES dalībvalsti ziņojumus nenošķir atkarībā no ziņojuma avota, jo īpaši atkarībā no tā, vai tas saņemts no numurneatkarīga starppersonu sakaru pakalpojuma. Tomēr NCMEC sniedz statistiku par tādu ziņojumu kopējo skaitu, kas attiecas uz ES un kas saņemti no numurneatkarīgiem starppersonu sakaru pakalpojumiem. 2021. gadā 283 265 ziņojumi, kas attiecas uz dalībvalstīm, tika saņemti no tērzēšanas, ziņapmaiņas vai e-pasta pakalpojumiem, t. i., 51 % no visiem ziņojumiem, kas attiecas uz ES. Vēl 164 645 ziņojumi (30 % no kopējā skaita) tika saņemti no sociālajiem medijiem vai tiešsaistes spēļu platformām, kurās var būt integrēti arī ziņapmaiņas vai tērzēšanas pakalpojumi. 2021. gadā 3565 ziņojumi, kas attiecas uz ES, bija par iedraudzināšanu. 2022. gadā 1015 231 ziņojums, kas attiecas uz dalībvalstīm, tika saņemts no tērzēšanas, ziņapmaiņas vai e-pasta pakalpojumiem, t. i., 68 % no visiem ziņojumiem, kas attiecas uz ES. Vēl 325 847 ziņojumi (22 % no kopējā skaita) tika saņemti no sociālajiem medijiem vai tiešsaistes spēļu platformām, kurās var būt integrēti arī ziņapmaiņas vai tērzēšanas pakalpojumi. 2022. gadā 7561 ziņojums, kas attiecas uz ES, bija par iedraudzināšanu. Arī 2021. un 2022. gadā no numurneatkarīgiem starppersonu sakaru pakalpojumiem saņemto ziņojumu skaita atšķirības ir skaidrojamas ar brīvprātīgas atklāšanas gadījumu skaita samazināšanos laikā no 2021. gada janvāra līdz augustam, kad Pagaidu regula vēl nebija piemērojama.

Daudzos gadījumos ziņojumu īpatsvars katrā dalībvalstī aptuveni atbilst dalībvalsts iedzīvotāju īpatsvaram salīdzinājumā ar ES kopējo iedzīvotāju skaitu, un tas varētu liecināt par seksuālas vardarbības pret bērniem tiešsaistē līdzīgu biežumu visās dalībvalstīs. Ievērojamas novirzes ir vērojamas attiecībā uz Spāniju un Itāliju, kur procentuālais īpatsvars šķiet zems salīdzinājumā ar ES iedzīvotāju procentuālo īpatsvaru abos gados, savukārt citās dalībvalstīs ziņojumu īpatsvars, šķiet, ievērojami svārstās (piemēram, Vācijā, Polijā, Nīderlandē, Slovākijā). Šīs izmaiņas nav atspoguļotas ziņojumos par gadījumu skaitu, tāpēc ir grūti izdarīt secinājumus par korelāciju starp ziņojumiem un izmeklēšanām.

Ņemot vērā atšķirīgos pārskata periodus, tieša salīdzināšana nav iespējama, tomēr pastāv būtiskas atšķirības starp NCMEC sniegtajiem statistikas datiem un dalībvalstu paziņotajiem skaitļiem. Turklāt NCMEC datus par dalībvalstīm arī nevar pilnībā salīdzināt ar iepriekšējā iedaļā minētajiem nozares sniegtajiem datiem. Lai gan dažas no atšķirībām var būt saistītas ar ziņojumiem par seksuālu vardarbību pret bērniem tiešsaistē, kas nāk no citiem avotiem, nevis no starppersonu sakariem, tam būtu nepieciešama turpmāka analīze, jo, ņemot vērā to pakalpojumu sniedzēju sarakstu, kuri ziņo NCMEC 12 , ir iespējams, ka notiek arī brīvprātīgi atklāšanas pasākumi attiecībā uz ES, ko veic citi pakalpojumu sniedzēji, nevis tie, kas līdz šim ir iesnieguši ziņojumus Komisijai. Tomēr fakts, ka attiecībā uz lielāko daļu dalībvalstu pastāv būtiskas atšķirības starp to ziņojumu skaitu, kurus NCMEC norāda kā nosūtītus dalībvalstij, un to ziņojumu skaitu, kurus dalībvalsts norāda kā saņemtus, liecina, ka dalībvalstu datu vākšana un ziņošana nav pilnīga.

Saistībā ar katru iepriekš minēto NCMEC ziņojumu saistītie attēli un video, kuros atspoguļota seksuāla vardarbība pret bērniem, tika noņemti un izņemti no aprites. Tas ir īpaši svarīgi pašreizējiem seksuālās vardarbības pret bērniem upuriem un cietušajiem. Pētījumi liecina, ka nepārtraukta tādu attēlu un video aprite, kuros redzama vardarbība, ierobežo upuru spēju pārvarēt vardarbības psiholoģiskās sekas un rada sekundāru viktimizāciju.

2.2.2. Identificēto bērnu skaits

Lielākā daļa dalībvalstu sniedza pilnīgu vai daļēju statistiku par identificēto bērnu skaitu, nošķirot pēc dzimuma, saskaņā ar Pagaidu regulas 8. panta 1. punkta b) apakšpunktu. Tomēr vairākas dalībvalstis neiesniedza nekādus datus vai pamatojumu tam, kāpēc neziņo saskaņā ar šo noteikumu.

Vairākas dalībvalstis par pārskata periodu nesniedza statistikas datus vai sniedza tikai daļējus statistikas datus, taču norādīja iemeslus. Norādītie iemesli ir šādi:

-nevar uzskaitīt bērnus, kas cietuši no CSA tiešsaistē (Francija);

-dati nav pieejami, jo nav apkopoti valsts statistikas datu vākšanas ietvaros / valsts iestādes nav reģistrējušas šos statistikas datus (Dānija, Lietuva);

-dati valsts statistikas datu vākšanā nav sadalīti pēc dzimuma (Beļģija, Kipra, Čehija, Grieķija, Īrija, Itālija, Lietuva, Nīderlande);

-esošajās informācijas sistēmās nav pieejama pieprasītā detalizācijas līmeņa informācija (Somija);

-informācija netiek vākta (Vācija).

Dažas no tām dalībvalstīm, kuras norādīja, ka nevar sniegt statistikas datus, apstiprināja, ka to valsts iestādēm tika lūgts mainīt brīvprātīgo ziņojumu un izmeklēšanu reģistrācijas un statistikas datu vākšanas procedūru (Dānija) un/vai tās ievieš jaunas informācijas sistēmas, kas ļautu sniegt ziņojumus vajadzīgajā detalizācijas līmenī (Somija).

Vienā dalībvalstī turpmāk sniegtajos datos nav nošķirti no CSA tiešsaistē un bezsaistē cietušie bērni (Ungārijā). Dažos gadījumos statistikā ir iekļauti arī bērni, par kuriem tika konstatēts, ka viņi paši ir radījuši un augšupielādējuši šos materiālus (pašu radīti materiāli, galvenokārt video) (Čehija, Igaunija).

Tā kā dalībvalstis lielākoties ziņoja par atšķirīgiem ziņošanas periodiem, nebija iespējams aprēķināt tādu bērnu kopējo skaitu, kas ES identificēti kā seksuālās vardarbības pret bērniem tiešsaistē upuri, gadā un/vai tajā pašā pārskata periodā.

8. tabula Identificēto bērnu skaits, nošķirot pēc dzimuma

Valsts

Pārskata periods

Sieviete

Vīrietis

Kopā

Piezīmes

Austrija

2021.–2022.g.

11

6

17

Beļģija

2021.–2022.g.

63

Nav pieejami dati, kas nošķirti pēc dzimuma.

Bulgārija

2022.g.

50

12

62

Horvātija

2021. gada 1. janvāris – 2022. gada 31. oktobris

20

0

20

Kipra

2022.g.

102

Nav pieejami dati, kas nošķirti pēc dzimuma.

Čehija

2022.g.

30

Nav pieejami dati, kas nošķirti pēc dzimuma.

Dānija

Dati nav pieejami.

Igaunija

2021.g.

6

12

18

Somija

Dati nav pieejami.

Francija

Dati nav pieejami.

Vācija

Dati nav pieejami.

Grieķija

2021.–2022.g.

4

Nav pieejami dati, kas nošķirti pēc dzimuma.

Ungārija

2021.–2022.g.

379

47

426

Nav iespējams nošķirt no CSA tiešsaistē un bezsaistē cietušos. Iekļauti tikai bērni līdz 16 gadu vecumam.

Īrija

2021.–2022.g.

101

Datus par 2021. gadu (50 cietušie) nav iespējams nošķirt pēc dzimuma. Pēc dzimuma nošķirti dati par 2022. gadu ir šādi: identificēti 25 sieviešu dzimuma un 26 vīriešu dzimuma bērni.

Itālija

2022.g.

385

Nav pieejami dati, kas nošķirti pēc dzimuma.

Latvija

2022. gada 1. augusts – 2023. gada 6. marts

1

1

Lietuva

Dati nav pieejami.

Luksemburga

2021.–2022.g.

0

0

0

Malta

Dati netika iesniegti/paziņoti.

Nīderlande

2021.g.

222

Nav pieejami dati, kas nošķirti pēc dzimuma.

Polija

2022.g.

2368

487

3014

2022. gadā Polijas Valsts policijas informācijas sistēma sniedz datus par 3014 cietušajiem ar CSA saistītos noziedzīgos nodarījumos (2368 sievietes, 487 vīrieši, 159 gadījumos dzimums nav norādīts).

Portugāle

Dati netika iesniegti/paziņoti.

Rumānija

Dati netika iesniegti/paziņoti.

Slovākija

2021. gada augusts – 2022. gada jūlijs

13

8

21

Slovēnija

2021. gada 1. janvāris – 2023. gada 14. jūlijs

220

85

305

Spānija

2022.g.

80

39

119

Zviedrija

2022.g.

8

4

12

KOPĀ VISAS DALĪBVALSTIS

2021. gada 1. janvāris – 2023. gada 6. marts

3156

700

4922

Uz iepriekš minētajiem datiem attiecas vairākas papildu atrunas. Esošie statistikas dati ne vienmēr ļauj dalībvalstīm datus par cietušajiem, kuri tika identificēti, pamatojoties uz pakalpojumu sniedzēja ziņojumu, nošķirt no datiem par cietušajiem, kuri, piemēram, paši ir ziņojuši par noziedzīgo nodarījumu vai par to ir ziņojis kāds cits, kurš pazina cietušo vai atklāja noziedzīgo nodarījumu (kā norādīja Slovēnija). Zviedrija norādīja, ka ziņo arī par bērniem, kas identificēti, izmantojot tērzēšanas žurnālus, lai gan seksuālu vardarbību atspoguļojošas fotogrāfijas vai video nekad nav atrasti vai nav konstatēts, ka to autors ir šis konkrētais cietušais.

Kopumā 8. tabulā sniegtie dati ne vienmēr atbilst Pagaidu regulā noteiktajiem ziņošanas pienākumiem, kas attiecas tikai uz cietušajiem, kuri izglābti, pateicoties pakalpojumu sniedzēju un organizāciju, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem, iesniegtajiem ziņojumiem saskaņā ar šo regulu. Dažos gadījumos sniegtie dati ietver cietušos, kas identificēti dažādu citu iemeslu un līdzekļu dēļ.

Tādējādi šie dati neļauj gūt visaptverošu pārskatu par to bērnu skaitu, kas ES identificēti kā seksuālās vardarbības pret bērniem tiešsaistē upuri.

Turklāt pat tad, ja cietušais ir identificēts, tas vēl nenozīmē, ka saistībā ar šo identifikāciju ir pieņemts notiesājošs spriedums. Dažos gadījumos cietušais tika identificēts, taču izmeklēšanas gaitā neizdevās noskaidrot aizdomās turamo vai panākt notiesājošu spriedumu (Zviedrija).

Tomēr no datiem var secināt, ka ievērojams skaits cietušo ir identificēti, izmantojot brīvprātīgu ziņošanu saskaņā ar Pagaidu regulu. To apstiprina tiesībaizsardzības iestāžu ziņojumi par lietām, kas bieži vien tiek ierosinātas, pamatojoties tikai uz brīvprātīgiem ziņojumiem 13 .

2.2.3. Notiesāto likumpārkāpēju skaits

Lai gan lielākā daļa dalībvalstu izpildīja savus pienākumus, divas dalībvalstis nesniedza nekādus datus vai pamatojumu, kāpēc neiesniedza ziņojumus saskaņā ar Pagaidu regulas 8. panta 1. punkta c) apakšpunktu.

Vairākas dalībvalstis nesniedza statistikas datus par pārskata periodu saskaņā ar šo noteikumu un norādīja šādus iemeslus:

-dati vēl nav pieejami (Beļģija un Spānija);

-centrālajā datubāzē, ko izmanto noziegumu reģistrēšanai, nav prasīts reģistrēt sākotnējā ziņojuma veidu (Īrija);

-dati netiek vākti (Vācija).

Dalībvalstis sniedza ļoti atšķirīgus datus par notiesāto likumpārkāpēju skaitu, un pārskata periodi atšķīrās, kā redzams 9. tabulā.



9. tabula Notiesāto likumpārkāpēju skaits

Valsts

Pārskata periods

Notiesājošu spriedumu skaits

Piezīmes

Austrija

2021.g.

850

Datos nav nošķirti nodarījumi, kas īstenoti tiešsaistē un bezsaistē.

Beļģija

Dati nav pieejami.

Bulgārija

2021.–2022.g.

52

Horvātija

Dati nav pieejami.

Kipra

2022.g.

0

Līdz šim nav notiesājošu spriedumu.

Čehija

2022. gada 1. janvāris – 2022. gada 31. jūlijs

20

Dānija

2021. gada 2. augusts – 2023. gada 20. janvāris

224

Igaunija

2021.g.

2

Ietver tikai notiesājošus spriedumus, kas pieņemti NCMEC ziņojumu rezultātā.

Somija

2021.g.

240

Francija

2021. gada 4. augusts – 2022. gada 3. augusts

820

Vācija

Dati nav pieejami.

Grieķija

2021.–2022.g.

62

Ungārija

2021.–2022.g.

126

Īrija

Dati nav pieejami.

Itālija

2021.–2022.g.

5835

Datos nav nošķirti nodarījumi, kas īstenoti tiešsaistē un bezsaistē.

Latvija

2021.–2022.g.

33

Datos nav nošķirti nodarījumi, kas īstenoti tiešsaistē un bezsaistē.

Lietuva

2021. gada 1. janvāris – 2022. gada 30. jūnijs

10

Luksemburga

2022.g.

11

Datos nav nošķirti nodarījumi, kas īstenoti tiešsaistē un bezsaistē.

Malta

Dati netika iesniegti/paziņoti.

Nīderlande

2021.g.

217

Polija

No 2021. gada otrā pusgada līdz 2022. gada pirmajam pusgadam / 2022. gads / 2023. gada pirmais pusgads

185 / 194 / 81

Portugāle

Dati netika iesniegti/paziņoti.

Rumānija

Dati netika iesniegti/paziņoti.

Slovākija

2021.g.

10

Slovēnija

2021.–2022.g.

45

Spānija

2022.g.

Dati nav pieejami.

Zviedrija

2022.g.

55

Ir svarīgi atzīmēt, ka notiesājošo spriedumu skaits nav vienāds ar notiesāto likumpārkāpēju skaitu, jo persona var tikt notiesāta par vienu vai vairākiem nodarījumiem, kas saistīti ar seksuālu vardarbību pret bērniem tiešsaistē.

Turklāt statistika par notiesājošiem spriedumiem, par kuriem ziņots par noteiktu periodu, ne vienmēr ir saistīta ar ziņojumiem, kas saņemti attiecīgajā periodā (t. i., notiesājošs spriedums 2022. gadā var būt saistīts, piemēram, ar 2021. vai 2020. gada ziņojumu, un 2022. gada ziņojums var novest pie notiesājoša sprieduma tikai 2023. gadā vai vēlāk). Vairākas dalībvalstis (Īrija, Luksemburga, Zviedrija) to īpaši uzsvēra savos ziņojumos.

Dažos gadījumos netika apkopoti statistikas dati par to, vai ziņojumi par aizdomīgām darbībām (piemēram, ar NCMEC starpniecību) ir noveduši pie notiesājošiem spriedumiem vai, citiem vārdiem sakot, vai notiesājoši spriedumi ir izrietējuši no pakalpojumu sniedzēja vai publiskā sektora organizācijas sniegtās informācijas (Austrija, Latvija). Tikai Igaunija nepārprotami apstiprināja, ka statistikā ir norādīti tikai tie notiesājošie spriedumi, kas izriet no NCMEC ziņojumiem. Iespējams, ka šie ziņojumi ir ļāvuši identificēt arī citus likumpārkāpējus, par kuriem notiek izmeklēšana un kuri notiesāti izmeklēšanas rezultātā (Austrija).

Pārsvarā tiek pieņemts, ka paziņotais notiesājošo spriedumu skaits ir no brīža, kad lieta ir pabeigta pēc tam, kad spriedums, iespējams, ir pārsūdzēts tiesu sistēmā. Vienā dalībvalstī (Dānijā), kur skaitļi ir apkopoti, ņemot vērā jaunāko nolēmumu, šie skaitļi nav galīgi, jo nolēmumi varēja tikt pārsūdzēti pēc tam.

Atsevišķos gadījumos valstu IT sistēmās ietvertie un dalībvalstu paziņotie dati nenošķir tiešsaistē un bezsaistē īstenotos noziedzīgos nodarījumus (Austrija, Luksemburga, Latvija).

Tāpēc dalībvalstu iesniegtie ļoti atšķirīgie ziņojumi un veids, kādā statistikas dati tiek apkopoti valstu līmenī, neļauj gūt visaptverošu pārskatu par to, cik daudz likumpārkāpēju ES ir notiesāti par seksuālu vardarbību pret bērniem tiešsaistē. Pamatojoties uz pieejamajiem datiem, pašlaik arī nav iespējams skaidri sasaistīt šos notiesājošos spriedumus ar ziņojumiem, ko saskaņā ar attiecīgo regulu konkrētos pārskata periodos iesnieguši pakalpojumu sniedzēji un organizācijas, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem.

2.3.Tehnoloģiju attīstība

Tehnoloģijas, ko pašlaik izmanto, lai atklātu seksuālu vardarbību pret bērniem tiešsaistē, ietver tehnoloģijas un rīkus, kas paredzēti, lai atklātu “zināmus” (t. i., iepriekš atklātus) CSAM, “jaunus” (t. i., iepriekš neatklātus) CSAM un uzmākšanos bērniem (saukta par “iedraudzināšanu”).

Turpmāk minētie piemēri ietver dažus no visplašāk izmantotajiem rīkiem, un tie nav uzskatāmi par izsmeļošu sarakstu. Daudzi no šiem rīkiem ir pieejami pakalpojumu sniedzējiem, tiesībaizsardzības iestādēm un citām organizācijām, ja var pierādīt leģitīmas intereses. Parasti šie rīki tiek kombinēti ar cilvēka veiktu pārskatīšanu, lai nodrošinātu pēc iespējas lielāku precizitāti.

Šajā iedaļā ir iekļauti arī papildu sasniegumi tehnoloģiju attīstībā, kas saistīti ar mākslīgo intelektu.

2.3.1. Zināmu CSAM atklāšana

Esošās tehnoloģijas zināmu CSAM atklāšanai balstās tikai uz automātisku satura analīzi 14 un parasti ir balstītas uz jaucējalgoritmu. Jaucējalgoritma tehnoloģija ir digitālo nospiedumu veids. Tā izveido unikālu attēla digitālo parakstu (tā saukto “jaucējkodu”), kas pēc tam tiek salīdzināts ar citu fotoattēlu parakstiem (jaucējkodiem), lai atrastu tā paša attēla kopijas. Šī tehnoloģija atklāj tikai atbilstošus jaucējkodus un “neredz” materiālus, kuri neatbilst jaucējkodam. Jaucējkodi arī nav atgriezeniski, tāpēc tos nevar izmantot attēla atjaunošanai.

Pastāv daudz jaucējalgoritma tehnoloģijas variāciju un izmantošanas veidu. Rīki, kas identificēti kā izmantoti zināmu CSAM atklāšanai, ir šādi: i)  Microsoft PhotoDNA ; ii)  Google CSAI Match ; iii) Apple  NeuralHash + Private Set Intersection ; iv)  Meta SSN++ ; v)  PDQ un TMK+PDQF ; vi)  MD5 Hash generator (Skype); vii)  Safer (Thorn).

Visplašāk izmantotais rīks ir Microsoft PhotoDNA, ko izmanto vairāk nekā 150 organizācijas 15 . PhotoDNA izmanto jau vairāk nekā 10 gadus, un šim rīkam ir augsta precizitāte. Pamatojoties uz testēšanas rezultātiem, tiek lēsts, ka pseidopozitīvu rezultātu īpatsvars ir ne vairāk kā 1 no 50 miljardiem 16 . PhotoDNA kļūdu īpatsvars ir ārkārtīgi zems tehnoloģijas īpatnību dēļ. Šī tehnoloģija atklāj tikai iepriekš identificēta satura kopijas. Sākotnējā PhotoDNA tehnoloģija atklāj zināmus CSAM attēlos, taču ir pieejama arī versija CSAM atklāšanai video materiālos.

Tehnoloģija nepārtraukti attīstās un tiek uzlabota. 2023. gada maijā Microsoft paziņoja par jaunu salīdzināšanas iespēju ieviešanu, kas nodrošina ātrāku meklēšanu (aptuveni 350 reižu ātrāk), vienlaikus samazinot salīdzināšanas procesa izmaksas un nezaudējot precizitāti. Saskaņā ar Microsoft sniegto informāciju jaunā bibliotēka nodrošina arī apvērstu vai pagrieztu attēlu uzlabotu atklāšanu. Turklāt Internet Watch Foundation (IWF) ziņoja, ka nesen uzlaboja savu jaucējalgoritma tehnoloģiju 17 .

2.3.2. Jaunu CSAM atklāšana

Tehnoloģijas, ko pašlaik izmanto jaunu CSAM atklāšanai, ietver klasifikatorus un mākslīgo intelektu (MI), kas analizē attēlus un video, lai atklātu satura modeļus, kuri atbilst modeļiem, kas izveidoti, pamatojoties uz iepriekš identificētiem materiāliem, kuros atspoguļota seksuāla vardarbība pret bērniem. Klasifikators ir algoritms, kas sagrupē datus marķētās klasēs vai informācijas kategorijās, izmantojot modeļa atpazīšanu. Klasifikatoru apmācībai ir nepieciešami dati, un to precizitāte uzlabojas, kad tajos ievada arvien vairāk datu.

Jaunu CSAM atklāšanas rīki ietver: i)  Safer (Thorn); ii)  Google satura drošuma API ; iii) Facebook MI tehnoloģiju 18 ; iv)  Amazon Rekognition ; v)  Hive AI vizuālajam saturam .

Pētījumi liecina, ka visnoderīgākie CSAM atklāšanas līdzekļi ir automatizēti rīki un sistēmas, piemēram, klasifikatori 19 . Jaunu CSAM atklāšanas precizitātes rādītājs pašlaik ievērojami pārsniedz 90 %. Piemēram, Thorn norāda, ka tā CSAM klasifikatoru var iestatīt uz 99 % precizitāti (gan zināmiem, gan jauniem CSAM), kas nozīmē 0,1 % pseidopozitīvu rezultātu 20 . Šie rādītāji, visticamāk, uzlabosies, palielinoties lietojumam un atgriezeniskajai saitei.

 

2.3.3. Iedraudzināšanas atklāšana

Teksta saziņas jomā iedraudzināšanas (uzmākšanās bērniem) atklāšanas rīki izmanto tehnoloģijas, tikai lai atklātu modeļus, kas norāda uz iespējamiem konkrētiem elementiem, kuri rada aizdomas par seksuālu vardarbību pret bērniem tiešsaistē, bet nevar noteikt satura būtību. Šī metode tiek izmantota teksta tērzēšanas sarunām. Sarunas tiek novērtētas pēc vairākiem raksturlielumiem, un tām tiek piešķirts vispārējs varbūtības vērtējums, kas norāda, cik liela ir paredzamā varbūtība, ka saruna ietver iedraudzināšanu. Šie vērtējumi kalpo kā noteicošais faktors, ko nosaka atsevišķi uzņēmumi, lai atzīmētu sarunas, kuras nepieciešams papildus pārbaudīt cilvēkam.

Teksta noteikšanas operācijās tiek izmantoti šādi rīki: i)  Microsoft Project Artemis 21 ; ii)  Amazon Rekognition ; iii) Twitch  Spirit AI tehnoloģija (tās pamatā ir dabiskās valodas apstrāde (NLP), teksta klasifikatori) 22 ; iv) Meta iekšēji izstrādāts mašīnmācīšanās klasifikators (apvieno iekšējās valodas analīzes tehnoloģijas ar metadatiem); v)  Roblox tērzēšanas filtrēšanas sistēma 23 ; vi) Thorn un Tech Coalition tehniskais risinājums, kura pamatā ir mašīnmācīšanās un klasifikatori 24 .

Tāpat kā jaunu CSAM identificēšanas gadījumā, arī iedraudzināšanas satura identificēšanai ir nepieciešams apmācīt tehnoloģiju ar šādu saturu. Piekļuve šādiem apmācības datiem joprojām ir lielākā problēma šādu tehnoloģiju izstrādē un uzlabošanā.

Thorn sadarbībā ar Tech Coalition un tās dalībniekiem ir uzsācis jaunu iniciatīvu, kuras mērķis ir izstrādāt tehnisku risinājumu nolūkā identificēt un novērst iedraudzināšanas mēģinājumus tiešsaistē, kas būtu noderīgs un izmantojams dažādās platformās, kuras piedāvā teksta saziņu. Tā pamatā būs Thorn darbs pie NLP (dabiskās valodas apstrādes) klasifikatora jeb mašīnmācīšanās modeļa, kas nosaka un klasificē gadījumus, kad tiešsaistes saturs vai uzvedība ietilpst noteiktās “klasēs”, kas saistītas ar iedraudzināšanu (piemēram, seksuāla rakstura materiālu rādīšana vai mēģinājumi klātienē tikties ar nepilngadīgu personu), kā arī nosaka kopējo vērtējumu, cik lielā mērā konkrētā saruna ir saistīta ar iedraudzināšanu 25 .

2.3.4. Mākslīgā intelekta sarunbotu un mākslas darbu / attēlu ģeneratoru radītās jaunās problēmas

MI sarunbotu, piemēram, ChatGPT ( OpenAI izstrādātais lielais valodas modelis (LLM)), un mākslas darbu / attēlu ģeneratoru, piemēram, DALL-E 26 un Midjourney 27 , izstrāde un izlaišana ir izraisījusi lielu sabiedrības uzmanību, galvenokārt tāpēc, ka tie spēj ātri sniegt gatavas atbildes vai radīt reālistiskus attēlus, ko var izmantot daudzos dažādos kontekstos. Šie jaunie rīki ātri ieguva plašu popularitāti un tiek plaši izmantoti. Tehnoloģiju uzņēmumi, to vidū Microsoft un Google, finansē un izstrādā vadošos produktus, un jaunās tehnoloģijas tiek pilnveidotas un regulāri tiek ieviestas to uzlabotas versijas.

Lai gan šīs tehnoloģijas piedāvā lieliskas iespējas gan uzņēmumiem, gan sabiedrībai, tās tiem var arī radīt risku. Vienas no bažām par šādiem produktiem ir tas, ka noziedznieki var censties tos izmantot negodīgiem mērķiem, tai skaitā bērnu seksuālai izmantošanai.

Kā ziņo Eiropols, lai gan visa ChatGPT sniegtā informācija ir brīvi pieejama internetā, šis rīks ļaundariem “ievērojami atvieglo iespēju bez priekšzināšanām uzzināt par ļoti daudzām potenciālajām noziegumu jomām, sākot no tā, kā iekļūt mājoklī, līdz terorismam, kibernoziegumiem un seksuālai vardarbībai pret bērniem”. Tas ļauj minētajām personām labāk izprast un vēlāk veikt šāda veida noziegumus 28 .

OpenAI noteikumi ierobežo ChatGPT spēju reaģēt uz seksuāla, naidīga, vardarbīga satura vai satura, kas veicina paškaitējumu, pieprasījumiem. Tomēr šos aizsargmehānismus var diezgan viegli apiet, izmantojot uzvedņu inženieriju 29 . Nesenā MI sarunbotu ieviešana (piemēram, Snapchat) liecina, ka tie var pārkāpt aizskarošas vai bīstamas saziņas robežu, ieskaitot seksuālu vardarbību pret bērniem 30 . Tā kā arvien vairāk uzņēmumu apsver MI sarunbotu testēšanu savās platformās (Instagram, iespējams, WhatsApp un Messenger), ir rūpīgi jāizvērtē to ietekme uz lietotājiem, īpaši bērniem un jauniešiem.

Šiem jaunajiem rīkiem ir nepieciešami arī atbilstoši aizsargmehānismi, lai tie netiktu ļaunprātīgi izmantoti tādu MI radītu dziļviltotu materiālu ģenerēšanai, kuros atspoguļota seksuāla vardarbība pret bērniem 31 . Ņemot vērā MI rīku attīstības tempu, iespējams, ka drīz būs ievērojami vieglāk ģenerēt attēlus, ko nav iespējams atšķirt no īstiem attēliem. Tas rada vairākas būtiskas problēmas cīņā pret CSA, jo tiesībaizsardzības iestāžu spēja izmeklēt CSAM lietas, saukt likumpārkāpējus pie atbildības un identificēt reālus cietušos var tikt ļoti apgrūtināta, ja ļoti reālistiski ar datoru ģenerēti CSAM kļūs ļoti izplatīti tiešsaistē 32 .

Pētījumi liecina, ka piekļuve materiāliem, kuros atspoguļota seksuāla vardarbība pret bērniem, bieži vien ir pirmais solis ceļā uz fizisku vardarbību neatkarīgi no tā, vai šie materiāli attēlo reālu vai reālistisku vardarbību un izmantošanu 33 . Tāpēc ir ļoti svarīgi ierobežot tādu MI radītu dziļviltotu materiālu izplatīšanu, kuros atspoguļota seksuāla vardarbība pret bērniem, jo tas ir viens no veidiem, kā novērst noziedzīgā nodarījuma izdarīšanu. Vēl viena būtiska problēma ir tā, ka iedraudzinātāji var izmantot ChatGPT uzlabotās teksta ģenerēšanas iespējas apvienojumā ar esošo bezmaksas MI, kas tekstu pārvērš par attēlu, lai ātri un viegli ģenerētu saturu viltus profiliem un ticamām sarunām ar jauniešiem ar mērķi iedraudzināt bērnus tiešsaistē. “Lai gan ChatGPT pats par sevi nepamudinās cilvēkus kļūt par tiešsaistes iedraudzinātājiem, tā ļauj ikvienam, izmantojot MI tehnoloģiju, papildināt savas sarunas ar bērniem tiešsaistē, lai padarītu sevi pārliecinošāku un uzticamāku saviem upuriem, tādējādi veicinot manipulēšanu. 34 ” “Ģeneratīvajam MI varētu būt potenciāls veicināt iedraudzināšanas gadījumu skaita pieaugumu tiešsaistē un pat “automatizēt bērnu iedraudzināšanu plašā mērogā”. 35

3.SECINĀJUMI

Pakalpojumu sniedzēju veiktie īstenošanas pasākumi

Pakalpojumu sniedzēju ziņojumi liecināja, ka saskaņā ar Pagaidu regulu tie ir atklājuši seksuālu vardarbību pret bērniem tiešsaistē un ziņojuši par to, izmantojot dažādas atklāšanas tehnoloģijas un procesus. Visi pakalpojumu sniedzēji ziņoja par šo ziņojumu nosūtīšanu NCMEC. Attiecībā uz pakalpojumu sniedzēju apstrādāto persondatu veidu un apjomiem ziņojumos tika norādīts, ka ir savākti dažādi informācijas plūsmas dati un apstrādāto datu apjomi ir dažāda detalizācijas līmeņa, kas neļauj Komisijai iegūt vienotus ES līmeņa datus par pakalpojumu sniedzējiem attiecīgajā pārskata periodā (no 2021. gada jūlija līdz 2023. gada 31. janvārim).

Pakalpojumu sniedzēji neiesniedza informāciju par dažādo izmantoto tehnoloģiju kļūdu skaitu un īpatsvaru (pseidopozitīvi rezultāti) sadalījumā pa izmantotajām tehnoloģijām, norādot, ka tie izmanto daudzlīmeņu pieeju tiešsaistes CSA atklāšanai, ko papildina ar cilvēka veiktu pārskatīšanu. Tajā pašā laikā pakalpojumu sniedzēji īstenoja dažādus pasākumus un aizsargmehānismus nolūkā ierobežot un samazināt kļūdu īpatsvaru atklāšanā. Turklāt pakalpojumu sniedzēji ziņoja, ka ir izstrādājuši datu glabāšanas politiku un datu aizsardzības pasākumus, kas definēti to privātuma politikā vai paziņojumos un ko atbalsta nozares standarta datu aizsardzības mehānismi un pasākumi.

Dalībvalstu veiktie īstenošanas pasākumi

Pagaidu regula arī uzliek dalībvalstīm pienākumu (saskaņā ar tās 8. pantu) sniegt galveno statistiku par seksuālas vardarbības pret bērniem tiešsaistē gadījumiem, kas atklāti un paziņoti to tiesībaizsardzības iestādēm, identificēto cietušo bērnu skaitu un notiesāto likumpārkāpēju skaitu. Tā kā dalībvalstis pārsvarā sniedza datus par atšķirīgiem pārskata periodiem, no iesniegtajiem datiem nebija iespējams aprēķināt ES līmenī saņemto ziņojumu par konstatēto seksuālas vardarbības pret bērniem tiešsaistē gadījumu kopējo skaitu. Turklāt dalībvalstu saņemto un paziņoto ziņojumu skaits var atšķirties no izmeklēšanai piemērotu ziņojumu skaita vai no paziņoto gadījumu skaita. Tikai dažas dalībvalstis norādīja pakalpojumu sniedzējus, kuru pakalpojumos tika konstatēta seksuāla vardarbība pret bērniem tiešsaistē. Dažos gadījumos valsts statistikas datos nav nošķirti nodarījumi, kas izmeklēti, pamatojoties uz ziņojumiem, kurus iesnieguši pakalpojumu sniedzēji un citas organizācijas, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem, no nodarījumiem, kas izmeklēti, pamatojoties uz citiem ziņojumiem.

Līdz ar to no saņemtajiem ziņojumiem nebija iespējams iegūt informāciju par tādu bērnu kopējo skaitu, kas ES identificēti kā seksuālas vardarbības pret bērniem tiešsaistē upuri, nošķirot tos pēc dzimuma. Iemesli ir, piemēram, šādi: dati tika paziņoti par atšķirīgiem pārskata periodiem; tika izmantotas dažādas vecuma robežas no CSA tiešsaistē cietušo bērnu definēšanai; šāda detalizācijas līmeņa statistikas datu vākšana valsts līmenī netika veikta tehnisku vai citu ierobežojumu dēļ; netika nošķirti no CSA tiešsaistē un bezsaistē cietušie bērni utt. Dažas dalībvalstis savā statistikā iekļauj arī bērnus, kas paši radījuši materiālus. Vēl svarīgāk ir tas, ka statistikā bieži vien netiek nošķirti cietušie, kas identificēti, pamatojoties uz ziņojumiem, kurus iesnieguši pakalpojumu sniedzēji un organizācijas, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem, saskaņā ar regulu, un cietušie, kas identificēti, pamatojoties uz citiem iemesliem un līdzekļiem.

Arī pārskats par notiesāto likumpārkāpēju skaitu ir sadrumstalots. Atsevišķos gadījumos šādi dati nav pieejami, jo datubāzēs nav reģistrēts sākotnējā ziņojuma avots, un tādējādi datos nav nošķirti likumpārkāpēji, kas notiesāti saskaņā ar regulu iesniegto ziņojumu un citu ziņojumu rezultātā. Dažos gadījumos valsts IT sistēmās ietvertie dati arī nenošķir tiešsaistē un bezsaistē īstenotos noziedzīgos nodarījumus. Turklāt statistika par notiesājošiem spriedumiem, par kuriem ziņots par noteiktu periodu, ne vienmēr ir saistīta ar ziņojumiem, kas saņemti attiecīgajā periodā, bet var attiekties uz ziņojumiem, kas saņemti agrākos periodos. Apkopotā statistika par notiesājošo spriedumu skaitu var atšķirties arī no notiesāto likumpārkāpēju skaita (jo vienam likumpārkāpējam var būt vairāki notiesājoši spriedumi).

Dalībvalstu iesniegtā neviendabīgā statistika un tas, ka dalībvalstis, šķiet, ne vienmēr sistemātiski un pienācīgi vāc datus, kā arī visi iepriekš minētie faktori neļauj gūt visaptverošu pārskatu par saņemtajiem ziņojumiem par CSA tiešsaistē, par to bērnu skaitu, kuri identificēti kā šā nozieguma upuri, vai par to, cik likumpārkāpēji ir notiesāti ES līmenī saskaņā ar regulu. Fakts, ka attiecībā uz lielāko daļu dalībvalstu pastāv būtiskas atšķirības starp to ziņojumu skaitu, kurus NCMEC norāda kā nosūtītus dalībvalstij, un to ziņojumu skaitu, kurus dalībvalsts norāda kā saņemtus, liecina, ka datu vākšana un ziņošana nav pilnīga. Dažas dalībvalstis apstiprināja, ka to kompetentajās iestādēs notiek strukturālas izmaiņas vai reorganizācija, kas saistīta ar tādu jaunu nodaļu izveidi, kuras atbild par noziegumu izmeklēšanu saistībā ar seksuālu vardarbību pret bērniem tiešsaistē. Tiek ieviestas arī jaunas IT sistēmas, un valstu iestādēm tika lūgts mainīt reģistrācijas procedūras un statistiku atsevišķās dalībvalstīs. Tam vajadzētu radīt labvēlīgus apstākļus, kas ļautu nākotnē no dalībvalstīm iegūt precīzāku statistiku. Jebkurā gadījumā Komisija vajadzības gadījumā izmantos Līgumos noteiktās pilnvaras, lai nodrošinātu, ka dalībvalstis izpilda savus ziņošanas pienākumus saskaņā ar Pagaidu regulu.

Vispārīgi apsvērumi

Kopumā šis ziņojums liecina par ievērojamām atšķirībām gan pakalpojumu sniedzēju, gan dalībvalstu sniegtajos ziņojumos par datiem saistībā ar cīņu pret CSA tiešsaistē saskaņā ar Pagaidu regulu. Plašāka pieejamo datu standartizācija un ziņošana par tiem, piemēram, kā paredzēts priekšlikumā regulai par seksuālas vardarbības pret bērniem novēršanu un apkarošanu 36 , palīdzētu gūt labāku priekšstatu par attiecīgajiem pasākumiem cīņā pret šo noziegumu. Šķiet, ka pakalpojumu sniedzējiem un dalībvalstīm ir papildus jācenšas, lai nodrošinātu datu vākšanu un ziņošanu saskaņā ar Pagaidu regulas prasībām.

Pieejamie dati liecina, ka saskaņā ar pašreizējo brīvprātīgās atklāšanas un ziņošanas sistēmu ir iespējams, ka materiāli automātiski tiek atzīmēti kā iespējami CSAM, bet pēc cilvēka veiktas pārskatīšanas tiek konstatēts, ka tie nav CSAM. Tas var būt saistīts ar to, ka trūkst vienota jaucējkodu un citu rādītāju kopuma, kas ļautu atklāt CSAM, kuri ES ir atzīti par nelikumīgiem, vai ar atšķirīgiem juridiskajiem standartiem dažādās jurisdikcijās, jo īpaši ES un ASV, it īpaši saistībā ar attiecīgajām definīcijām. Dati liecina arī par lielām atšķirībām pārskatīšanas pieprasījumu skaitā un pozitīva pārskatīšanas iznākuma rādītājos, un tāpēc nav iespējams izdarīt secinājumus, jo trūkst informācijas, īpaši par pārskatīšanas pieprasījumu apjomu un atjaunošanas iemesliem.

Attiecībā uz 9. panta 2. punkta prasībām par apstrādes nosacījumiem sniegtā informācija liecina, ka izmantotās tehnoloģijas atbilst tehnoloģiskajām lietojumprogrammām, kas izstrādātas vienīgi ar mērķi atklāt un izņemt tiešsaistē pieejamus materiālus, kuros atspoguļota seksuāla vardarbība pret bērniem, un ziņot par tiem tiesībaizsardzības iestādēm un organizācijām, kas darbojas sabiedrības interesēs pret seksuālu vardarbību pret bērniem. Netika sniegta informācija par to, vai tehnoloģiju ieviešana atbilst jaunākajiem sasniegumiem un notiek privātumu vismazāk aizskarošā veidā, kā arī par to, vai ir veikts Regulas (ES) 2016/679 35. pantā minētais iepriekšējais novērtējums par ietekmi uz datu aizsardzību un regulas 36. pantā minētā iepriekšējas apspriešanās procedūra.

Attiecībā uz regulas proporcionalitāti galvenais jautājums ir, vai ar Pagaidu regulu ir panākts līdzsvars, ko ES likumdevēji centās panākt, no vienas puses, starp sabiedrības interešu mērķa — rezultatīvi apkarot attiecīgos ārkārtīgi smagos noziegumus — sasniegšanu un nepieciešamību aizsargāt bērnu pamattiesības (cieņu, neaizskaramību, necilvēcīgas vai pazemojošas izturēšanās aizliegumu, privāto dzīvi, bērna tiesības) un, no otras puses, aizsargāt attiecīgo pakalpojumu lietotāju pamattiesības (privātumu, persondatu aizsardzību, vārda aizsardzību, efektīvu tiesisko aizsardzību). Pieejamie dati ir nepietiekami galīgu secinājumu izdarīšanai šajā jautājumā. Nav ne iespējams, ne arī lietderīgi piemērot skaitliskus standartus, novērtējot šādu proporcionalitāti attiecībā uz izglābto bērnu skaitu, ņemot vērā būtisko negatīvo ietekmi uz bērna dzīvi un tiesībām, ko izraisa seksuāla vardarbība. Tomēr, ņemot vērā iepriekš minēto, nekas neliecina, ka atkāpe nav samērīga.

Neraugoties uz pieejamo datu nepilnībām, kas neļauj gūt ieskatu par brīvprātīgo ziņojumu izmantošanu ievērojamā skaitā dalībvalstu, no pieejamajiem datiem ir skaidrs, ka pārskata periodā tika identificēti tūkstošiem bērnu, tika pieņemti vairāk nekā divi tūkstoši notiesājošu spriedumu un no aprites tika izņemti miljoniem attēlu un video, tādējādi samazinot sekundāro viktimizāciju. Tāpēc var secināt, ka brīvprātīga ziņošana ievērojami palīdzēja aizsargāt lielu skaitu bērnu, tai skaitā no ilgstošas vardarbības, un šķiet, ka Pagaidu regula ir rezultatīva.

(1)

Twitter iesniedza informāciju pirms tā pārdēvēšanas; turpmāk šajā ziņojumā tas tiks saukts par X.

(2)

   Meta un X skaidri nenorādīja konkrēto pantu. 

(3)

   Meta un X skaidri nenorādīja konkrēto pantu.

(4)

     Iekavās norādītie pakalpojumu sniedzēji ir tie, kas īpaši ziņoja par konkrētajiem pasākumiem. Ja daži pakalpojumu sniedzēji nav iekļauti sarakstā, tas nozīmē nevis to, ka tie šo pasākumu neīsteno, bet tikai to, ka viņi to nav minējuši savā ziņojumā.

(5)

   X Privātuma politika, 4. Cik ilgi mēs glabājam informāciju, pieejama vietnē https://twitter.com/lv/privacy.

(6)

     Iekavās norādītie pakalpojumu sniedzēji ir tie, kas īpaši ziņoja par konkrētajiem pasākumiem. Ja daži pakalpojumu sniedzēji nav iekļauti sarakstā, tas nozīmē nevis to, ka tie šo pasākumu neīsteno, bet tikai to, ka viņi to nav minējuši savā ziņojumā.

(7)

   Informācija par organizācijām, kas darbojas sabiedrības interesēs un kurām pakalpojumu sniedzēji saskaņā ar šo regulu ziņo par seksuālu vardarbību pret bērniem tiešsaistē, ir publicēta vietnē  https://home-affairs.ec.europa.eu/policies/internal-security/child-sexual-abuse/legal-framework-protect-children_en  saskaņā ar Komisijas pienākumiem, kas izriet no Pagaidu regulas 8. panta 2. punkta.

(8)

   Vācijas iesniegtais ziņojums saskaņā ar Regulas (ES) 2021/1232 8. pantu, kas saņemts 2022. gada 18. oktobrī. NCMEC visus datus par saņemtajiem ziņojumiem, kas attiecas uz ES dalībvalstīm, tai skaitā Vāciju, publicē savos CyberTipline ziņojumos pa valstīm. Skatīt: NCMEC, 2021 CyberTipline Reports by Country , skatīts 2023. gada jūlijā; NCMEC, 2022 CyberTipline Reports by Country, skatīts 2023. gada jūlijā.

(9)

     https://www.bka.de/SharedDocs/Kurzmeldungen/DE/Kurzmeldungen/230623_Mindestspeicherfristen_IP-Adressen.html

(10)

     NCMEC, 2021 CyberTipline Reports by Country , skatīts 2023. gada novembrī.

(11)

     NCMEC, 2022 CyberTipline Reports by Country, skatīts 2023. gada novembrī.

(12)

   NCMEC dati ir pieejami šeit .

(13)

   Skatīt, piemēram, to lietu paraugu sarakstu, kas visā ES tika ierosinātas, pateicoties uzņēmumu brīvprātīgiem ziņojumiem, skatīt ietekmes novērtējumā , kas pievienots priekšlikumam regulai par seksuālas vardarbības pret bērniem novēršanu un apkarošanu (skatīt jo īpaši 7. pielikumu).

(14)

   Pakalpojumu sniedzēji metadatus neuzskata par iedarbīgu līdzekli CSAM atklāšanai. Jo īpaši skatīt 10.–11. lpp. publikācijā Pfefferkorn, R., Stanford Internet Observatory, Content-Oblivious Trust and Safety Techniques: Results from a Survey of Online Service Providers, 2021. gada 9. septembris.

(15)

   Microsoft, Kibernoziegumu nodaļa .

(16)

      PhotoDNA izstrādātāja Hany Farid liecība Pārstāvju palātas Enerģētikas un tirdzniecības komitejai “Fostering a Healthier Internet to Protect Consumers”, 2019. gada 16. oktobris.  

(17)

   Internet Watch Foundation (IWF), The Annual Report 2022 , 129.–133. lpp.

(18)

   Skatīt šeit un šeit , lai uzzinātu vairāk informācijas par Facebook rīku, kas, izmantojot mākslīgo intelektu un mašīnmācīšanos, proaktīvi atklāj materiālus ar kailiem bērniem un iepriekš nezināmu bērnu izmantošanu saturošu saturu.

(19)

     Pfefferkorn, R.: Content-Oblivious Trust and Safety Techniques: Results from a Survey of Online Service Providers, Journal of Online Trust and Safety, 2022. gada februāris, 1.–38. lpp.

(20)

   Thorn, Thorn’s Automated Tool to Remove Child Abuse Content at Scale Expands to More Platforms through AWS Marketplace , 2021. gada 24. maijs.  

(21)

   Microsoft Project Artemis tika izstrādāta sadarbībā ar The Meet Group, Roblox, Kik un Thorn.

(22)

   Vairāk informācijas sk.: https://safety.twitch.tv/s/article/Our-Work-to-Combat-Online-Grooming?language=en_US . 

(23)

   Roblox filtrē 12 gadus vecu un jaunāku spēlētāju ziņojumus un tērzēšanu, lai atklātu neatļautu saturu un nepieļautu, ka tiek publicēti persondati, piemēram, mājas adrese. Šī filtrēšanas sistēma attiecas uz visa veida saziņu Roblox platformā — gan publisku, gan privātu. Roblox, Safety Features: Chat, Privacy & Filtering , skatīts 2023. gada jūlijā.

(24)

   Tech Coalition, New Technology to Help Companies Keep Young People Safe , 2023. gada 20. jūnijs.

(25)

   Tech Coalition, New Technology to Help Companies Keep Young People Safe , 2023. gada 20. jūnijs.

(26)

   DALL-E ir MI sistēma, kas spēj radīt reālistiskus attēlus un mākslas darbus, par pamatu izmantojot aprakstu dabiskajā valodā. 

(27)

   Midjourney ir ģeneratīva mākslīgā intelekta programma un pakalpojums, kas ģenerē attēlus no aprakstiem dabiskajā valodā.

(28)

   Eiropols, ChatGPT - The impact of Large Language Models on Law Enforcement , 2023, ISBN 978-92-95220-57-7, 7. lpp.

(29)

   Swanson, S. M., ChatGPT Generated Child Sex Abuse When Asked to Write BDSM Scenarios , Vice , 2023. gada 6. marts ; Mitchell, A., ChatGPT gives sick child sex abuse answer, breaking its rules, New York Post , 2023. gada 24. jūlijs; Eiropols, ChatGPT - The impact of Large Language Models on Law Enforcement , 2023, ISBN 978-92-95220-57-7, 5. lpp.

(30)

   Fowler, G.A., Snapchat tried to make a safe AI. It chats with me about booze and sex , The Washington Post, 2023. gada 14. marts; Vincent, J., Instagram is apparently testing an AI chatbot that lets you choose from 30 personalities , The Verge, 2023. gada 7. jūlijs.

(31)

   Crawford, A., Smith, T., Illegal trade in AI child sex abuse images exposed , BBC, 2023. gada 27. jūnijs.

(32)

   Thiel, D., Stroebel, M., un Portnoff, R. (2023).  Generative ML and CSAM: Implications and Mitigations . Stanford Digital Repository. Pieejams vietnē https://purl.stanford.edu/jv206yg3793 . https://doi.org/10.25740/jv206yg3793 , 2. lpp.

(33)

   Protect Children, Protect Children’s research in the dark web is revealing unprecedented data on CSAM users , 2021. gada 6. jūnijs; RAINN, What is Child Sexual Abuse Material (CSAM) , 2022. gada 25. augusts.

(34)

   Breck Foundation, Is artificial intelligence putting children at risk? , 2023. gada 9. februāris, atjaunināts 2023. gada 3. aprīlī.

(35)

   Butler, J., AI tools could be used by predators to ‘automate child grooming’, eSafety commissioner warns , The Guardian , 2023. gada 19. maijs.  

(36)

   Priekšlikums Eiropas Parlamenta un Padomes Regulai, ar ko paredz noteikumus seksuālas vardarbības pret bērniem novēršanai un apkarošanai, COM(2022) 209 final .