|
Gazzetta ufficiale |
IT Serie C |
|
C/2025/5519 |
10.10.2025 |
COMUNICAZIONE DELLA COMMISSIONE
Orientamenti su misure per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori online, a norma dell'articolo 28, paragrafo 4, del regolamento (UE) 2022/2065
(C/2025/5519)
1. INTRODUZIONE
|
1. |
I minori (1) accedono in misura sempre crescente alle piattaforme online, che possono offrire loro diversi vantaggi. Possono ad esempio fornire loro accesso a una vasta gamma di risorse didattiche, aiutandoli ad acquisire nuove competenze e ad ampliare le loro conoscenze. Le piattaforme online possono anche offrire ai minori la possibilità di esprimere le loro opinioni e di collegarsi ad altri che condividono interessi simili, aiutandoli a sviluppare competenze sociali, fiducia e un senso di comunità. Giocando ed esplorando l'ambiente online, i minori possono anche sviluppare la loro curiosità naturale, impegnandosi in attività che incoraggiano la creatività, la risoluzione dei problemi, il pensiero critico, la capacità di agire e l'intrattenimento. |
|
2. |
Vi è tuttavia un ampio consenso tra i responsabili delle politiche, le autorità di regolamentazione, la società civile, i ricercatori, gli educatori e i tutori (2) sul fatto che l'attuale livello di tutela della vita privata, di sicurezza e di protezione online dei minori è spesso inadeguato. La progettazione e le caratteristiche dell'ampia varietà di piattaforme online e dei servizi offerti dai fornitori di piattaforme online accessibili ai minori possono creare rischi per la vita privata, la sicurezza e la protezione dei minori e aggravare i rischi esistenti. Tali rischi comprendono, ad esempio, l'esposizione a contenuti illegali (3) e dannosi che compromettono la vita privata, la sicurezza e la protezione dei minori o che possono nuocere al loro sviluppo fisico o mentale. Comprendono inoltre il bullismo online o i contatti da parte di persone che cercano di danneggiare i minori, ad esempio i trafficanti di esseri umani e coloro che cercano di compiere abusi sessuali o estorsioni a danno dei minori, di reclutarli in bande criminali o di promuovere la violenza, la radicalizzazione, l'estremismo violento e il terrorismo. I minori possono anche essere esposti a rischi in quanto consumatori, nonché a rischi connessi all'uso intensivo o eccessivo delle piattaforme online e all'esposizione a pratiche inadeguate o di sfruttamento, anche in relazione al gioco d'azzardo e ai videogiochi. La crescente integrazione di chatbot e compagni di intelligenza artificiale («IA») nelle piattaforme online e i deep fake basati sull'IA possono a loro volta incidere sul modo in cui i minori interagiscono con le piattaforme online, aggravare i rischi esistenti e crearne di nuovi che possono avere ripercussioni negative sulla vita privata, sulla sicurezza e sulla protezione dei minori (4). Tali rischi possono derivare dall'esperienza diretta del minore con la piattaforma e/o dalle azioni di altri utenti sulla piattaforma. |
|
3. |
L'obiettivo dei presenti orientamenti è sostenere i fornitori di piattaforme online nel far fronte a tali rischi mediante un insieme di misure che, a parere della Commissione, li aiuteranno a garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sulle loro piattaforme, contribuendo in tal modo alla protezione dei minori quale importante obiettivo strategico dell'Unione. I presenti orientamenti mirano inoltre ad aiutare i coordinatori dei servizi digitali e le autorità nazionali competenti nell'applicazione e nell'interpretazione dell'articolo 28 del regolamento (UE) 2022/2065. Ad esempio, rendere gli account dei minori più privati aiuterà, tra l'altro, i fornitori di piattaforme online a ridurre il rischio di contatti indesiderati o non richiesti. L'attuazione di misure di accertamento dell'età (5) può, tra l'altro, aiutare i fornitori a ridurre il rischio che i minori siano esposti a servizi, contenuti, comportamenti, contatti o pratiche commerciali che ne compromettano la vita privata, la sicurezza e la protezione. L'adozione di queste e altre misure, su questioni che vanno dai sistemi di raccomandazione e dalla governance alle segnalazioni degli utenti e al sostegno a questi ultimi, può aiutare i fornitori di piattaforme online a rendere tali piattaforme più sicure, più protette e più rispettose della vita privata per i minori. |
2. AMBITO DI APPLICAZIONE DEGLI ORIENTAMENTI
|
4. |
Alla luce dei suddetti rischi il legislatore dell'Unione ha adottato l'articolo 28 del regolamento (UE) 2022/2065 del Parlamento europeo e del Consiglio (6). Il paragrafo 1 di tale disposizione obbliga i fornitori di piattaforme online accessibili ai minori a adottare misure adeguate e proporzionate per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio. L'articolo 28, paragrafo 2, del regolamento (UE) 2022/2065 vieta ai fornitori di piattaforme online di presentare sulla loro interfaccia pubblicità basata sulla profilazione come definita all'articolo 4, punto 4), del regolamento (UE) 2016/679 (7) che usa i dati personali del destinatario del servizio se tali fornitori sono consapevoli, con ragionevole certezza, che il destinatario del servizio è minore. L'articolo 28, paragrafo 3, del regolamento (UE) 2022/2065 specifica che il rispetto degli obblighi di cui a tale articolo non obbliga i fornitori di piattaforme online accessibili ai minori a trattare dati personali ulteriori per valutare se il destinatario del servizio sia minore. L'articolo 28, paragrafo 4, del regolamento (UE) 2022/2065 prevede che la Commissione, previa consultazione del comitato europeo per i servizi digitali («comitato»), possa emanare orientamenti per assistere i fornitori di piattaforme online nell'applicazione del paragrafo 1. |
|
5. |
I presenti orientamenti descrivono le misure che, secondo il parere della Commissione, i fornitori di piattaforme online accessibili ai minori dovrebbero adottare per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori online, conformemente all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065. L'obbligo previsto da tale disposizione incombe ai fornitori di piattaforme online i cui servizi sono accessibili ai minori (8). Il considerando 71 di tale regolamento chiarisce ulteriormente che «[u]na piattaforma online può essere considerata accessibile ai minori quando le sue condizioni generali consentono ai minori di utilizzare il servizio, quando il suo servizio è rivolto o utilizzato prevalentemente da minori, o se il fornitore è altrimenti a conoscenza del fatto che alcuni dei destinatari del suo servizio sono minori». |
|
6. |
Per quanto riguarda il primo scenario descritto in tale considerando, la Commissione ritiene che il fornitore di una piattaforma online, per sostenere che quest'ultima non è accessibile ai minori, non possa basarsi unicamente su una dichiarazione contenuta nelle sue condizioni generali in cui si vieta l'accesso ai minori. Se non attua misure efficaci per impedire ai minori di accedere al suo servizio, il fornitore della piattaforma online non può sostenere che quest'ultima non rientra nell'ambito di applicazione dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065 sulla base di tale dichiarazione. Ad esempio, le piattaforme online che ospitano e diffondono contenuti per adulti, come le piattaforme online che diffondono contenuti pornografici, e i cui fornitori pertanto limitano, nelle loro condizioni generali, l'uso dei loro servizi agli utenti di età superiore ai 18 anni saranno considerate accessibili ai minori ai sensi dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065 se non sono state messe in atto misure efficaci per impedire ai minori di accedere ai loro servizi. |
|
7. |
Per quanto riguarda il terzo scenario, il considerando 71 del regolamento (UE) 2022/2065 chiarisce che un esempio di situazione in cui un fornitore di una piattaforma online dovrebbe essere a conoscenza del fatto che alcuni dei destinatari del suo servizio sono minori è quello in cui tale fornitore tratta già i dati personali di tali destinatari che rivelano la loro età per altri scopi, ad esempio durante la registrazione per l'accesso al servizio in questione, e ciò rivela che alcuni di tali destinatari sono minori. Tra gli altri esempi di situazioni in cui ci si può ragionevolmente attendere che un fornitore sia a conoscenza del fatto che tra i destinatari del suo servizio vi sono minori figurano quelli in cui la piattaforma online è notoriamente popolare tra i minori; il fornitore della piattaforma online offre servizi analoghi a quelli utilizzati dai minori; la piattaforma online è promossa presso i minori; il fornitore della piattaforma online ha condotto o commissionato ricerche che identificano i minori come destinatari dei servizi, o tale identificazione deriva da una ricerca indipendente. |
|
8. |
A norma dell'articolo 19 del regolamento (UE) 2022/2065, l'obbligo di cui all'articolo 28, paragrafo 1, di tale regolamento non si applica ai fornitori di piattaforme online che si qualificano come microimprese o piccole imprese, tranne qualora la Commissione abbia designato la loro piattaforma online come piattaforma online di dimensioni molto grandi a norma dell'articolo 33, paragrafo 4, del medesimo regolamento (9). |
|
9. |
Anche altre disposizioni del regolamento (UE) 2022/2065 mirano a garantire la protezione dei minori online (10). Tra queste figurano diverse disposizioni del capo III, sezione 5, del regolamento (UE) 2022/2065, che impone obblighi supplementari ai fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi (11). I presenti orientamenti non mirano a interpretare tali disposizioni e i fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi non dovrebbero attendersi che l'adozione di tutte o di parte delle misure descritte di seguito sia sufficiente a garantire il rispetto dei loro obblighi a norma del capo III, sezione 5, del regolamento (UE) 2022/2065, in quanto tali fornitori potrebbero dover adottare misure supplementari che non sono stabilite nei presenti orientamenti e che sono necessarie per rispettare gli obblighi derivanti da tali disposizioni (12). |
|
10. |
L'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065 dovrebbe essere considerato anche alla luce di altre normative e strumenti non vincolanti dell'Unione volti ad affrontare i rischi ai quali i minori sono esposti online (13). Tali normative e strumenti contribuiscono inoltre al conseguimento dell'obiettivo di garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori online, integrando in tal modo l'applicazione dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065. I presenti orientamenti non dovrebbero essere intesi come volti a interpretare gli obblighi derivanti da tali normative e strumenti o dalla legislazione degli Stati membri, o a pregiudicarli. La vigilanza e l'applicazione di tali normative e strumenti restano sotto la responsabilità esclusiva delle autorità competenti nell'ambito di tali quadri giuridici. In particolare, come chiarito al considerando 10 del regolamento (UE) 2022/2065, tale regolamento non pregiudica altri atti del diritto dell'Unione che disciplinano la prestazione di servizi della società dell'informazione in generale, che disciplinano altri aspetti della prestazione di servizi intermediari nel mercato interno o che specificano e integrano le norme armonizzate di cui al regolamento (UE) 2022/2065, quali la direttiva 2010/13/UE, nonché il diritto dell'Unione sulla tutela dei consumatori e sulla protezione dei dati personali, in particolare il regolamento (UE) 2016/679. |
|
11. |
Sebbene i presenti orientamenti stabiliscano misure volte a garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori online, i fornitori di piattaforme online sono incoraggiati a adottare tali misure al fine di proteggere tutti gli utenti e non solo i minori. La creazione di un ambiente online rispettoso della vita privata, sicuro e protetto per tutti gli utenti si tradurrà, per sua stessa natura, in un livello più elevato di tutela della vita privata, di sicurezza e di protezione dei minori online, parallelamente all'adozione di misure volte a garantire il rispetto dei loro diritti ed esigenze specifici in linea con l'articolo 28 del regolamento (UE) 2022/2065. |
|
12. |
Con l'adozione dei presenti orientamenti la Commissione dichiara che applicherà i medesimi ai casi ivi descritti e imporrà pertanto un limite all'esercizio del suo potere discrezionale ogniqualvolta si trovi ad applicare l'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065. I presenti orientamenti possono pertanto essere considerati un parametro di riferimento significativo e rilevante sul quale la Commissione si baserà nell'applicare l'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065 e nel determinare il rispetto di tale disposizione da parte dei fornitori di piattaforme online accessibili ai minori (14). I coordinatori dei servizi digitali e le autorità nazionali competenti possono inoltre trarre ispirazione dai presenti orientamenti nell'applicazione e nell'interpretazione dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065. Tuttavia l'adozione e l'attuazione di tutte o di parte delle misure di cui ai presenti orientamenti non comportano automaticamente il rispetto di tale disposizione. |
|
13. |
Un'interpretazione autorevole dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065 può essere fornita solo dalla Corte di giustizia dell'Unione europea, che è competente, tra l'altro, a pronunciarsi in via pregiudiziale sulla validità e sull'interpretazione degli atti dell'UE, compreso l'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065. |
|
14. |
Nel corso dell'elaborazione degli orientamenti la Commissione ha consultato i portatori di interessi (15), compresi il comitato e il suo gruppo di lavoro sulla protezione dei minori. Conformemente all'articolo 28, paragrafo 4, del regolamento (UE) 2022/2065, la Commissione ha consultato il comitato su una bozza dei presenti orientamenti prima della loro adozione il 2 luglio 2025. |
|
15. |
Le misure descritte nelle sezioni da 5 a 8 dei presenti orientamenti non sono esaustive. Anche altre misure possono essere ritenute appropriate e proporzionate per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori conformemente all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065, come le misure derivanti dal rispetto di altre normative dell'Unione (16) o dall'osservanza degli orientamenti nazionali sulla protezione dei minori o delle norme tecniche (17). Inoltre, in futuro potrebbero essere individuate nuove misure che consentano ai fornitori di piattaforme online accessibili ai minori di conformarsi meglio all'obbligo di garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio. |
3. STRUTTURA
|
16. |
La sezione 4 dei presenti orientamenti stabilisce i principi generali che dovrebbero disciplinare tutte le misure messe in atto dai fornitori di piattaforme online accessibili ai minori per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio. Le sezioni da 5 a 8 dei presenti orientamenti illustrano le principali misure che la Commissione ritiene che tali fornitori dovrebbero mettere in atto per garantire un tale livello elevato di tutela della vita privata, di sicurezza e di protezione. Tra queste figurano l'analisi dei rischi (sezione 5), la progettazione dei servizi (sezione 6), le segnalazioni, il supporto agli utenti e gli strumenti per i tutori (sezione 7) e la governance (sezione 8). |
4. PRINCIPI GENERALI
|
17. |
I presenti orientamenti si basano sui seguenti principi generali, che sono interconnessi e dovrebbero essere considerati in modo olistico in tutte le attività dei fornitori di piattaforme online che rientrano nell'ambito di applicazione dei presenti orientamenti. La Commissione ritiene che qualsiasi misura messa in atto da un fornitore di una piattaforma online accessibile ai minori per conformarsi all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065 dovrebbe rispettare i principi generali indicati di seguito.
|
5. ANALISI DEI RISCHI
|
18. |
La natura eterogenea delle piattaforme online e la diversità dei contesti possono richiedere approcci distinti; alcune misure possono quindi essere più adatte a determinate piattaforme che ad altre. Nel momento in cui un fornitore di una piattaforma online accessibile ai minori decide con quali modalità garantire un elevato livello di sicurezza, tutela della vita privata e protezione dei minori sulla sua piattaforma e determina le misure adeguate e proporzionate a tal fine, la Commissione ritiene che tale fornitore dovrebbe, come minimo, stabilire e valutare:
|
|
19. |
Nell'effettuare tale analisi, i fornitori di piattaforme online accessibili ai minori dovrebbero considerare preminente l'interesse superiore del minore (25) in linea con la Carta e altri principi della Convenzione sui diritti dell'infanzia e dell'adolescenza (26), nonché con altri orientamenti pertinenti dell'Unione in materia (27). Dovrebbero includere le prospettive dei minori cercando la loro partecipazione, nonché quella dei tutori, dei rappresentanti di altri gruppi potenzialmente interessati e di altri esperti e portatori di interessi. |
|
20. |
I fornitori dovrebbero prendere in considerazione le informazioni e le conoscenze più aggiornate disponibili da fonti scientifiche e accademiche, anche sfruttando altre valutazioni effettuate dal fornitore al riguardo. Dovrebbero rispettare il principio di precauzione quando vi siano indicazioni ragionevoli che una particolare pratica, caratteristica o scelta di progettazione comporta rischi per i minori, adottando misure per prevenire o attenuare tali rischi fino a quando non sia dimostrato che i suoi effetti non sono dannosi per i minori. |
|
21. |
I fornitori dovrebbero effettuare l'analisi periodicamente, almeno una volta all'anno oppure ogni volta che apportano modifiche significative alla progettazione della piattaforma (28) o vengono a conoscenza di altre circostanze che incidono sulla progettazione e sul funzionamento della piattaforma e che sono rilevanti per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sulla loro piattaforma online. I fornitori dovrebbero mettere l'analisi dei rischi a disposizione delle autorità di vigilanza competenti e pubblicarne i risultati, senza divulgare informazioni operative di sicurezza sensibili, al più tardi prima dello svolgimento dell'analisi successiva, nonché valutare la possibilità di sottoporla al riesame di esperti indipendenti o dei portatori di interessi. |
|
22. |
Le norme e gli strumenti esistenti per effettuare valutazioni d'impatto sui diritti dei minori possono aiutare i fornitori nello svolgimento di tale analisi. Tra questi figurano, ad esempio, i modelli, i moduli e altri orientamenti forniti dall'UNICEF (29), dal ministero neerlandese degli Affari interni e delle relazioni del Regno (BZK) (30) o dall'organismo europeo di normazione CEN-CENELEC (31). La Commissione può emanare ulteriori orientamenti o strumenti per aiutare i fornitori nello svolgimento dell'analisi, anche attraverso strumenti specifici per le valutazioni d'impatto sui diritti dei minori. Fino alla pubblicazione dei presenti orientamenti i fornitori potranno utilizzare gli strumenti e le migliori pratiche esistenti per tali valutazioni. |
|
23. |
Per i fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi, tale analisi dei rischi può essere effettuata anche nell'ambito della valutazione generale dei rischi sistemici di cui all'articolo 34 del regolamento (UE) 2022/2065, che integrerà e andrà oltre l'analisi dei rischi realizzata conformemente ai presenti orientamenti. |
6. PROGETTAZIONE DEI SERVIZI
6.1. Accertamento dell'età
6.1.1. Introduzione e terminologia
|
24. |
Negli ultimi anni la tecnologia ha registrato rapidi sviluppi che hanno consentito ai fornitori di piattaforme online di accertare l'età dei loro utenti in modi più e meno accurati, affidabili e solidi. Tali misure sono comunemente denominate «accertamento dell'età» (32). |
|
25. |
La Commissione ritiene che le misure che limitano l'accesso in base all'età siano un mezzo efficace per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori sulle piattaforme online. A tal fine, gli strumenti di accertamento dell'età possono aiutare i fornitori a imporre restrizioni di accesso per gli utenti al di sotto di una determinata età, al fine di proteggere i minori dall'accesso a contenuti online inadatti all'età, come il gioco d'azzardo o la pornografia, o dall'esposizione ad altri rischi come l'adescamento. |
|
26. |
Gli strumenti di accertamento dell'età possono inoltre aiutare i fornitori a impedire agli adulti di accedere a determinate piattaforme concepite per i minori, tranne quando ciò avviene per legittime finalità parentali, educative o di controllo, riducendo in tal modo il rischio che gli adulti si spaccino per minori e/o cerchino di arrecare loro danno. |
|
27. |
Infine, gli strumenti di accertamento dell'età possono essere utilizzati per sostenere una progettazione adeguata all'età del servizio stesso, promuovendo in tal modo spazi online più sicuri e più adatti ai minori. In questi casi, gli strumenti possono essere utilizzati per garantire che i minori abbiano accesso solo a determinati contenuti, funzioni o attività adeguati al loro consumo, tenendo conto della loro età e delle loro capacità in evoluzione. |
|
28. |
È importante distinguere tra i limiti di età, da un lato, che implicano restrizioni di accesso alla piattaforma o a parti di essa per gli utenti al di sotto o al di sopra di una determinata età, e i metodi di accertamento dell'età, dall'altro, che vengono utilizzati per determinare l'età di un utente. |
|
29. |
Le misure di accertamento dell'età più comuni attualmente disponibili e applicate dalle piattaforme online rientrano in tre grandi categorie: autodichiarazione, stima dell'età e verifica dell'età.
|
|
30. |
La differenza principale tra le misure di stima dell'età e di verifica dell'età è il livello di accuratezza. Mentre la verifica dell'età offre certezza circa l'età dell'utente, la stima dell'età fornisce solo un'approssimazione. L'accuratezza delle tecnologie di stima dell'età può variare e migliorare con il progredire della tecnologia. |
6.1.2. Valutazione dell'opportunità di attuare restrizioni di accesso sostenute da misure di accertamento dell'età
|
31. |
Prima di decidere se porre in essere restrizioni di accesso basate sull'età sostenute da metodi di accertamento dell'età, i fornitori di piattaforme online accessibili ai minori dovrebbero sempre effettuare una valutazione volta a determinare se tale misura sia appropriata per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori sul loro servizio e se sia proporzionata o se tale elevato livello possa già essere conseguito facendo ricorso ad altre misure di minore portata (34). A tale riguardo la Commissione è del parere che i fornitori dovrebbero considerare le restrizioni di accesso basate sull'età sostenute da misure di accertamento dell'età come strumento complementare alle misure stabilite in altre sezioni dei presenti orientamenti. In altre parole, le restrizioni di accesso e l'accertamento dell'età non possono da soli sostituire le misure raccomandate altrove nei presenti orientamenti. |
|
32. |
Tale valutazione dovrebbe garantire la proporzionalità di qualsiasi limitazione all'esercizio dei diritti e delle libertà fondamentali dei destinatari, in particolare dei minori. La Commissione ritiene pertanto che i fornitori di piattaforme online dovrebbero rendere pubblico il risultato di tale valutazione sull'interfaccia online del loro servizio, sia nel caso in cui la valutazione permetta di concludere che non è necessaria alcuna restrizione di accesso sostenuta da metodi di accertamento dell'età, sia se in base alla valutazione una simile restrizione risulta essere una misura adeguata e proporzionata. |
|
33. |
La Commissione osserva che una minore accuratezza delle soluzioni di stima dell'età non equivale automaticamente a un minore impatto sui diritti e sulle libertà fondamentali dei destinatari, in quanto soluzioni meno accurate potrebbero trattare un maggior numero di dati personali rispetto a quelle più accurate. A causa del minore livello di accuratezza, potrebbero inoltre impedire ad alcuni minori di accedere a piattaforme online cui questi potrebbero altrimenti avere accesso. Di conseguenza, nel considerare i metodi di stima dell'età che richiedono il trattamento di dati personali, i fornitori di piattaforme online accessibili ai minori dovrebbero garantire che i principi di protezione dei dati, in particolare la minimizzazione dei dati, siano attuati correttamente e rimangano solidi nel tempo, e che tengano conto della dichiarazione del comitato europeo per la protezione dei dati (EDPB) sull'accertamento dell'età (35). |
|
34. |
La Commissione è del parere che i fornitori di piattaforme online accessibili ai minori che considerano necessarie e proporzionate le restrizioni di accesso basate su metodi di accertamento dell'età dovrebbero fornire informazioni sulle soluzioni di accertamento dell'età individuate e sulla loro adeguatezza ed efficacia, con l'obiettivo di garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sui loro servizi. Essi dovrebbero inoltre fornire una panoramica dei parametri di prestazione utilizzati per la misurazione, come i tassi di falsi positivi e falsi negativi, nonché i tassi di accuratezza e di sensibilità. |
|
35. |
È opportuno prevedere la partecipazione dei minori alla progettazione, all'attuazione e alla valutazione dei limiti di età e dei metodi di accertamento dell'età. |
|
36. |
Nelle piattaforme online accessibili ai minori è possibile che solo alcuni contenuti, sezioni o funzioni rappresentino un rischio per i minori, oppure che vi siano parti in cui il rischio può essere attenuato mediante altre misure e/o parti in cui ciò non è possibile. In questi casi, anziché imporre limiti di età per l'accesso al servizio nel suo complesso, i fornitori di tali piattaforme online dovrebbero valutare quali contenuti, sezioni o funzioni sulla loro piattaforma comportano rischi per i minori e attuare restrizioni di accesso sostenute da metodi di accertamento dell'età per ridurre tali rischi per i minori in modo proporzionato e adeguato. Ad esempio, le parti dei servizi dei social media con contenuti, sezioni o funzioni che possono rappresentare un rischio per i minori, come le sezioni per adulti di un social media, o quelle che contengono comunicazioni commerciali o posizionamenti di prodotti per adulti da parte di influencer dovrebbero essere rese disponibili solo agli utenti adulti la cui età sia stata adeguatamente verificata. |
6.1.3. Determinazione dei metodi di accertamento dell'età da utilizzare
6.1.3.1. Verifica dell'età
|
37. |
Nelle seguenti circostanze, tenuto conto che la protezione dei minori costituisce un importante obiettivo politico dell'Unione, cui il regolamento (UE) 2022/2065 dà espressione, come indicato nel considerando 71, la Commissione ritiene che il ricorso a restrizioni di accesso sostenute da metodi di verifica dell'età costituisca una misura adeguata e proporzionata per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori:
|
|
38. |
I metodi di stima dell'età possono integrare le tecnologie di verifica dell'età e possono essere utilizzati in aggiunta o come alternativa temporanea a tali tecnologie, in particolare nei casi in cui non siano ancora prontamente disponibili misure di verifica che rispettino i criteri di efficacia delle soluzioni di accertamento dell'età di cui alla sezione 6.1.4, con particolare attenzione alla tutela del diritto degli utenti alla vita privata e alla protezione dei dati, nonché all'accuratezza. Tale periodo transitorio non dovrebbe estendersi oltre il primo riesame dei presenti orientamenti (38). Ad esempio, le piattaforme che offrono contenuti per adulti potrebbero utilizzare metodi di stima dell'età ex ante se sono in grado di dimostrare che tali metodi sono comparabili a quelli di verifica dell'età in relazione ai criteri di cui alla sezione 6.1.4, in assenza di misure efficaci di verifica dell'età (39). A tempo debito, la Commissione potrebbe integrare i presenti orientamenti con un'analisi tecnica dei principali metodi esistenti di stima dell'età attualmente disponibili alla luce dei criteri di cui alla sezione 6.1.4. |
6.1.3.2. Tecnologie di verifica dell'età
|
39. |
La verifica dell'età dovrebbe essere trattata come un processo separato e distinto, non collegato ad altre attività di raccolta dei dati svolte dalle piattaforme online. La verifica dell'età non dovrebbe consentire ai fornitori di piattaforme online di conservare dati personali al di là delle informazioni sulla fascia di età dell'utente. |
|
40. |
Come ulteriormente illustrato nella sezione 6.1.4, per essere considerato adeguato e proporzionato, qualsiasi metodo di accertamento dell'età dovrebbe essere solido e quindi non facilmente eludibile. Un metodo che i minori possono eludere con facilità non sarà considerato una misura efficace di accertamento dell'età. |
|
41. |
I metodi che si basano su documenti di identità verificati e affidabili rilasciati dal governo, che non forniscano alla piattaforma dati personali aggiuntivi, possono costituire un metodo efficace di verifica dell'età nella misura in cui si basano su token di età anonimizzati (40). L'emissione di tali token dovrebbe essere preceduta da una verifica affidabile dell'età della persona ed essere effettuata da un terzo indipendente anziché dal fornitore della piattaforma online, in particolare quando offre accesso a contenuti per adulti. La Commissione ritiene che protocolli crittografici come la rotazione delle chiavi o le dimostrazioni a conoscenza zero (41) costituiscano una base adeguata per accertare l'età senza trasmettere dati personali. |
|
42. |
Gli Stati membri stanno attualmente fornendo a tutti i loro cittadini e residenti e a ciascuna delle loro imprese un portafoglio europeo di identità digitale (42). I futuri portafogli europei di identità digitale offriranno mezzi di identificazione elettronica sicuri, affidabili e privati nell'Unione. Una volta implementati, potranno essere utilizzati per condividere con un servizio solo informazioni specifiche, ad esempio se una persona è al di sopra di una determinata età.
|
|
43. |
Per agevolare la verifica dell'età prima che diventino disponibili i portafogli europei di identità digitale, la Commissione sta attualmente sperimentando una soluzione UE di verifica dell'età come misura autonoma che rispetti i criteri di efficacia delle soluzioni di accertamento dell'età di cui alla sezione 6.1.4. Una volta ultimata, la soluzione UE di verifica dell'età costituirà un esempio di conformità e uno standard di riferimento per i metodi di verifica dell'età basati su dispositivo. I fornitori di piattaforme online da cui ci si attende l'uso di soluzioni di verifica dell'età per i loro servizi sono pertanto incoraggiati a partecipare alle sperimentazioni disponibili delle versioni iniziali della soluzione UE di verifica dell'età, da cui possono trarre informazioni sui mezzi più adatti a garantire la conformità all'articolo 28 del regolamento (UE) 2022/2065. |
|
44. |
L'attuazione dello standard di riferimento (43) stabilito dalla soluzione UE di verifica dell'età può essere offerta tramite app pubblicate da soggetti pubblici o privati o integrate nei futuri portafogli europei di identità digitale. L'attuazione di tale standard costituirà una tecnologia di verifica dell'età non tracciabile e interoperabile atta a garantire la tutela della vita privata e minimizzare i dati, nel rispetto dei criteri di efficacia delle soluzioni di accertamento dell'età di cui alla sezione 6.1.4.
|
|
45. |
I fornitori di piattaforme online accessibili ai minori possono utilizzare altri metodi di verifica dell'età per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori, a condizione che siano compatibili con lo standard di riferimento dell'UE (come descritto ai paragrafi 43 e 44) e soddisfino i criteri di cui alla sezione 6.1.4. La soluzione UE di verifica dell'età è un esempio di metodo che soddisfa tali criteri. |
|
46. |
Per garantire il rispetto dei principi di minimizzazione dei dati, limitazione delle finalità e fiducia degli utenti, i fornitori di piattaforme online sono incoraggiati a adottare metodi di verifica dell'età in doppio cieco. Un metodo in doppio cieco garantisce che i) la piattaforma online non riceva mezzi aggiuntivi per identificare l'utente e riceva invece solo informazioni che le consentano di confermare se questi raggiunge la soglia di età richiesta, e che ii) il fornitore della verifica dell'età non venga a conoscenza dei servizi per i quali viene utilizzata la prova dell'età. Tali metodi possono basarsi sul trattamento locale su dispositivo, su token crittografici anonimizzati o su dimostrazioni a conoscenza zero (44). |
6.1.3.3. Stima dell'età
|
47. |
La Commissione ritiene che l'uso di metodi di stima dell'età, se forniti da terzi indipendenti o mediante sistemi sottoposti ad audit adeguato e indipendente, in particolare per quanto riguarda la conformità in materia di sicurezza e protezione dei dati, e se applicati ex ante ove necessario per garantire l'efficacia della misura, costituisca una misura adeguata e proporzionata per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori nelle circostanze seguenti:
|
|
48. |
Qualora il fornitore di una piattaforma online accessibile ai minori abbia stabilito che per conseguire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori sul suo servizio sono necessarie restrizioni di accesso sostenute da misure di accertamento dell'età, la Commissione ritiene che tale fornitore dovrebbe mettere a disposizione sulla sua piattaforma più di un metodo di accertamento dell'età, in modo da offrire all'utente una possibilità di scelta tra i vari metodi, purché tutti i metodi soddisfino i criteri illustrati nella sezione 6.1.4. Questo contribuirà a evitare l'esclusione degli utenti che, pur essendo ammissibili ad accedere a una piattaforma online, non possono avvalersi di uno specifico metodo di accertamento dell'età. Al fine di aumentare l'efficacia e la facilità d'uso, è opportuno applicare il metodo adeguato di accertamento dell'età, ove possibile al momento della creazione di un account, e utilizzare le informazioni sull'età per contribuire a un'esperienza adeguata all'età sulla piattaforma, oltre ad altre misure di protezione menzionate nei presenti orientamenti. Inoltre, i fornitori di piattaforme online dovrebbero prevedere un meccanismo di ricorso che consenta agli utenti di denunciare eventuali valutazioni errate dell'età da parte del fornitore (49).
|
6.1.4. Valutazione dell'adeguatezza e della proporzionalità del metodo di accertamento dell'età
|
49. |
Prima di valutare se mettere in atto uno specifico metodo di verifica o di stima dell'età a sostegno delle restrizioni di accesso, i fornitori di piattaforme online accessibili ai minori dovrebbero considerare le caratteristiche di tale metodo illustrate di seguito.
|
|
50. |
Le misure di accertamento dell'età che non soddisfano i criteri di cui sopra non possono essere considerate adeguate e proporzionate. |
|
51. |
Le soluzioni di accertamento dell'età che possono essere facilmente eluse non dovrebbero essere considerate tali da garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori. Tale valutazione dovrebbe essere effettuata in funzione dell'impatto che la piattaforma può avere sulla vita privata, sulla sicurezza e sulla protezione dei minori. La conservazione di una prova dell'età dovrebbe dipendere anche dai rischi associati alle piattaforme in questione. Ad esempio, le piattaforme online per adulti non dovrebbero consentire la condivisione delle credenziali degli account degli utenti e dovrebbero quindi effettuare l'accertamento dell'età ogni volta che si accede al loro servizio. |
|
52. |
La Commissione ritiene che l'autodichiarazione (54) non soddisfi tutti i requisiti di cui sopra, in particolare i requisiti di solidità e di accuratezza. Non considera pertanto l'autodichiarazione un metodo di accertamento dell'età adeguato per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori conformemente all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065. |
|
53. |
La Commissione ritiene inoltre che il ricorso a un terzo per l'accertamento dell'età dovrebbe essere spiegato ai minori, come in qualsiasi altro caso, in modo accessibile, visibile e con un linguaggio a misura di minore (cfr. la sezione 8.4 sulla trasparenza). Spetta inoltre al fornitore garantire l'efficacia del metodo utilizzato dal terzo, in linea con le considerazioni di cui sopra. Ciò comprende, ad esempio, i casi in cui il fornitore intenda avvalersi di soluzioni fornite dai sistemi operativi o dagli operatori dei dispositivi. |
6.2. Registrazione
|
54. |
La registrazione o l'autenticazione può influire sulla capacità dei minori di accedere a un determinato servizio e di utilizzarlo in modo sicuro, adeguato all'età e rispettoso dei diritti, nonché sulle relative modalità. La Commissione è del parere che, una volta stabilito che l'accertamento dell'età è necessario per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione, nonché per fornire un'esperienza adeguata all'età, la registrazione o l'autenticazione possa essere un primo elemento da utilizzare per svolgere tale processo in modo proporzionato. |
|
55. |
Qualora la registrazione non sia obbligatoria, e tenuto conto del fatto che qualsiasi utente non registrato potrebbe essere un minore di età inferiore all'età minima richiesta dalla piattaforma online per accedere al servizio e/o a contenuti inadatti all'età sul servizio, il fornitore della piattaforma online accessibile ai minori dovrebbe configurare le impostazioni degli utenti non registrati nel modo che garantisca i più elevati livelli di tutela della vita privata, di sicurezza e di protezione, prendendo in considerazione in particolare le raccomandazioni di cui alle sezioni 6.3.1 e 6.3.2 e considerando preminente l'interesse superiore del minore, anche per quanto riguarda i rischi di contatto associati all'eventualità che un adulto si spacci per minore. |
|
56. |
Qualora la registrazione sia obbligatoria o offerta come possibilità per accedere a una piattaforma online accessibile ai minori, la Commissione ritiene che il fornitore di tale piattaforma dovrebbe:
|
6.3. Impostazioni dell'account
6.3.1. Impostazioni predefinite
|
57. |
Le impostazioni predefinite sono uno strumento importante che i fornitori di piattaforme online accessibili ai minori possono utilizzare per attenuare i rischi per la vita privata, la sicurezza e la protezione dei minori, come ad esempio il rischio di contatti indesiderati da parte di persone che cercano di arrecare loro danno. I dati indicano che gli utenti tendono a non modificare le loro impostazioni predefinite, il che significa che tali impostazioni vengono mantenute per la maggior parte degli utenti e diventano quindi fondamentali nell'indirizzare il comportamento (57). La Commissione ritiene pertanto che i fornitori di piattaforme online accessibili ai minori dovrebbero:
|
|
58. |
Qualora i minori modifichino le loro impostazioni predefinite o attivino funzioni che mettono a rischio la loro vita privata, sicurezza o protezione, la Commissione ritiene che il fornitore della piattaforma online dovrebbe:
|
6.3.2. Disponibilità di impostazioni, caratteristiche e funzionalità
|
59. |
La Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero:
|
6.4. Progettazione di interfacce online e altri strumenti
|
60. |
La Commissione ritiene che le misure che consentono ai minori di assumere il controllo delle loro esperienze online siano uno strumento efficace per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori ai fini dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065. |
|
61. |
Fatti salvi gli obblighi dei fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi di cui al capo III, sezione 5, del regolamento (UE) 2022/2065, e indipendentemente dagli obblighi derivanti dall'articolo 25 di tale regolamento per i fornitori di piattaforme online in relazione alla progettazione, all'organizzazione e al funzionamento delle loro interfacce online, la Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero adottare e attuare funzionalità che consentano ai minori di decidere in che modo interagire con i loro servizi. Tali funzionalità dovrebbero garantire il giusto equilibrio tra la capacità di agire dei minori e un livello adeguato di tutela della vita privata, di sicurezza e di protezione. Ciò dovrebbe comprendere, ad esempio:
|
6.5. Sistemi di raccomandazione e funzioni di ricerca
|
62. |
I sistemi di raccomandazione (62) determinano il modo in cui le informazioni sono messe in ordine di priorità, ottimizzate e mostrate ai minori. Di conseguenza, tali sistemi hanno un ruolo importante nel determinare se e in che misura i minori si imbattano in determinati tipi di contenuti, contatti o comportamenti online. I sistemi di raccomandazione possono comportare rischi per la vita privata, la sicurezza e la protezione online dei minori e aggravare tali rischi, ad esempio amplificando i contenuti che possono avere un impatto negativo sulla sicurezza e sulla protezione dei minori (63). |
|
63. |
A tale riguardo la Commissione ricorda gli obblighi per tutti i fornitori di tutte le categorie di piattaforme online in materia di trasparenza dei sistemi di raccomandazione a norma dell'articolo 27 del regolamento (UE) 2022/2065 e le prescrizioni aggiuntive per i fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi di cui all'articolo 34, paragrafo 1, all'articolo 35, paragrafo 1, e all'articolo 38 del regolamento (UE) 2022/2065 (64). |
|
64. |
Al fine di garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione specificamente per i minori, come previsto dall'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065, la Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero mettere in atto le misure descritte di seguito. |
6.5.1. Sperimentazione e adeguamento della progettazione e del funzionamento dei sistemi di raccomandazione per i minori
|
65. |
I fornitori di piattaforme online accessibili ai minori che utilizzano sistemi di raccomandazione per prestare il loro servizio dovrebbero:
|
6.5.2. Controllo e responsabilizzazione degli utenti
|
66. |
I fornitori di piattaforme online accessibili ai minori che utilizzano sistemi di raccomandazione per la prestazione del loro servizio dovrebbero adottare le misure indicate di seguito per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori:
|
|
67. |
Oltre agli obblighi di cui all'articolo 27, paragrafo 1, del regolamento (UE) 2022/2065 e, per i fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi, oltre agli obblighi rafforzati in materia di dovere di diligenza di cui agli articoli 34, 35 e 38 di tale regolamento, la Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero:
|
6.6. Pratiche commerciali
|
68. |
I minori sono particolarmente esposti agli effetti persuasivi delle pratiche commerciali e hanno il diritto di essere protetti dalle pratiche di sfruttamento economico (68) da parte delle piattaforme online. Sono esposti alle pratiche commerciali delle piattaforme online, trovandosi ad affrontare tattiche persuasive diversificate, dinamiche e personalizzate, per esempio sotto forma di pubblicità, inserimento di prodotti, uso di valute in-app, marketing da parte degli influencer, sponsorizzazioni o nudge potenziati dall'IA (69) (70). Ciò può avere un effetto negativo sulla vita privata, sulla sicurezza e sulla protezione dei minori quando utilizzano i servizi di una piattaforma online. |
|
69. |
In linea con il quadro giuridico orizzontale in vigore, in particolare la direttiva 2005/29/CE relativa alle pratiche commerciali sleali, che è pienamente applicabile a tutte le pratiche commerciali anche nei confronti dei minori (71), e le norme più specifiche del regolamento (UE) 2022/2065 in materia di pubblicità (articolo 26, articolo 28, paragrafo 2, e articolo 39) e di percorsi oscuri (articolo 25), e fatto salvo quanto precede, la Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero adottare le misure indicate di seguito per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio ai fini dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065:
|
6.7. Moderazione
|
70. |
La moderazione può ridurre l'esposizione dei minori a contenuti e comportamenti dannosi per la loro vita privata, la loro sicurezza e protezione, compresi i contenuti illegali o che possono nuocere al loro sviluppo fisico o mentale, e può contribuire alla prevenzione della criminalità. |
|
71. |
La Commissione ricorda gli obblighi in materia di: termini e condizioni, ai sensi dell'articolo 14 del regolamento (UE) 2022/2065; relazioni di trasparenza, a norma dell'articolo 15 di tale regolamento per i prestatori di servizi intermediari, compresi i fornitori di piattaforme online; meccanismi di segnalazione e azione e motivazioni, previsti rispettivamente agli articoli 16 e 17 di tale regolamento per i prestatori di servizi di memorizzazione di informazioni, comprese le piattaforme online; segnalatori attendibili (85) per i fornitori di piattaforme online, in forza dell'articolo 22 di tale regolamento. Ricorda inoltre il codice di condotta del 2025 contro l'incitamento all'odio online+ e il codice di condotta sulla disinformazione, che costituiscono codici di condotta ai sensi dell'articolo 45 del regolamento (UE) 2022/2065. |
|
72. |
Oltre a tali obblighi, la Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero mettere in atto le misure indicate di seguito per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio ai fini dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065, considerando nel contempo preminente l'interesse superiore del minore:
|
|
73. |
I fornitori di piattaforme online accessibili ai minori dovrebbero condividere i parametri relativi alla moderazione dei contenuti, ad esempio la frequenza con cui ricevono le segnalazioni degli utenti, la frequenza con cui individuano di propria iniziativa le violazioni relative a contenuti e comportamenti, i tipi di contenuti e di comportamenti segnalati e individuati e le modalità con cui la piattaforma ha reagito a tali problematiche. |
|
74. |
Nessuna delle suddette misure dovrebbe comportare un obbligo generale di sorveglianza sui contenuti che i fornitori di piattaforme online accessibili ai minori trasmettono o memorizzano (87).
|
7. SEGNALAZIONI, ASSISTENZA AGLI UTENTI E STRUMENTI PER I TUTORI
7.1. Segnalazioni, feedback e reclami degli utenti
|
75. |
La disponibilità di strumenti efficaci, visibili e a misura di minore per le segnalazioni, i feedback e i reclami degli utenti consente ai minori di segnalare e porre rimedio alle funzioni delle piattaforme online che possono incidere negativamente sul livello di tutela della vita privata, di sicurezza e protezione dei minori. |
|
76. |
La Commissione ricorda gli obblighi stabiliti dal regolamento (UE) 2022/2065, tra cui l'obbligo di istituire meccanismi di segnalazione e azione previsto all'articolo 16, l'obbligo di fornire una motivazione a norma dell'articolo 17, l'obbligo di notifica di sospetti di reati stabilito dall'articolo 18, l'obbligo di istituire un sistema interno di gestione dei reclami in forza dell'articolo 20, la risoluzione extragiudiziale delle controversie di cui all'articolo 21 e le norme sui segnalatori attendibili di cui all'articolo 22. |
|
77. |
Oltre a tali obblighi, la Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero mettere in atto le misure indicate di seguito per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio ai fini dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065:
|
7.2. Misure di sostegno agli utenti
|
78. |
L'introduzione di funzioni sulle piattaforme online accessibili ai minori per aiutarli a orientarsi tra i servizi offerti e a chiedere assistenza ove necessario è un mezzo efficace per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori. La Commissione ritiene pertanto che i fornitori di piattaforme online accessibili ai minori dovrebbero:
|
7.3. Strumenti per i tutori
|
79. |
Gli strumenti per i tutori sono costituiti da software, caratteristiche, funzionalità o applicazioni progettate per aiutare i tutori ad accompagnare l'attività online del minore, la vita privata, la sicurezza e il benessere del minore, nel rispetto della sua capacità di agire e della sua vita privata. |
|
80. |
La Commissione ritiene che gli strumenti per i tutori debbano essere considerati complementari alle misure di sicurezza fin dalla progettazione e per impostazione predefinita e a qualsiasi altra misura messa in atto per conformarsi all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065, comprese quelle descritte nei presenti orientamenti. Il rispetto dell'obbligo per i fornitori di piattaforme online accessibili ai minori di garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione sui loro servizi non deve mai basarsi esclusivamente sugli strumenti per i tutori. Tali strumenti non dovrebbero essere utilizzati come unica misura per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sulle piattaforme online, né per sostituire altre misure messe in atto a tal fine. Tali misure potrebbero non riflettere la realtà della vita dei minori, in particolare nei casi di affidamento separato o affidamento familiare o in caso di assenza o disinteresse dei tutori. Inoltre, l'efficacia del consenso dei genitori è limitata quando non viene verificata in modo affidabile l'identità o l'autorità legale dell'adulto che presta il consenso. I fornitori di piattaforme online accessibili ai minori devono pertanto attuare misure adeguate per proteggere i minori e non dovrebbero fare affidamento esclusivamente sul controllo parentale. La Commissione osserva tuttavia che, se utilizzati in combinazione con altre misure, gli strumenti per i tutori possono contribuire a un tale livello elevato. |
|
81. |
La Commissione ritiene pertanto che i fornitori di piattaforme online accessibili ai minori dovrebbero predisporre strumenti di controllo per i tutori ai fini dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065; tali strumenti dovrebbero:
|
|
82. |
Gli strumenti per i tutori possono includere funzioni per la gestione delle impostazioni predefinite, la fissazione di limiti per il tempo trascorso davanti allo schermo (cfr. la sezione 6.4 sulla progettazione dell'interfaccia online e altri strumenti), la visualizzazione degli account con cui il minore comunica, la gestione delle impostazioni dell'account, la fissazione di limiti di spesa predefiniti per il minore, se del caso, o altre funzioni che permettano di controllare gli usi delle piattaforme online che possono pregiudicare la vita privata, la sicurezza e la protezione del minore. |
8. GOVERNANCE
|
83. |
Una buona governance della piattaforma è uno strumento efficace per fare in modo che alla protezione dei minori sia riservata la dovuta priorità e gestione in tutta la piattaforma, il che contribuirà a garantire l'elevato livello richiesto di tutela della vita privata, di sicurezza e di protezione dei minori. |
8.1. Governance (aspetti generali)
|
84. |
La Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero mettere in atto pratiche di governance efficaci che contribuiscano a garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sui loro servizi ai fini dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065. Ciò implica, tra l'altro:
|
8.2. Condizioni generali
|
85. |
Le condizioni generali rappresentano un quadro che consente di disciplinare la relazione tra il fornitore della piattaforma online e i suoi utenti. Stabiliscono le norme e le aspettative riguardo ai comportamenti online e svolgono un ruolo importante nella creazione di un ambiente sicuro, protetto e rispettoso della vita privata (96). |
|
86. |
La Commissione ricorda gli obblighi previsti per tutti i prestatori di servizi intermediari dall'articolo 14 del regolamento (UE) 2022/2065 in relazione alle condizioni generali, tra cui l'obbligo di spiegare le condizioni e le restrizioni che si applicano all'utilizzo del servizio in un linguaggio chiaro, semplice, comprensibile, facilmente fruibile e privo di ambiguità. L'articolo 14, paragrafo 3, di tale regolamento specifica inoltre che i servizi intermediari destinati principalmente a minori o utilizzati in prevalenza da questi dovrebbero fornire tali informazioni in modo comprensibile per i minori (97) (98). |
|
87. |
La Commissione ritiene inoltre che i fornitori di piattaforme online accessibili ai minori dovrebbero garantire che le condizioni generali del servizio che forniscono:
|
|
88. |
La Commissione ritiene inoltre che i fornitori di piattaforme online accessibili ai minori dovrebbero provvedere affinché le modifiche delle condizioni generali siano registrate e pubblicate (99).
|
8.3. Monitoraggio e valutazione
|
89. |
La Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero adottare pratiche di monitoraggio e di valutazione efficaci per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio ai fini dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065. Ciò significa, tra l'altro:
|
8.4. Trasparenza
|
90. |
La Commissione ricorda gli obblighi di trasparenza di cui agli articoli 14, 15 e 24 del regolamento (UE) 2022/2065. Alla luce delle fasi di sviluppo e delle capacità in evoluzione dei minori, sono necessarie ulteriori considerazioni sulla trasparenza del funzionamento delle piattaforme online per garantire il rispetto dell'articolo 28, paragrafo 1, di tale regolamento. |
|
91. |
La Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero rendere facilmente accessibili a questi ultimi tutte le informazioni necessarie sul funzionamento dei loro servizi, al fine di garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione su tali servizi. La Commissione ritiene che i fornitori di piattaforme online dovrebbero mettere a disposizione dei minori e, se del caso, dei loro tutori, su un'interfaccia accessibile sulle loro piattaforme online, le informazioni seguenti:
|
9. RIESAME
|
92. |
La Commissione riesaminerà i presenti orientamenti non appena ciò si renderà necessario e al più tardi dopo un periodo di 12 mesi, alla luce dell'esperienza pratica acquisita nell'applicazione dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065 e del ritmo degli sviluppi tecnologici, sociali e normativi in questo settore. |
|
93. |
La Commissione incoraggerà i fornitori di piattaforme online accessibili ai minori, i coordinatori dei servizi digitali, le autorità nazionali competenti, la comunità della ricerca e le organizzazioni della società civile a contribuire a tale processo. A seguito di tale riesame, la Commissione, in consultazione con il comitato europeo per i servizi digitali, potrà decidere di modificare i presenti orientamenti. |
(1) Nei presenti orientamenti, per «minori» e «bambini» si intendono le persone di età inferiore ai 18 anni.
(2) Nei presenti orientamenti, per «tutori» si intendono le persone titolari della responsabilità genitoriale.
(3) Fra i contenuti illegali figurano, tra l'altro, quelli che rappresentano il traffico illecito di stupefacenti, i contenuti terroristici ed estremisti violenti e il materiale pedopornografico. La definizione di ciò che costituisce un contenuto illegale non è prevista dal regolamento (UE) 2022/2065 (regolamento sui servizi digitali), bensì da altre normative a livello di UE o nazionale.
(4) Nell'allegato I dei presenti orientamenti è contenuta una tipologia dei rischi ai quali sono esposti i minori che accedono alle piattaforme online, basata su un quadro elaborato dall'OCSE.
(5) Cfr. la sezione 6.1 sull'accertamento dell'età.
(6) Regolamento (UE) 2022/2065 del Parlamento europeo e del Consiglio, del 19 ottobre 2022, relativo a un mercato unico dei servizi digitali e che modifica la direttiva 2000/31/CE (regolamento sui servizi digitali) (GU L 277 del 27.10.2022, pag. 1, ELI: http://data.europa.eu/eli/reg/2022/2065/oj).
(7) Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati (GDPR) (GU L 119 del 4.5.2016, pag. 1, ELI: http://data.europa.eu/eli/reg/2016/679/oj).
(8) L'articolo 3 del regolamento (UE) 2022/2065 definisce una «piattaforma online» come «un servizio di memorizzazione di informazioni che, su richiesta di un destinatario del servizio, memorizza e diffonde informazioni al pubblico, tranne qualora tale attività sia una funzione minore e puramente accessoria di un altro servizio o funzionalità minore del servizio principale e, per ragioni oggettive e tecniche, non possa essere utilizzata senza tale altro servizio e a condizione che l'integrazione di tale funzione o funzionalità nell'altro servizio non sia un mezzo per eludere l'applicabilità del presente regolamento».
(9) Nella raccomandazione 2003/361/CE si definisce «piccola impresa» un'impresa che occupa meno di 50 persone e realizza un fatturato annuo o un totale di bilancio annuo non superiori a 10 milioni di EUR. Si definisce «microimpresa» un'impresa che occupa meno di 10 persone e realizza un fatturato annuo oppure un totale di bilancio annuo non superiori a 2 milioni di EUR. La Commissione richiama in questa sede il considerando 10 del regolamento (UE) 2022/2065, in cui si afferma che tale regolamento non pregiudica la direttiva 2010/13/UE. La suddetta direttiva impone a tutti i fornitori di piattaforme per la condivisione di video, indipendentemente dalla loro qualifica di microimprese o piccole imprese, di istituire e gestire sistemi di verifica dell'età per gli utenti di tali piattaforme in relazione ai contenuti che potrebbero nuocere allo sviluppo fisico o mentale dei minori.
(10) Fra questi figurano gli obblighi contenuti nelle seguenti disposizioni del regolamento (UE) 2022/2065: l'articolo 14 relativo a termini e condizioni, gli articoli 16 e 17 sui meccanismi di segnalazione e azione e sulla motivazione, l'articolo 25 sulla progettazione e organizzazione delle interfacce online, gli articoli 15 e 24 sulla trasparenza, l'articolo 26 sulla pubblicità, l'articolo 27 sui sistemi di raccomandazione e l'articolo 44 sulle norme.
(11) Sono qui comprese, tra l'altro, le seguenti disposizioni del regolamento (UE) 2022/2065: gli articoli 34 e 35 sulla valutazione del rischio e l'attenuazione dei rischi, l'articolo 38 sui sistemi di raccomandazione, l'articolo 40 sull'accesso ai dati e controllo e l'articolo 44, lettera j), sulle norme per misure mirate a tutela dei minori online.
(12) Tra queste figurano anche gli articoli 34 e 35 sulla valutazione del rischio e l'attenuazione dei rischi, l'articolo 38 sui sistemi di raccomandazione e l'articolo 40 sull'accesso ai dati e controllo.
(13) Tra questi figurano la strategia per un'internet migliore per i ragazzi (BIK+), la direttiva 2010/13/UE («direttiva sui servizi di media audiovisivi»), il regolamento (UE) 2024/1689 («regolamento sull'IA»), il regolamento (UE) 2016/679 («GDPR»), la direttiva 2011/93/UE relativa alla lotta contro l'abuso e lo sfruttamento sessuale dei minori, la direttiva 2005/29/CE relativa alle pratiche commerciali sleali («direttiva sulle pratiche commerciali sleali»), il portafoglio europeo di identità digitale e la soluzione a breve termine per la verifica dell'età, il prossimo piano d'azione contro il bullismo online, l'indagine a livello di Unione sugli impatti più ampi dei social media sul benessere, la strategia europea di sicurezza interna, la tabella di marcia dell'UE per contrastare il traffico di droga e la criminalità organizzata, il Forum dell'UE su internet, la strategia dell'UE per una lotta più efficace contro gli abusi sessuali su minori e la strategia dell'UE per la lotta alla tratta degli esseri umani 2021-2025. Inoltre, il regolamento (UE) 2022/2065 non pregiudica il diritto dell'Unione in materia di tutela dei consumatori e sicurezza dei prodotti, compresi i regolamenti (UE) 2017/2394 e (UE) 2019/1020 e le direttive 2001/95/CE e 2013/11/UE. Anche la direttiva 2005/29/CE relativa alle pratiche commerciali sleali, in particolare agli articoli da 5 a 9, tutela i minori e, ad esempio, l'allegato I, punto 28 vieta di includere in un messaggio pubblicitario un'esortazione diretta ai bambini affinché acquistino o convincano i genitori o altri adulti ad acquistare loro i prodotti reclamizzati. La Commissione ricorda inoltre il controllo, da parte della Commissione europea, dell'adeguatezza del diritto dei consumatori dell'UE in materia di equità digitale.
(14) L'adozione e l'attuazione di qualsiasi misura stabilita nei presenti orientamenti non comportano il rispetto del GDPR o di qualsiasi altra normativa applicabile in materia di protezione dei dati. Nel determinare la conformità all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065, le autorità competenti sono pertanto incoraggiate a cooperare con le autorità di protezione dei dati.
(15) La Commissione ha elaborato gli orientamenti conducendo ricerche documentali approfondite e raccogliendo i riscontri dei portatori di interessi attraverso un invito a presentare contributi e l'organizzazione di laboratori e di consultazioni pubbliche mirate. Si è inoltre avvalsa, in tutti i processi, delle competenze del centro europeo per la trasparenza algoritmica. La Commissione ha anche consultato i giovani, compresi i giovani ambasciatori di «Internet migliore per i ragazzi», e ha organizzato gruppi di riflessione con minori in sette Stati membri, con il sostegno dei centri per un'internet più sicura.
(16) Fra queste figurano le direttive e i regolamenti citati nella nota 13 e i prossimi orientamenti del comitato europeo per la protezione dei dati (EDPB) sul trattamento dei dati personali dei minori a norma del regolamento (UE) 2016/679 (GDPR).
(17) An Coimisiún um Chosaint Sonraí (2021), Fundamentals for a child-oriented approach to data processing, disponibile all'indirizzo: https://www.dataprotection.ie/sites/default/files/uploads/2021-12/Fundamentals%20for%20a%20Child-Oriented%20Approach%20to%20Data%20Processing_FINAL_EN.pdf; Coimisiún na Meán (2024), Online safety code, disponibile all'indirizzo: https://www.cnam.ie/app/uploads/2024/11/Coimisiun-na-Mean-Online-Safety-Code.pdf; IMY (Autorità svedese per la tutela della vita privata) (2021), The rights of children and young people on digital platforms, disponibile all'indirizzo: https://www.imy.se/en/publications/the-rights-of-children-and-young-people-on-digital-platforms/; ministero neerlandese degli Affari interni e delle relazioni del Regno (2022), Code for children's rights, disponibile all'indirizzo: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf.
CNIL (2021), CNIL publishes 8 recommendations to enhance protection of children online, disponibile all'indirizzo: https://www.cnil.fr/en/cnil-publishes-8-recommendations-enhance-protection-children-online; Unabhängiger Beauftragter für Fragen des sexuellen Kindesmissbrauchs (s.d.), Rechtsfragen Digitales, disponibile all'indirizzo: https://beauftragte-missbrauch.de/themen/recht/rechtsfragen-digitales; CEN-CENELEC (2023), Workshop Agreement 18016 Age appropriate digital services framework , disponibile al seguente indirizzo: https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf; OCSE (2021), Children in the digital environment - Revised typology of risks, disponibile all'indirizzo: https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.
(18) Tali diritti sono elaborati dal Comitato delle Nazioni Unite sui diritti dell'infanzia e dell'adolescenza per quanto riguarda l'ambiente digitale nell'osservazione generale n. 25; Ufficio dell'Alto commissario per i diritti umani (2021), Commento generale n. 25 (2021) sui diritti dei minorenni in relazione all'ambiente digitale, disponibile all'indirizzo: https://www.ohchr.org/en/documents/general-comments-and-recommendations/general-comment-no-25-2021-childrens-rights-relation.
(19) I bambini hanno diritto alla protezione e alle cure necessarie per il loro benessere (articolo 24 della Carta).
(20) Essi possono esprimere liberamente la propria opinione; questa viene prese in considerazione sulle questioni che li riguardano in funzione della loro età e della loro maturità (articolo 24 della Carta).
(21) A tale riguardo, la Commissione ricorda l'importanza dell'accessibilità, anche secondo quanto stabilito dalla direttiva (UE) 2016/2102 del Parlamento europeo e del Consiglio, del 26 ottobre 2016, relativa all'accessibilità dei siti web e delle applicazioni mobili degli enti pubblici («direttiva sull'accessibilità del web»), nonché della partecipazione dei minori in tutte le fasi di progettazione, attuazione e valutazione di tutte le misure di sicurezza, protezione e tutela della vita privata riguardanti i minori online.
(22) Ai sensi dell'articolo 25 GDPR, gli operatori che trattano dati personali dei minori devono già mettere in atto misure organizzative e tecniche adeguate per tutelare i diritti dell'interessato (protezione dei dati fin dalla progettazione e protezione dei dati per impostazione predefinita). Tale obbligo è applicato dalle autorità competenti per la protezione dei dati in linea con l'articolo 51 GDPR. Cfr. EDPB, Linee guida 4/2019 sull'articolo 25 – Protezione dei dati fin dalla progettazione e per impostazione predefinita, disponibile all'indirizzo: https://www.edpb.europa.eu/our-work-tools/our-documents/guidelines/guidelines-42019-article-25-data-protection-design-and_it.
(23) OCSE (2024), Towards Digital Safety by Design for Children, disponibile all'indirizzo: https://doi.org/10.1787/c167b650-en.
(24) A tal fine è necessario dare priorità alle caratteristiche, alle funzionalità, ai contenuti o ai modelli compatibili con le capacità in evoluzione dei minori, nonché tenere conto delle differenze socioculturali. Una progettazione adeguata all'età è fondamentale per la tutela della vita privata, la sicurezza e la protezione dei minori: ad esempio, senza informazioni adeguate all'età i minori potrebbero non essere in grado di comprendere e utilizzare le funzioni, le impostazioni o altri strumenti relativi alla tutela della vita privata e alla sicurezza, o di beneficiarne. CEN-CENELEC (2023), Workshop Agreement 18016 Age appropriate digital services framework , disponibile all'indirizzo https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf; «Ages and developmental stages» disponibile tra l'altro come allegato del Code for Children's Rights dei Paesi Bassi, disponibile all'indirizzo: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf.
(25) Articolo 3 della Convenzione sui diritti dell'infanzia e dell'adolescenza; articolo 24 della Carta: il diritto del minore a che il suo interesse superiore sia valutato e considerato preminente in sede di esame dei diversi interessi, al fine di giungere a una decisione sulla questione in oggetto riguardante un minore, un gruppo di minori identificati o non identificati o i minori in generale. La determinazione dell'interesse superiore, ove necessario, non dovrebbe essere effettuata dalle imprese, bensì sulla base dell'intervento delle autorità competenti. LSE Digital Futures for Children (2024), The best interests of the child in the digital environment, disponibile all'indirizzo: https://www.digital-futures-for-children.net/digitalfutures-assets/digitalfutures- documents/Best-Interests-of-the-Child-FINAL.pdf.
(26) Non discriminazione: i diritti dei minori si applicano a qualsiasi minore, senza alcuna discriminazione, ai sensi dell'articolo 21 della Carta. I diritti del minore, ai sensi dell'articolo 24 della Carta, comprendono il diritto alla protezione e alle cure necessarie per il suo benessere; i minori possono esprimere liberamente la propria opinione. Questa viene prese in considerazione sulle questioni che li riguardano in funzione della loro età e della loro maturità; in tutti gli atti relativi ai minori, siano essi compiuti da autorità pubbliche o da istituzioni private, l'interesse superiore del minore deve essere considerato preminente. I diritti dei minori comprendono anche, come per ogni persona, il diritto alla vita, sancito dall'articolo 2 della Carta, e il diritto al rispetto della loro integrità fisica e psichica ai sensi dell'articolo 3 della Carta. I diritti dei minori sono inoltre sanciti e ulteriormente specificati nella Convenzione delle Nazioni Unite sui diritti dell'infanzia e dell'adolescenza, ratificata da tutti gli Stati membri.
(27) La Commissione ricorda in particolare le linee guida dell'EDPB in materia di valutazione d'impatto sulla protezione dei dati per determinare se il trattamento possa presentare un rischio elevato ai fini del regolamento (UE) 2016/679.
(28) Esempi di modifiche significative sono l'introduzione di nuove caratteristiche che incidono sull'interazione con gli utenti, le modifiche riguardanti i sistemi di raccomandazione, le impostazioni degli account, la moderazione, le segnalazioni o altre caratteristiche di progettazione che modificherebbero sensibilmente l'esperienza dei minori sulla piattaforma, i cambiamenti nelle pratiche di raccolta dei dati, l'espansione a nuovi gruppi di utenti, l'integrazione di strumenti di IA generativa o le modifiche concernenti le misure di accertamento dell'età o i relativi fornitori.
(29) UNICEF (2024), Children's rights impact assessment: A tool to support the design of AI and digital technology that respects children's rights, disponibile all'indirizzo: https://www.unicef.org/childrightsandbusiness/workstreams/responsible-technology/D-CRIA; (2021) MO-CRIA: Child Rights Impact Self-Assessment Tool for Mobile Operators, disponibile all'indirizzo: https://www.unicef.org/reports/mo-cria-child-rights-impact-self-assessment-tool-mobile-operators.
(30) Ministero neerlandese degli Affari interni e delle relazioni del Regno (BZK) (2024), Child Rights Impact Assessment (Fillable Form), disponibile all'indirizzo: https://www.nldigitalgovernment.nl/document/childrens-rights-impact-assessment-fill-in-document/.
(31) Cfr. in particolare il capitolo 14 dell'accordo CEN-CENELEC (2023) Workshop Agreement 18016 Age appropriate digital services framework , disponibile all'indirizzo: https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf.
(32) Commissione europea: direzione generale delle Reti di comunicazione, dei contenuti e delle tecnologie, Center for Law and Digital Technologies (eLaw), LLM, Raiz Shaffique, M. e van der Hof, S. (2024), Mapping age assurance typologies and requirements – Research report, disponibile all'indirizzo: https://data.europa.eu/doi/10.2759/455338.
(33) Ibidem; CEN-CENELEC (2023), Workshop Agreement 18016 Age Appropriate Digital Services Framework , https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf.
(34) L'analisi dei rischi e gli strumenti di valutazione d'impatto sui diritti dei minori di cui alla sezione 5 sull'analisi dei rischi possono aiutare i fornitori di piattaforme online a effettuare tale valutazione.
(35) Cfr. EDPB, Dichiarazione 1/2025 sulla garanzia dell'età, disponibile all'indirizzo: https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_it.
(36) Tali rischi possono essere individuati mediante l'analisi dei rischi di cui alla sezione 5.
(37) In tale contesto la Commissione ricorda gli obblighi previsti per gli Stati membri dalla direttiva (UE) 2015/1535 del Parlamento europeo e del Consiglio, del 9 settembre 2015, che prevede una procedura d'informazione nel settore delle regolamentazioni tecniche e delle regole relative ai servizi della società dell'informazione (GU L 241 del 17.9.2015, pag. 1, ELI: http://data.europa.eu/eli/dir/2015/1535/oj) e le procedure pertinenti per i progetti di regole tecniche ivi previsti.
(38) La Commissione sta attualmente sperimentando una soluzione UE di verifica dell'età per facilitare tale verifica nel rispetto dello standard richiesto nei presenti orientamenti, prima che diventi disponibile il portafoglio europeo di identità digitale. Altre soluzioni compatibili con lo standard stabilito nei presenti orientamenti potrebbero essere disponibili in commercio, oppure in alcuni Stati membri ma non in altri. I fornitori di piattaforme online che dimostrano l'esistenza di tale circostanza dovrebbero comunque iniziare a sperimentare e utilizzare metodi di verifica dell'età che rispettino i criteri di cui alla sezione 6.1.4 non appena tali metodi diventino disponibili. Tale periodo transitorio può essere adeguato alla luce dell'introduzione della soluzione UE di verifica dell'età.
(39) . Una panoramica dei diversi metodi di stima dell'età è disponibile nel seguente documento della Commissione europea: direzione generale delle Reti di comunicazione, dei contenuti e delle tecnologie, Center for Law and Digital Technologies (eLaw), LLM, Raiz Shaffique, M. e van der Hof, S. (2024), Mapping age assurance typologies and requirements – Research report, disponibile all'indirizzo: https://data.europa.eu/doi/10.2759/455338.
(40) Il prestatore di servizi deve solo sapere se l'utente è al di sopra o al di sotto di una soglia di età. Ciò dovrebbe essere attuato mediante un approccio tokenizzato basato sulla partecipazione di un prestatore di servizi terzo, in cui il prestatore di servizi vede solo il risultato funzionale del processo di accertamento dell'età (ad esempio, «superiore» o «inferiore» alla soglia di età). Un prestatore terzo esegue una verifica dell'età e fornisce all'utente un «token di età» che questi può presentare al prestatore di servizi senza dover dimostrare nuovamente la propria età. Il token di età può contenere diversi attributi dell'utente e informazioni su quando, dove o come è stata effettuata la verifica dell'età. Cfr. anche EDPB, Dichiarazione 1/2025 sulla garanzia dell'età, disponibile all'indirizzo: https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_it.
(41) Una dimostrazione a conoscenza zero (zero-knowledge proof) è un protocollo in cui una parte (il dimostratore) può dimostrare a un'altra parte (il verificatore) che una determinata affermazione è vera, senza trasmettere al verificatore alcuna informazione oltre alla semplice veridicità dell'affermazione.
(42) Come previsto al capo II, sezione 1, del regolamento (UE) n. 910/2014, come modificato dal regolamento (UE) 2024/1183.
(43) Lo standard di riferimento dell'UE è disponibile all'indirizzo https://ageverification.dev.
(44) Tali metodi sono pienamente in linea con l'invito, di cui al punto 34 della dichiarazione 1/2025 dell'EDPB sull'accertamento dell'età, a tenere debitamente conto di soluzioni che impediscano l'associazione e la profilazione. Queste impostazioni, intese a tutelare la vita privata, incontrano il favore anche della ricerca accademica in quanto sono scalabili, inclusive ed efficaci nel ridurre al minimo i rischi per i minori, garantendo nel contempo il rispetto dei diritti fondamentali. Disponibile all'indirizzo: https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_it.
(45) Il fatto di ricorrere alla verifica dell'età in questi casi non pregiudica eventuali obblighi distinti a carico del fornitore, ad esempio l'obbligo per quest'ultimo di valutare se il minore, in quanto consumatore, abbia un'età sufficiente per concludere legalmente un contratto. Ciò dipende dalla legge applicabile dello Stato membro in cui risiede il minore.
(46) In alcuni casi il fornitore potrebbe avere la possibilità di verificare se il minore è stato iscritto dai suoi tutori.
(47) Tali rischi possono essere individuati mediante l'analisi dei rischi di cui alla sezione 5.
(48) Tutti gli esempi di buone e cattive pratiche contenuti nei presenti orientamenti fanno riferimento a piattaforme online fittizie.
(49) Il fornitore potrebbe voler integrare tale meccanismo nel suo sistema interno di gestione dei reclami a norma dell'articolo 20. Cfr. anche la sezione 7.1 del presente documento.
(50) Un accertamento non adeguato dell'età può comportare l'esclusione di destinatari che sarebbero di per sé ammissibili a utilizzare un servizio, oppure consentire a destinatari non ammissibili di accedere al servizio nonostante la misura di accertamento dell'età messa in atto.
(51) Un accertamento inadeguato dell'età può creare rischi indebiti per i diritti dei destinatari alla protezione dei dati e alla vita privata, mentre un accertamento generalizzato dell'età potrebbe limitare l'accesso ai servizi in misura superiore rispetto a quanto effettivamente necessario.
(52) Cfr. il considerando 71 del regolamento (UE) 2022/2065, che sottolinea la necessità che i fornitori rispettino il principio della minimizzazione dei dati di cui all'articolo 5, paragrafo 1, lettera c), del regolamento (UE) 2016/679.
(53) Cfr. EDPB, Dichiarazione 1/2025 sulla garanzia dell'età, punti 2.3 e 2.4. Disponibile all'indirizzo: https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_it.
(54) Commissione europea: direzione generale delle Reti di comunicazione, dei contenuti e delle tecnologie, Center for Law and Digital Technologies (eLaw), LLM, Raiz Shaffique, M. e van der Hof, S. (2024), Mapping age assurance typologies and requirements – Research report, disponibile all'indirizzo: https://data.europa.eu/doi/10.2759/455338.
(55) Restano impregiudicati gli obblighi supplementari derivanti da altre disposizioni, come l'articolo 12 del regolamento (UE) 2016/679.
(56) Come indicato nella sezione 6.1, la Commissione non considera l'autodichiarazione un metodo di accertamento dell'età adeguato per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori conformemente all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065.
(57) Willis, L. E. (2014), «Why not privacy by default?», Berkeley Technology Law Journal, 29(1), 61, disponibile all'indirizzo: https://www.btlj.org/data/articles2015/vol29/29_1/29-berkeley-tech-l-j-0061-0134.pdf; Cho, H., Roh, S., & Park, B. (2019), «Of promoting networking and protecting privacy: Effects of defaults and regulatory focus on social media users' preference settings», Computers in Human Behavior, 101, 1-13, disponibile all'indirizzo: https://doi.org/10.1016/j.chb.2019.07.001. Tra gli esempi di impostazioni che possono mettere a rischio la vita privata, la sicurezza o la protezione dei minori figurano, tra l'altro, l'attivazione della condivisione della posizione, il passaggio a un profilo pubblico, il fatto di consentire ad altri utenti di visualizzare i propri elenchi di contatti o follower, di consentire la condivisione di file multimediali e di ospitare una diretta streaming o parteciparvi.
(58) I minori attraversano diverse fasi di sviluppo e il loro livello di maturità e comprensione varia in funzione dell'età. Ciò è riconosciuto, tra l'altro, nel commento generale n. 25 sui diritti dei minorenni in relazione all'ambiente digitale del Comitato delle Nazioni Unite sui diritti dell'infanzia e dell'adolescenza, 2021, punti 19-21. Una tabella pratica sull'età e sulle fasi di sviluppo è disponibile, tra l'altro, come allegato del Code for Children's Rights dei Paesi Bassi, disponibile all'indirizzo: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf.
(59) La Commissione ricorda che la direttiva 2005/29/CE vieta le pratiche commerciali sleali, tra cui quelle di cui all'allegato I, punto 7, consistenti nel "[d]ichiarare falsamente che il prodotto sarà disponibile solo per un periodo molto limitato o che sarà disponibile solo a condizioni particolari per un periodo di tempo molto limitato, in modo da ottenere una decisione immediata e privare i consumatori della possibilità o del tempo sufficiente per prendere una decisione consapevole.
(60) La Commissione ricorda l'obbligo per i fornitori di sistemi di IA destinati a interagire direttamente con le persone fisiche di garantire che siano progettati e sviluppati in modo tale che le persone fisiche interessate siano informate del fatto che interagiscono con un sistema di IA a norma dell'articolo 50, paragrafo 1, del regolamento (UE) 2024/1689 («regolamento sull'IA»). Qualsiasi misura adottata sulla base di questa raccomandazione dovrebbe essere intesa in conformità con le misure adottate per conformarsi all'articolo 50, paragrafo 1, del regolamento sull'IA, compreso il regime di vigilanza e di applicazione, e lasciare impregiudicate tali misure.
(61) La Commissione ricorda gli orientamenti relativi alle pratiche di intelligenza artificiale vietate ai sensi del regolamento (UE) 2024/1689 (regolamento sull'IA).
(62) Ai fini della presente sezione, la Commissione ricorda che, a norma dell'articolo 3, lettera s), del regolamento (UE) 2022/2065, i sistemi di raccomandazione comprendono i sistemi utilizzati per le raccomandazioni sui contenuti e sui prodotti, le raccomandazioni pubblicitarie, le raccomandazioni di contatto, il completamento automatico del testo nei campi di ricerca e i risultati della ricerca.
(63) Munn, L. (2020), «Angry by design: Toxic communication and technical architectures», Humanities and Social Sciences Communications, 7(53), disponibile all'indirizzo: https://doi.org/10.1057/s41599-020-00550-7; Milli, S. et al. (2025), «Engagement, user satisfaction, and the amplification of divisive content on social media», PNAS Nexus, 4(3) pgaf062, disponibile all'indirizzo: https://doi.org/10.1093/pnasnexus/pgaf062; Piccardi, T. et al. (2024), Social Media Algorithms Can Shape Affective Polarization via Exposure to Antidemocratic Attitudes and Partisan Animosity, disponibile all'indirizzo: 10.48550/arXiv.2411.14652; Harriger, J. A., Evans, J. L., Thompson, J. K., & Tylka, T. L. (2022), «The dangers of the rabbit hole: Reflections on social media as a portal into a distorted world of edited bodies and eating disorder risk and the role of algorithms», Body Image, 41, 292-297, disponibile all'indirizzo: https://doi.org/10.1016/j.bodyim.2022.03.007; Amnesty International (2023), Driven into darkness: How TikTok's 'For You' feed encourages self-harm and suicidal ideation, disponibile all'indirizzo: https://www.amnesty.org/en/documents/pol40/7350/2023/en/; Hilbert, M., Ahmed, S., Cho, J., & Chen, Y. (2024), #BigTech @Minors: Social media algorithms quickly personalize minors' content, lacking equally quick protection, disponibile all'indirizzo: http://dx.doi.org/10.2139/ssrn.4674573; Sala, A., Porcaro, L., Gómez, E. (2024), «Social Media Use and adolescents' mental health and well-being: An umbrella review», Computers in Human Behavior Reports, Volume 14, 100404, ISSN 2451-9588, disponibile all'indirizzo: https://doi.org/10.1016/j.chbr.2024.100404.
(64) La Commissione ricorda inoltre che altre normative dell'Unione o nazionali possono incidere sulla progettazione e sul funzionamento dei sistemi di raccomandazione, al fine di garantire la tutela degli interessi giuridici nell'ambito delle loro competenze, contribuendo a un elevato livello di tutela della vita privata, di sicurezza e di protezione dei diritti fondamentali online.
(65) Ad esempio, il riscontro dei minori su contenuti, attività, individui, account o gruppi che li mettono a disagio o che desiderano vedere in misura maggiore o minore dovrebbe essere preso in considerazione nella classificazione dei sistemi di raccomandazione. Potrebbe trattarsi di riscontri del tipo «Mostra di meno/di più», «Non voglio vedere/Non mi interessa», «Non voglio vedere contenuti da questo account», «Mi mette a disagio», «Non mostrare», «Non mi piace» o «Non fa per me». Cfr. anche la sezione 7.1 dei presenti orientamenti su segnalazioni, feedback e reclami degli utenti.
(66) Alcuni esempi di termini sono reperibili nel pacchetto di conoscenze sulla lotta alla vendita di droghe online, che è stato elaborato nell'ambito del Forum dell'UE su Internet e raccoglie oltre 3 500 termini, emoji ed espressioni gergali utilizzati dai trafficanti di droga per vendere droghe online. Cfr. il riferimento nella tabella di marcia dell'UE per contrastare il traffico di droga e la criminalità organizzata, COM(2023)641 final.
(67) Cfr. l'articolo 27, paragrafi 1 e 3, del regolamento (UE) 2022/2065.
(68) Commento generale n. 25 del Comitato delle Nazioni Unite sui diritti dell'infanzia e dell'adolescenza, punto 112; UNICEF (2019). Discussion paper: Digital marketing and children's rights, disponibile all'indirizzo: https://www.unicef.org/childrightsandbusiness/media/256/file/Discussion-Paper-Digital-Marketing.pdf.
(69) Ciò rende loro difficile, ad esempio, distinguere tra contenuti commerciali e non commerciali, resistere alla pressione dei pari ad acquistare contenuti in-game o in-app che sono attraenti per i minori o addirittura necessari per progredire nel gioco, comprendere il valore in valuta reale delle valute in-app o comprendere che i contenuti più desiderati, come aggiornamenti, mappe e avatar, possono comparire con minor frequenza negli acquisti randomizzati in-app o in-game rispetto ai contenuti meno desiderati.
(70) M. Ganapini, E. Panai (2023), An Audit Framework for Adopting AI-Nudging on Children, disponibile all'indirizzo: https://arxiv.org/pdf/2304.14338.
(71) La Commissione ricorda che, ai sensi dell'articolo 2, paragrafo 4, del regolamento (UE) 2022/2065, tale regolamento non pregiudica la direttiva 2010/13/UE, il diritto dell'Unione in materia di diritto d'autore e diritti connessi, il regolamento (UE) 2021/784, il regolamento (UE) 2019/1148, il regolamento (UE) 2019/1150, il diritto dell'Unione in materia di protezione dei consumatori e sicurezza dei prodotti (compresa la direttiva 2005/29/CE) e il diritto dell'Unione in materia di protezione dei dati personali, il diritto dell'Unione nel settore della cooperazione giudiziaria in materia civile, il diritto dell'Unione nel settore della cooperazione giudiziaria in materia penale e una direttiva recante norme armonizzate sulla nomina di rappresentanti legali ai fini dell'acquisizione di prove nei procedimenti penali. Inoltre, tale regolamento non pregiudica l'applicazione della direttiva 2000/31/CE. A norma dell'articolo 91 del regolamento (UE) 2022/2065, la Commissione è incaricata di valutare e riferire, entro il 17 novembre 2025, sull'interazione di tale regolamento con altri atti giuridici, in particolare gli atti di cui sopra.
(72) L'UNICEF fornisce risorse e orientamenti per le piattaforme in relazione all'ecosistema del marketing digitale, tra cui UNICEF (2025), Discussion Paper on digital marketing and children’s rights, disponibile all'indirizzo https://www.unicef.org/childrightsandbusiness/workstreams/responsible-technology/digital-marketing.
(73) La Commissione ricorda che, ad esempio, i professionisti sono soggetti al divieto di pratiche commerciali sleali previsto dall'articolo 5, paragrafo 1, della direttiva 2005/29/CE, e che l'allegato I, punto 28, della direttiva vieta di includere in un messaggio pubblicitario un'esortazione diretta ai bambini affinché acquistino o convincano i genitori o altri adulti ad acquistare loro i prodotti reclamizzati. Tale comportamento commerciale è considerato in ogni caso sleale.
(74) Il Commento generale n. 25 (2021) sui diritti dei minorenni in relazione all'ambiente digitale del Comitato sui diritti dell'infanzia e dell'adolescenza stabilisce che l'interesse superiore del minore dovrebbe essere una «considerazione preminente nella regolamentazione della pubblicità e del marketing indirizzati e accessibili ai minorenni. La sponsorizzazione, l'inserimento di prodotti e tutte le altre forme di contenuto a scopo commerciale dovrebbero essere distinte in modo chiaro da tutti gli altri contenuti e non dovrebbero perpetuare stereotipi di genere o razziali.»
(75) La Commissione ricorda che tali sistemi di IA potrebbero costituire pratiche vietate a norma dell'articolo 5, paragrafo 1, lettera b), del regolamento (UE) 2024/1689 se sfruttano le vulnerabilità dei minori in un modo che provochi o possa ragionevolmente provocare un danno significativo. Le misure adottate conformemente a questa raccomandazione dovrebbero andare oltre quelle adottate per impedire l'applicazione di tale divieto. La vigilanza e l'applicazione delle misure adottate per conformarsi all'articolo 50, paragrafo 1, del regolamento (UE) 2024/1689 restano di responsabilità delle autorità competenti a norma di tale regolamento.
(76) La Commissione ricorda che, a norma degli articoli 6 e 7 della direttiva 2005/29/CE, la divulgazione dell'elemento commerciale deve essere chiara e adeguata, tenendo conto del mezzo in cui avviene la commercializzazione, compresi il contesto, il posizionamento, i tempi, la durata, la lingua o i destinatari. Cfr. anche gli Orientamenti sull'interpretazione e sull'applicazione della direttiva 2005/29/CE.
(77) La Commissione ricorda che l'articolo 7, paragrafo 2, e l'allegato I, punto 22, della direttiva 2005/29/CE vietano di dichiarare falsamente o di dare la falsa impressione che il professionista non agisca nel quadro della sua attività commerciale, industriale, artigianale o professionale, o di presentarsi falsamente come consumatore. Ricorda inoltre la direttiva 2010/13/UE, che vieta di esortare direttamente i minori ad acquistare o prendere in locazione un prodotto o un servizio, incoraggiarli a persuadere i loro genitori o altri ad acquistare i beni o i servizi pubblicizzati, o sfruttare la particolare fiducia che i minori ripongono nei genitori, negli insegnanti o in altre persone. Ai sensi del considerando 10 del regolamento (UE) 2022/2065, il regolamento non dovrebbe pregiudicare il diritto dell'Unione sulla tutela dei consumatori, compresa la direttiva 2005/29/CE relativa alle pratiche commerciali sleali delle imprese nei confronti dei consumatori nel mercato interno.
(78) La Commissione ricorda inoltre che la direttiva 2010/13/UE prevede che le piattaforme per la condivisione di video debbano disporre di una funzionalità per dichiarare che i contenuti caricati contengono comunicazioni commerciali audiovisive.
(79) La Commissione ricorda che il concetto di valuta virtuale è definito nella direttiva (UE) 2018/843 sull'antiriciclaggio.
(80) L'esempio utilizzato nella presente raccomandazione è irrilevante in relazione a qualsiasi definizione o classificazione giuridica delle valute in-game nel diritto vigente dell'Unione e/o a qualsiasi sua interpretazione relativa alle implicazioni dell'uso di tali strumenti.
(81) La Commissione ricorda che l'allegato I, punto 20, della direttiva 2005/29/CE vieta di descrivere un prodotto come gratuito, senza oneri o simili se il consumatore deve pagare un sovrappiù rispetto all'inevitabile costo di rispondere alla pratica commerciale e ritirare o farsi recapitare l'articolo.
(82) Come previsto dall'articolo 25 del regolamento (UE) 2022/2065. La Commissione ricorda che, a norma dell'articolo 25, paragrafo 2, il divieto di cui all'articolo 25, paragrafo 1, non si applica alle pratiche contemplate dalla direttiva 2005/29/CE o dal regolamento (UE) 2016/679.
(83) La Commissione ricorda che l'allegato I, punto 7, della direttiva 2005/29/CE vieta di dichiarare falsamente che il prodotto sarà disponibile solo per un periodo molto limitato o che sarà disponibile solo a condizioni particolari per un periodo di tempo molto limitato, in modo da ottenere una decisione immediata e privare i consumatori della possibilità o del tempo sufficiente per prendere una decisione consapevole. I professionisti sono pertanto soggetti al divieto di utilizzare tecniche basate sulla scarsità.
(84) La Commissione ricorda che, nel caso dei giochi, a norma degli articoli 8 e 9 della direttiva 2005/29/CE i professionisti non dovrebbero sfruttare i pregiudizi comportamentali né introdurre elementi manipolativi relativi, ad esempio, alla tempistica delle offerte all'interno del gioco (offrendo microtransazioni nei momenti critici del gioco) o all'uso di effetti visivi e acustici per esercitare un'indebita pressione sul giocatore.
(85) I segnalatori attendibili sono soggetti con particolare esperienza e competenza nell'individuazione di determinati tipi di contenuti illegali, e le segnalazioni che presentano nel loro ambito di competenza designato devono essere considerate prioritarie e trattate dai fornitori di piattaforme online senza indebito ritardo. La qualifica di segnalatore attendibile è riconosciuta dal coordinatore dei servizi digitali dello Stato membro in cui il soggetto è stabilito, a condizione che quest'ultimo abbia dimostrato la propria esperienza, competenza, indipendenza dalle piattaforme online e abbia dato prova di diligenza, accuratezza e obiettività nella presentazione delle segnalazioni.
(86) La Commissione ricorda che tali sistemi di IA potrebbero costituire pratiche vietate a norma dell'articolo 5, paragrafo 1, lettera b), del regolamento (UE) 2024/1689 se sfruttano le vulnerabilità dei minori in un modo che provochi o possa ragionevolmente provocare un danno significativo. Le misure adottate conformemente a questa raccomandazione dovrebbero andare oltre quelle adottate per impedire l'applicazione di tale divieto. La vigilanza e l'applicazione delle misure adottate per conformarsi all'articolo 50, paragrafo 1, del regolamento (UE) 2024/1689 restano di responsabilità delle autorità competenti a norma di tale regolamento.
(87) Cfr. l'articolo 8 del regolamento (UE) 2022/2065.
(88) Cfr. la sezione 6.5.2 dei presenti orientamenti per informazioni sul modo in cui tali informazioni dovrebbero incidere sui sistemi di raccomandazione del fornitore.
(89) Nel resto della presente sezione qualsiasi riferimento a «reclamo» o «reclami» comprende i reclami presentati contro la valutazione dell'età dell'utente effettuata dal fornitore e i reclami presentati contro le decisioni di cui all'articolo 20 del regolamento (UE) 2022/2065. L'articolo 20 del regolamento (UE) 2022/2065 impone ai fornitori di piattaforme online di accordare ai destinatari del servizio l'accesso a un sistema interno di gestione dei reclami efficace contro quattro tipi di decisioni adottate dal fornitore della piattaforma online. Queste sono a) le decisioni che indicano se rimuovere le informazioni o disabilitare l'accesso alle stesse o se limitarne la visibilità; b) le decisioni che indicano se sospendere o cessare in tutto o in parte la prestazione del servizio ai destinatari; c) le decisioni che indicano se sospendere o cessare l'account dei destinatari; e d) le decisioni che indicano se sospendere, cessare o limitare in altro modo la capacità di monetizzare le informazioni fornite dai destinatari.
(90) Ad esempio quelle che fanno parte dei centri nazionali per un'internet più sicura e delle reti INHOPE o altre linee nazionali di assistenza per i minori come https://childhelplineinternational.org/.
(91) Gli orientamenti dell'UNICEF sul coinvolgimento dei portatori di interessi nei confronti dei minori propone azioni concrete per attività di partecipazione responsabile dei minori. UNICEF (2025), Spotlight guidance on best practices for stakeholder engagement with children in D-CRIAs, disponibile all'indirizzo: https://www.unicef.org/childrightsandbusiness/media/1541/file/D-CRIA-Spotlight-Guidance-Stakeholder-Engagement.pdf.
(92) Questo approccio è in linea con la strategia per un'internet migliore per i ragazzi (BIK+), che sottolinea l'importanza della sensibilizzazione e dell'istruzione nel promuovere la sicurezza online e sostiene l'attuazione del regolamento (UE) 2022/2065 a tale riguardo. Inoltre, i centri per un'internet più sicura, istituiti in tutti gli Stati membri, dimostrano il valore degli sforzi di sensibilizzazione nel prevenire e nel rispondere ai danni e ai rischi online.
(93) Tali corsi di formazione potrebbero riguardare, ad esempio, i diritti dei minori, i rischi e i danni alla vita privata, alla sicurezza e alla protezione online dei minori, nonché pratiche efficaci di prevenzione, risposta e attenuazione.
(94) An Coimisiún um Chosaint Sonraí (2021), Fundamentals for a child-oriented approach to data processing, disponibile all'indirizzo: https://www.dataprotection.ie/sites/default/files/uploads/2021-12/Fundamentals%20for%20a%20Child-Oriented%20Approach%20to%20Data%20Processing_FINAL_EN.pdf; Coimisiún na Meán (2024), Online safety code, disponibile all'indirizzo: https://www.cnam.ie/app/uploads/2024/11/Coimisiun-na-Mean-Online-Safety-Code.pdf; IMY (Autorità svedese per la tutela della vita privata) (2021), The rights of children and young people on digital platforms, disponibile all'indirizzo: https://www.imy.se/en/publications/the-rights-of-children-and-young-people-on-digital-platforms/; ministero neerlandese degli Affari interni e delle relazioni del Regno (2022), Code for children's rights, disponibile all'indirizzo: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf; CNIL (2021), CNIL publishes 8 recommendations to enhance protection of children online, disponibile all'indirizzo: https://www.cnil.fr/en/cnil-publishes-8-recommendations-enhance-protection-children-online; Unabhängiger Beauftragter für Fragen des sexuellen Kindesmissbrauchs (s.d.), Rechtsfragen Digitales, disponibile all'indirizzo: https://beauftragte-missbrauch.de/themen/recht/rechtsfragen-digitales.
(95) CEN-CENELEC (2023), Workshop Agreement 18016 Age appropriate digital services framework ; OCSE (2021), Children in the digital environment - Revised typology of risks, https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.
(96) La norma P2089.2TM «Standard for Terms and Conditions for Children's Online Engagement» delinea processi e pratiche per l'elaborazione di condizioni generali che contribuiscano a tutelare i diritti dei minori in ambito digitale.
(97) La Commissione ricorda inoltre che l'articolo 28 ter della direttiva 2010/13/UE impone ai fornitori di piattaforme per la condivisione di video di proteggere i minori da programmi, video generati dagli utenti e comunicazioni commerciali audiovisive che possano nuocere al loro sviluppo fisico, mentale o morale. Tali prescrizioni devono essere valutate e, se del caso, riesaminate entro il 19 dicembre 2026.
(98) Come indicato nell'introduzione dei presenti orientamenti, alcune disposizioni del regolamento (UE) 2022/2065, tra cui l'articolo 14, paragrafi 5 e 6, impongono obblighi supplementari ai fornitori di piattaforme online di dimensioni molto grandi. Nella misura in cui gli obblighi ivi previsti riguardano anche la tutela della vita privata, la sicurezza e la protezione dei minori ai sensi dell'articolo 28, paragrafo 1, i presenti orientamenti si basano su tali disposizioni.
(99) Ad esempio nella banca dati delle condizioni generali dei servizi digitali: https://platform-contracts.digital-strategy.ec.europa.eu/.
(100) Come indicato nella sezione relativa all'ambito di applicazione dei presenti orientamenti (sezione 2), alcune disposizioni del regolamento (UE) 2022/2065, tra cui il capo III, sezione 5, impongono obblighi supplementari ai fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi. Nella misura in cui gli obblighi ivi previsti riguardano anche la tutela della vita privata, la sicurezza e la protezione dei minori ai sensi dell'articolo 28, paragrafo 1, i presenti orientamenti si basano su tali disposizioni e le piattaforme online di dimensioni molto grandi non dovrebbero attendersi che l'adozione di tutte o di parte delle misure descritte nei presenti orientamenti sia sufficiente a garantire il rispetto dei loro obblighi a norma del capo III, sezione 5, del regolamento (UE) 2022/2065.
ALLEGATO
Tipologia «5C» dei rischi online per i minori
1.
L'OCSE (1) e i ricercatori (2) hanno classificato i rischi (3) cui i minori possono essere esposti online per consentire ai fornitori di piattaforme online accessibili ai minori, al mondo accademico e ai responsabili delle politiche di comprenderli e analizzarli meglio. Questa classificazione dei rischi è nota come tipologia «5C» dei rischi online per i minori. Contribuisce a individuare i rischi e comprende cinque categorie di rischi: i rischi legati ai contenuti (content), i rischi legati ai comportamenti (conduct), i rischi legati ai contatti (contact), i rischi per i consumatori (consumer) e i rischi trasversali (cross-cutting). Tali rischi possono manifestarsi quando non sono state messe in atto misure adeguate e proporzionate per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul servizio, il che può portare alla violazione di una serie di diritti dei minori.
2.
Tipologia «5C» dei rischi online per i minori (4)|
Rischi per i minori nell'ambiente digitale |
||||
|
Categorie di rischio |
Rischi legati ai contenuti |
Rischi legati ai comportamenti |
Rischi legati ai contatti |
Rischi per i consumatori |
|
Rischi trasversali |
Rischi aggiuntivi per la vita privata, la sicurezza e la protezione Rischi tecnologici avanzati Rischi per la salute e il benessere Rischi legati all'uso improprio |
|||
|
Manifestazione del rischio |
Contenuti d'odio |
Comportamenti d'odio |
Incontri d'odio |
Rischi legati al marketing |
|
Contenuti dannosi |
Comportamenti dannosi |
Incontri dannosi |
Rischi legati alla profilazione commerciale |
|
|
Contenuti illegali |
Comportamenti illegali |
Incontri illegali |
Rischi finanziari |
|
|
Disinformazione |
Comportamenti problematici generati dagli utenti |
Altri incontri problematici |
Rischi per la sicurezza |
|
3.
Rischi legati ai contenuti: i minori possono essere esposti inaspettatamente e involontariamente a contenuti che potrebbero danneggiarli: a) contenuti d'odio; b) contenuti dannosi; c) contenuti illegali; d) disinformazione. Generalmente si ritiene che questi tipi di contenuti abbiano gravi conseguenze negative per la salute mentale e il benessere fisico dei minori: si tratta ad esempio di contenuti che promuovono l'autolesionismo, il suicidio, i disturbi alimentari o la violenza estrema.
4.
Rischi legati ai comportamenti: si riferiscono a comportamenti che i minori possono adottare attivamente online e che possono comportare rischi sia per se stessi che per altri, ad esempio a) comportamenti d'odio (ad esempio, minori che pubblicano/inviano contenuti/messaggi d'odio); b) comportamenti dannosi (ad esempio, minori che pubblicano/inviano contenuti violenti o pornografici); c) comportamenti illeciti (ad esempio, minori che pubblicano/inviano materiale pedopornografico o contenuti terroristici); e d) comportamenti problematici generati dagli utenti (ad esempio partecipazione a sfide pericolose; sexting).
5.
Rischi legati ai contatti: si riferiscono a situazioni in cui i minori, invece di agire, sono vittime dell'interazione: a) incontri d'odio; b) incontri dannosi (ad esempio, un incontro che ha luogo con l'intenzione di arrecare danno al minore); c) incontri illegali (ad esempio perseguibili penalmente); e d) altri incontri problematici. Tra gli esempi di rischi legati ai contatti figurano, tra l'altro, l'adescamento online, la coercizione e l'estorsione sessuale online, gli abusi sessuali attraverso la webcam, il bullismo online e la tratta di esseri umani a fini di sfruttamento sessuale. Tali rischi si estendono anche alle pratiche fraudolente online quali il phishing, le frodi sul mercato online e il furto d'identità.
6.
Rischi per i consumatori: i minori possono essere esposti anche a rischi in quanto consumatori nell'economia digitale: a) rischi legati al marketing (ad esempio scatole premio, videogiochi promozionali); b) rischi legati alla profilazione commerciale (ad esempio inserimento di prodotti o ricezione di annunci pubblicitari destinati agli adulti, come servizi di incontri); c) rischi finanziari (ad esempio frode o spesa di ingenti somme di denaro all'insaputa o senza il consenso dei tutori); d) rischi per la sicurezza ed e) rischi connessi all'acquisto e al consumo di droghe, medicinali, alcolici e altri prodotti illegali o pericolosi. I rischi per i consumatori comprendono anche i rischi legati ai contratti, ad esempio la vendita dei dati degli utenti o condizioni generali inique.
7.
Rischi trasversali: interessano tutte le categorie di rischio e sono considerati altamente problematici in quanto possono incidere in misura significativa e in vari modi sulla vita dei minori. Si tratta di:|
a) |
rischi tecnologici avanzati: comportano per i minori l'esposizione a nuovi pericoli legati all'evoluzione della tecnologia, come i chatbot di IA che potrebbero fornire informazioni dannose o essere utilizzati per l'adescamento sfruttando le vulnerabilità, o l'uso di tecnologie biometriche che possono portare ad abusi, frodi di identità ed esclusione; |
|
b) |
rischi per la salute e il benessere: comprendono i potenziali danni al benessere mentale, emotivo o fisico dei minori. Ad esempio, l'aumento dell'obesità/anoressia e dei problemi di salute mentale legati all'uso o all'uso eccessivo delle piattaforme online, che in alcuni casi possono avere ripercussioni negative sulla salute fisica e mentale e sul benessere dei minori, quali dipendenza, depressione, disturbi di ansia, alterazione dei modelli del sonno e isolamento sociale; |
|
c) |
ulteriori rischi per la vita privata e la protezione dei dati: derivano dall'accesso alle informazioni sui minori e dal pericolo che i predatori sfruttino le funzioni di geolocalizzazione per localizzare e avvicinare i minori. |
8.
Altri rischi trasversali (5) possono includere:|
a) |
ulteriori rischi per la sicurezza e la protezione: riguardano la sicurezza dei minori, in particolare l'incolumità fisica, nonché tutte le questioni relative alla cibersicurezza; |
|
b) |
rischi legati all'uso improprio: riguardano i rischi o i danni ai minori derivanti dall'uso improprio della piattaforma online o delle sue funzioni. |
(1) OCSE (2021), Children in the digital environment - Revised typology of risks, https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.
(2) Livingstone, S., & Stoilova, M. (2021), «The 4Cs: Classifying Online Risk to Children». CO:RE Short Report Series on Key Topics. Amburgo, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI); CO:RE - Children Online: Research and Evidence, https://doi.org/10.21241/ssoar.71817.
(3) Cfr. anche un'analisi dei rischi realizzata dalla Bundeszentrale für Kinder- und Jugendmedienschutz (BZKJ); (2022), Gefährdungsatlas. Digitales Aufwachsen. Vom Kind aus denken. Zukunftssicher handeln. Aktualisierte und erweiterte 2. Auflage, - Bundeszentrale für Kinder- und Jugendmedienschutz, disponibile all'indirizzo: https://www.bzkj.de/resource/blob/197826/5e88ec66e545bcb196b7bf81fc6dd9e3/2-auflage-gefaehrdungsatlas-data.pdf.
(4) OCSE (2021), Children in the digital environment - Revised typology of risks, pag. 7, https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.
(5) Livingstone, S., & Stoilova, M. (2021), «The 4Cs: Classifying Online Risk to Children». CO:RE Short Report Series on Key Topics. Amburgo, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI); CO:RE - Children Online: Research and Evidence, https://doi.org/10.21241/ssoar.71817.
ELI: http://data.europa.eu/eli/C/2025/5519/oj
ISSN 1977-0944 (electronic edition)