Valige katsefunktsioonid, mida soovite proovida

See dokument on väljavõte EUR-Lexi veebisaidilt.

Dokument C(2025)6826

COMUNICAZIONE DELLA COMMISSIONE Orientamenti su misure per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori online, a norma dell'articolo 28, paragrafo 4, del regolamento (UE) 2022/2065

C/2025/6826 final

COMUNICAZIONE DELLA COMMISSIONE

Orientamenti su misure per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori online, a norma dell'articolo 28, paragrafo 4, del regolamento (UE) 2022/2065

1Introduzione

1.I minori ( 1 ) accedono in misura sempre crescente alle piattaforme online, che possono offrire loro diversi vantaggi. Possono ad esempio fornire loro accesso a una vasta gamma di risorse didattiche, aiutandoli ad acquisire nuove competenze e ad ampliare le loro conoscenze. Le piattaforme online possono anche offrire ai minori la possibilità di esprimere le loro opinioni e di collegarsi ad altri che condividono interessi simili, aiutandoli a sviluppare competenze sociali, fiducia e un senso di comunità. Giocando ed esplorando l'ambiente online, i minori possono anche sviluppare la loro curiosità naturale, impegnandosi in attività che incoraggiano la creatività, la risoluzione dei problemi, il pensiero critico, la capacità di agire e l'intrattenimento.

2.Vi è tuttavia un ampio consenso tra i responsabili delle politiche, le autorità di regolamentazione, la società civile, i ricercatori, gli educatori e i tutori ( 2 ) sul fatto che l'attuale livello di tutela della vita privata, di sicurezza e di protezione online dei minori è spesso inadeguato. La progettazione e le caratteristiche dell'ampia varietà di piattaforme online e dei servizi offerti dai fornitori di piattaforme online accessibili ai minori possono creare rischi per la vita privata, la sicurezza e la protezione dei minori e aggravare i rischi esistenti. Tali rischi comprendono, ad esempio, l'esposizione a contenuti illegali ( 3 ) e dannosi che compromettono la vita privata, la sicurezza e la protezione dei minori o che possono nuocere al loro sviluppo fisico o mentale. Comprendono inoltre il bullismo online o i contatti da parte di persone che cercano di danneggiare i minori, ad esempio i trafficanti di esseri umani e coloro che cercano di compiere abusi sessuali o estorsioni a danno dei minori, di reclutarli in bande criminali o di promuovere la violenza, la radicalizzazione, l'estremismo violento e il terrorismo. I minori possono anche essere esposti a rischi in quanto consumatori, nonché a rischi connessi all'uso intensivo o eccessivo delle piattaforme online e all'esposizione a pratiche inadeguate o di sfruttamento, anche in relazione al gioco d'azzardo e ai videogiochi. La crescente integrazione di chatbot e compagni di intelligenza artificiale ("IA") nelle piattaforme online e i deep fake basati sull'IA possono a loro volta incidere sul modo in cui i minori interagiscono con le piattaforme online, aggravare i rischi esistenti e crearne di nuovi che possono avere ripercussioni negative sulla vita privata, sulla sicurezza e sulla protezione dei minori ( 4 ). Tali rischi possono derivare dall'esperienza diretta del minore con la piattaforma e/o dalle azioni di altri utenti sulla piattaforma.

3.L'obiettivo dei presenti orientamenti è sostenere i fornitori di piattaforme online nel far fronte a tali rischi mediante un insieme di misure che, a parere della Commissione, li aiuteranno a garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sulle loro piattaforme, contribuendo in tal modo alla protezione dei minori quale importante obiettivo strategico dell'Unione. I presenti orientamenti mirano inoltre ad aiutare i coordinatori dei servizi digitali e le autorità nazionali competenti nell'applicazione e nell'interpretazione dell'articolo 28 del regolamento (UE) 2022/2065. Ad esempio, rendere gli account dei minori più privati aiuterà, tra l'altro, i fornitori di piattaforme online a ridurre il rischio di contatti indesiderati o non richiesti. L'attuazione di misure di accertamento dell'età ( 5 ) può, tra l'altro, aiutare i fornitori a ridurre il rischio che i minori siano esposti a servizi, contenuti, comportamenti, contatti o pratiche commerciali che ne compromettano la vita privata, la sicurezza e la protezione. L'adozione di queste e altre misure, su questioni che vanno dai sistemi di raccomandazione e dalla governance alle segnalazioni degli utenti e al sostegno a questi ultimi, può aiutare i fornitori di piattaforme online a rendere tali piattaforme più sicure, più protette e più rispettose della vita privata per i minori.

2Ambito di applicazione degli orientamenti

4.Alla luce dei suddetti rischi il legislatore dell'Unione ha adottato l'articolo 28 del regolamento (UE) 2022/2065 del Parlamento europeo e del Consiglio ( 6 ). Il paragrafo 1 di tale disposizione obbliga i fornitori di piattaforme online accessibili ai minori a adottare misure adeguate e proporzionate per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio. L'articolo 28, paragrafo 2, del regolamento (UE) 2022/2065 vieta ai fornitori di piattaforme online di presentare sulla loro interfaccia pubblicità basata sulla profilazione come definita all'articolo 4, punto 4), del regolamento (UE) 2016/679 ( 7 ) che usa i dati personali del destinatario del servizio se tali fornitori sono consapevoli, con ragionevole certezza, che il destinatario del servizio è minore. L'articolo 28, paragrafo 3, del regolamento (UE) 2022/2065 specifica che il rispetto degli obblighi di cui a tale articolo non obbliga i fornitori di piattaforme online accessibili ai minori a trattare dati personali ulteriori per valutare se il destinatario del servizio sia minore. L'articolo 28, paragrafo 4, del regolamento (UE) 2022/2065 prevede che la Commissione, previa consultazione del comitato europeo per i servizi digitali ("comitato"), possa emanare orientamenti per assistere i fornitori di piattaforme online nell'applicazione del paragrafo 1.

5.I presenti orientamenti descrivono le misure che, secondo il parere della Commissione, i fornitori di piattaforme online accessibili ai minori dovrebbero adottare per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori online, conformemente all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065. L'obbligo previsto da tale disposizione incombe ai fornitori di piattaforme online i cui servizi sono accessibili ai minori ( 8 ). Il considerando 71 di tale regolamento chiarisce ulteriormente che "[u]na piattaforma online può essere considerata accessibile ai minori quando le sue condizioni generali consentono ai minori di utilizzare il servizio, quando il suo servizio è rivolto o utilizzato prevalentemente da minori, o se il fornitore è altrimenti a conoscenza del fatto che alcuni dei destinatari del suo servizio sono minori". 

6.Per quanto riguarda il primo scenario descritto in tale considerando, la Commissione ritiene che il fornitore di una piattaforma online, per sostenere che quest'ultima non è accessibile ai minori, non possa basarsi unicamente su una dichiarazione contenuta nelle sue condizioni generali in cui si vieta l'accesso ai minori. Se non attua misure efficaci per impedire ai minori di accedere al suo servizio, il fornitore della piattaforma online non può sostenere che quest'ultima non rientra nell'ambito di applicazione dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065 sulla base di tale dichiarazione. Ad esempio, le piattaforme online che ospitano e diffondono contenuti per adulti, come le piattaforme online che diffondono contenuti pornografici, e i cui fornitori pertanto limitano, nelle loro condizioni generali, l'uso dei loro servizi agli utenti di età superiore ai 18 anni saranno considerate accessibili ai minori ai sensi dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065 se non sono state messe in atto misure efficaci per impedire ai minori di accedere ai loro servizi.

7.Per quanto riguarda il terzo scenario, il considerando 71 del regolamento (UE) 2022/2065 chiarisce che un esempio di situazione in cui un fornitore di una piattaforma online dovrebbe essere a conoscenza del fatto che alcuni dei destinatari del suo servizio sono minori è quello in cui tale fornitore tratta già i dati personali di tali destinatari che rivelano la loro età per altri scopi, ad esempio durante la registrazione per l'accesso al servizio in questione, e ciò rivela che alcuni di tali destinatari sono minori. Tra gli altri esempi di situazioni in cui ci si può ragionevolmente attendere che un fornitore sia a conoscenza del fatto che tra i destinatari del suo servizio vi sono minori figurano quelli in cui la piattaforma online è notoriamente popolare tra i minori; il fornitore della piattaforma online offre servizi analoghi a quelli utilizzati dai minori; la piattaforma online è promossa presso i minori; il fornitore della piattaforma online ha condotto o commissionato ricerche che identificano i minori come destinatari dei servizi, o tale identificazione deriva da una ricerca indipendente.

8.A norma dell'articolo 19 del regolamento (UE) 2022/2065, l'obbligo di cui all'articolo 28, paragrafo 1, di tale regolamento non si applica ai fornitori di piattaforme online che si qualificano come microimprese o piccole imprese, tranne qualora la Commissione abbia designato la loro piattaforma online come piattaforma online di dimensioni molto grandi a norma dell'articolo 33, paragrafo 4, del medesimo regolamento ( 9 ).

9.Anche altre disposizioni del regolamento (UE) 2022/2065 mirano a garantire la protezione dei minori online ( 10 ). Tra queste figurano diverse disposizioni del capo III, sezione 5, del regolamento (UE) 2022/2065, che impone obblighi supplementari ai fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi ( 11 ). I presenti orientamenti non mirano a interpretare tali disposizioni e i fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi non dovrebbero attendersi che l'adozione di tutte o di parte delle misure descritte di seguito sia sufficiente a garantire il rispetto dei loro obblighi a norma del capo III, sezione 5, del regolamento (UE) 2022/2065, in quanto tali fornitori potrebbero dover adottare misure supplementari che non sono stabilite nei presenti orientamenti e che sono necessarie per rispettare gli obblighi derivanti da tali disposizioni ( 12 ).

10.L'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065 dovrebbe essere considerato anche alla luce di altre normative e strumenti non vincolanti dell'Unione volti ad affrontare i rischi ai quali i minori sono esposti online ( 13 ). Tali normative e strumenti contribuiscono inoltre al conseguimento dell'obiettivo di garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori online, integrando in tal modo l'applicazione dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065. I presenti orientamenti non dovrebbero essere intesi come volti a interpretare gli obblighi derivanti da tali normative e strumenti o dalla legislazione degli Stati membri, o a pregiudicarli. La vigilanza e l'applicazione di tali normative e strumenti restano sotto la responsabilità esclusiva delle autorità competenti nell'ambito di tali quadri giuridici. In particolare, come chiarito al considerando 10 del regolamento (UE) 2022/2065, tale regolamento non pregiudica altri atti del diritto dell'Unione che disciplinano la prestazione di servizi della società dell'informazione in generale, che disciplinano altri aspetti della prestazione di servizi intermediari nel mercato interno o che specificano e integrano le norme armonizzate di cui al regolamento (UE) 2022/2065, quali la direttiva 2010/13/UE, nonché il diritto dell'Unione sulla tutela dei consumatori e sulla protezione dei dati personali, in particolare il regolamento (UE) 2016/679.

11.Sebbene i presenti orientamenti stabiliscano misure volte a garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori online, i fornitori di piattaforme online sono incoraggiati a adottare tali misure al fine di proteggere tutti gli utenti e non solo i minori. La creazione di un ambiente online rispettoso della vita privata, sicuro e protetto per tutti gli utenti si tradurrà, per sua stessa natura, in un livello più elevato di tutela della vita privata, di sicurezza e di protezione dei minori online, parallelamente all'adozione di misure volte a garantire il rispetto dei loro diritti ed esigenze specifici in linea con l'articolo 28 del regolamento (UE) 2022/2065.

12.Con l'adozione dei presenti orientamenti la Commissione dichiara che applicherà i medesimi ai casi ivi descritti e imporrà pertanto un limite all'esercizio del suo potere discrezionale ogniqualvolta si trovi ad applicare l'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065. I presenti orientamenti possono pertanto essere considerati un parametro di riferimento significativo e rilevante sul quale la Commissione si baserà nell'applicare l'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065 e nel determinare il rispetto di tale disposizione da parte dei fornitori di piattaforme online accessibili ai minori ( 14 ). I coordinatori dei servizi digitali e le autorità nazionali competenti possono inoltre trarre ispirazione dai presenti orientamenti nell'applicazione e nell'interpretazione dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065. Tuttavia l'adozione e l'attuazione di tutte o di parte delle misure di cui ai presenti orientamenti non comportano automaticamente il rispetto di tale disposizione.

13.Un'interpretazione autorevole dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065 può essere fornita solo dalla Corte di giustizia dell'Unione europea, che è competente, tra l'altro, a pronunciarsi in via pregiudiziale sulla validità e sull'interpretazione degli atti dell'UE, compreso l'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065.

14.Nel corso dell'elaborazione degli orientamenti la Commissione ha consultato i portatori di interessi ( 15 ), compresi il comitato e il suo gruppo di lavoro sulla protezione dei minori. Conformemente all'articolo 28, paragrafo 4, del regolamento (UE) 2022/2065, la Commissione ha consultato il comitato su una bozza dei presenti orientamenti prima della loro adozione il 2 luglio 2025.

15.Le misure descritte nelle sezioni da 5 a 8 dei presenti orientamenti non sono esaustive. Anche altre misure possono essere ritenute appropriate e proporzionate per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori conformemente all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065, come le misure derivanti dal rispetto di altre normative dell'Unione ( 16 ) o dall'osservanza degli orientamenti nazionali sulla protezione dei minori o delle norme tecniche ( 17 ). Inoltre, in futuro potrebbero essere individuate nuove misure che consentano ai fornitori di piattaforme online accessibili ai minori di conformarsi meglio all'obbligo di garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio.

3Struttura

16.La sezione 4 dei presenti orientamenti stabilisce i principi generali che dovrebbero disciplinare tutte le misure messe in atto dai fornitori di piattaforme online accessibili ai minori per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio. Le sezioni da 5 a 8 dei presenti orientamenti illustrano le principali misure che la Commissione ritiene che tali fornitori dovrebbero mettere in atto per garantire un tale livello elevato di tutela della vita privata, di sicurezza e di protezione. Tra queste figurano l'analisi dei rischi (sezione 5 ), la progettazione dei servizi (sezione 6 ), le segnalazioni, il supporto agli utenti e gli strumenti per i tutori (sezione 7 ) e la governance (sezione 8 ).

4Principi generali

17.I presenti orientamenti si basano sui seguenti principi generali, che sono interconnessi e dovrebbero essere considerati in modo olistico in tutte le attività dei fornitori di piattaforme online che rientrano nell'ambito di applicazione dei presenti orientamenti. La Commissione ritiene che qualsiasi misura messa in atto da un fornitore di una piattaforma online accessibile ai minori per conformarsi all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065 dovrebbe rispettare i principi generali indicati di seguito.

a.Proporzionalità e adeguatezza: a norma dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065, qualsiasi misura adottata per conformarsi a tale disposizione deve essere adeguata e proporzionata per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori. Poiché piattaforme online diverse possono comportare tipi di rischi diversi per i minori, non sempre sarà proporzionato o adeguato per tutti i fornitori di piattaforme online applicare tutte le misure descritte nei presenti orientamenti o solo alcune di esse. Per stabilire se una determinata misura sia proporzionata e adeguata, in particolare laddove comporti un'ingerenza nei diritti fondamentali delle persone, sarà necessario che ciascun fornitore effettui un riesame caso per caso i) dei rischi per la vita privata, la sicurezza e la protezione dei minori derivanti dalla sua piattaforma online o da parti di essa, tenendo conto, tra l'altro, delle dimensioni, della portata e del tipo del servizio fornito e della sua natura, dell'uso previsto o effettivo, delle sue caratteristiche specifiche e della base di utenti del servizio; ii) dell'impatto della misura sui diritti dei minori e su altri diritti e libertà sanciti dalla Carta dei diritti fondamentali dell'Unione europea ("Carta"); e iii) della necessità di basare tali misure sui più elevati standard disponibili e sulle buone pratiche esistenti, nonché sulla prospettiva e sui diritti dei minori (cfr. la sezione 5 sull'analisi dei rischi).

b. Tutela dei diritti dei minori: tali diritti sono sanciti dalla Carta, che garantisce la tutela dei diritti dei minori nell'attuazione del diritto dell'Unione, e dalla Convenzione delle Nazioni Unite sui diritti dell'infanzia e dell'adolescenza, ratificata da tutti gli Stati membri ( 18 ). I diritti dei minori sono parte integrante dei diritti umani e tutti questi diritti sono interconnessi, interdipendenti e indivisibili. In linea con l'articolo 24 della Carta, in tutti gli atti relativi ai minori, siano essi compiuti da autorità pubbliche o da istituzioni private, l'interesse superiore del minore deve essere considerato preminente. Pertanto, al fine di garantire che le misure volte a conseguire un elevato livello elevato di tutela della vita privata, di sicurezza e di protezione per i minori su una piattaforma online siano adeguate e proporzionate, dovrebbero essere presi in considerazione tutti i diritti dei minori e il loro interesse superiore dovrebbe essere considerato preminente. In linea con l'articolo 21 della Carta, è vietata qualsiasi forma di discriminazione fondata, in particolare, sul sesso, la razza, il colore della pelle o l'origine etnica o sociale, le caratteristiche genetiche, la lingua, la religione o le convinzioni personali, le opinioni politiche o di qualsiasi altra natura, l'appartenenza ad una minoranza nazionale, il patrimonio, la nascita, la disabilità, l'età o l'orientamento sessuale. I diritti dei minori comprendono, ad esempio, il diritto alla protezione ( 19 ), alla non discriminazione, all'inclusione, alla vita privata, all'accesso all'informazione e all'istruzione, alla libertà di espressione e alla partecipazione ( 20 ) e il diritto a che le loro opinioni siano prese in considerazione in tutte le questioni che li riguardano ( 21 ).

c. Tutela della vita privata, sicurezza e protezione fin dalla progettazione: i fornitori di piattaforme online accessibili ai minori dovrebbero integrare standard elevati di tutela della vita privata, di sicurezza e di protezione nella progettazione, nello sviluppo e nel funzionamento dei loro servizi ( 22 ). I concetti "by-design" mirano a sfruttare l'influenza dei fornitori di piattaforme online, dei progettisti e dei responsabili delle politiche per plasmare lo sviluppo di prodotti e servizi secondo modalità che diano priorità ai valori che promuovono il benessere umano. Implicano un'integrazione automatica della tutela della vita privata, della sicurezza e della protezione nella progettazione, nel funzionamento e nella gestione delle organizzazioni, nonché nei prodotti e nei servizi fin dall'inizio ( 23 ).

d. Progettazione adeguata all'età: i fornitori di piattaforme online accessibili ai minori dovrebbero progettare i loro servizi in modo da allinearli alle esigenze di sviluppo, cognitive ed emotive dei minori, garantendo nel contempo la loro sicurezza e protezione e la tutela della loro vita privata. Una progettazione adeguata all'età è adatta ai minori in considerazione dei loro diritti e del loro benessere, nonché della loro diversità ed età o fase di sviluppo specifica, e tiene conto delle loro capacità in evoluzione ( 24 ).

5Analisi dei rischi 

18.La natura eterogenea delle piattaforme online e la diversità dei contesti possono richiedere approcci distinti; alcune misure possono quindi essere più adatte a determinate piattaforme che ad altre. Nel momento in cui un fornitore di una piattaforma online accessibile ai minori decide con quali modalità garantire un elevato livello di sicurezza, tutela della vita privata e protezione dei minori sulla sua piattaforma e determina le misure adeguate e proporzionate a tal fine, la Commissione ritiene che tale fornitore dovrebbe, come minimo, stabilire e valutare:

a.qual è la probabilità che i minori accedano al suo servizio, in particolare in considerazione della natura, della finalità, dell'uso previsto e dei criteri pertinenti per determinare se il servizio è accessibile ai minori;

b.l'impatto effettivo o potenziale sulla vita privata, sulla sicurezza e sulla protezione dei minori che la piattaforma online può comportare o causare, sulla base della tipologia "5C" dei rischi online per i minori (allegato). A tal fine è necessario prendere in considerazione anche il modo in cui diversi aspetti della piattaforma possono comportare tali rischi, la loro probabilità e gravità, nonché il loro impatto positivo sui diritti e sul benessere dei minori, tenuto conto dell'età e delle capacità in evoluzione dei minori. Ad esempio, possono essere pertinenti aspetti quali la finalità della piattaforma, la progettazione, l'interfaccia, la proposta di valore, la commercializzazione, le caratteristiche, le funzionalità, il numero e il tipo di utenti e usi (effettivi e previsti) della piattaforma. Dovrebbe essere inclusa un'indicazione del livello di rischio per i minori sulla piattaforma (ad esempio basso, medio o alto), sulla base di criteri chiari, conformemente alle norme e alle migliori pratiche esistenti, ad esempio per la valutazione d'impatto sui diritti dei minori di cui al paragrafo 22;

c.le misure che il fornitore sta già adottando per prevenire e attenuare tali rischi;

d.eventuali misure supplementari individuate nell'analisi come adeguate e proporzionate per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori sul loro servizio. Le misure che i fornitori potrebbero essere chiamati a adottare dovrebbero affrontare i rischi per la vita privata, la sicurezza e la protezione derivanti dall'esperienza dei minori con il servizio, compresi i rischi derivanti dalle azioni di altri utenti del servizio;

e.in che modo le misure rispettano i principi generali di cui alla sezione 4;

f.i parametri che consentono al fornitore di monitorare nel tempo l'efficacia delle misure messe in atto per affrontare determinati rischi;

g.i potenziali effetti positivi e negativi sui diritti dei minori o di altri utenti derivanti da misure messe in atto dal fornitore, e da eventuali misure supplementari, per garantire che tali diritti non siano limitati in modo sproporzionato o indebito e che gli effetti positivi possano essere massimizzati. I diritti dei minori o di altri utenti che possono essere lesi da alcune misure comprendono, ad esempio, i diritti dei minori alla partecipazione, al rispetto della vita privata, alla protezione dei dati personali, alla libertà di espressione e all'informazione. Ciò è importante per determinare la proporzionalità delle misure.

19.Nell'effettuare tale analisi, i fornitori di piattaforme online accessibili ai minori dovrebbero considerare preminente l'interesse superiore del minore ( 25 ) in linea con la Carta e altri principi della Convenzione sui diritti dell'infanzia e dell'adolescenza ( 26 ), nonché con altri orientamenti pertinenti dell'Unione in materia ( 27 ). Dovrebbero includere le prospettive dei minori cercando la loro partecipazione, nonché quella dei tutori, dei rappresentanti di altri gruppi potenzialmente interessati e di altri esperti e portatori di interessi.

20.I fornitori dovrebbero prendere in considerazione le informazioni e le conoscenze più aggiornate disponibili da fonti scientifiche e accademiche, anche sfruttando altre valutazioni effettuate dal fornitore al riguardo. Dovrebbero rispettare il principio di precauzione quando vi siano indicazioni ragionevoli che una particolare pratica, caratteristica o scelta di progettazione comporta rischi per i minori, adottando misure per prevenire o attenuare tali rischi fino a quando non sia dimostrato che i suoi effetti non sono dannosi per i minori.

21.I fornitori dovrebbero effettuare l'analisi periodicamente, almeno una volta all'anno oppure ogni volta che apportano modifiche significative alla progettazione della piattaforma ( 28 ) o vengono a conoscenza di altre circostanze che incidono sulla progettazione e sul funzionamento della piattaforma e che sono rilevanti per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sulla loro piattaforma online. I fornitori dovrebbero mettere l'analisi dei rischi a disposizione delle autorità di vigilanza competenti e pubblicarne i risultati, senza divulgare informazioni operative di sicurezza sensibili, al più tardi prima dello svolgimento dell'analisi successiva, nonché valutare la possibilità di sottoporla al riesame di esperti indipendenti o dei portatori di interessi.

22.Le norme e gli strumenti esistenti per effettuare valutazioni d'impatto sui diritti dei minori possono aiutare i fornitori nello svolgimento di tale analisi. Tra questi figurano, ad esempio, i modelli, i moduli e altri orientamenti forniti dall'UNICEF ( 29 ), dal ministero neerlandese degli Affari interni e delle relazioni del Regno (BZK) ( 30 ) o dall'organismo europeo di normazione CEN-CENELEC ( 31 ). La Commissione può emanare ulteriori orientamenti o strumenti per aiutare i fornitori nello svolgimento dell'analisi, anche attraverso strumenti specifici per le valutazioni d'impatto sui diritti dei minori. Fino alla pubblicazione dei presenti orientamenti i fornitori potranno utilizzare gli strumenti e le migliori pratiche esistenti per tali valutazioni.

23.Per i fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi, tale analisi dei rischi può essere effettuata anche nell'ambito della valutazione generale dei rischi sistemici di cui all'articolo 34 del regolamento (UE) 2022/2065, che integrerà e andrà oltre l'analisi dei rischi realizzata conformemente ai presenti orientamenti.

6Progettazione dei servizi

6.1 Accertamento dell'età

6.1.1 Introduzione e terminologia

24.Negli ultimi anni la tecnologia ha registrato rapidi sviluppi che hanno consentito ai fornitori di piattaforme online di accertare l'età dei loro utenti in modi più e meno accurati, affidabili e solidi. Tali misure sono comunemente denominate "accertamento dell'età" ( 32 ).

25.La Commissione ritiene che le misure che limitano l'accesso in base all'età siano un mezzo efficace per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori sulle piattaforme online. A tal fine, gli strumenti di accertamento dell'età possono aiutare i fornitori a imporre restrizioni di accesso per gli utenti al di sotto di una determinata età, al fine di proteggere i minori dall'accesso a contenuti online inadatti all'età, come il gioco d'azzardo o la pornografia, o dall'esposizione ad altri rischi come l'adescamento.

26.Gli strumenti di accertamento dell'età possono inoltre aiutare i fornitori a impedire agli adulti di accedere a determinate piattaforme concepite per i minori, tranne quando ciò avviene per legittime finalità parentali, educative o di controllo, riducendo in tal modo il rischio che gli adulti si spaccino per minori e/o cerchino di arrecare loro danno.

27.Infine, gli strumenti di accertamento dell'età possono essere utilizzati per sostenere una progettazione adeguata all'età del servizio stesso, promuovendo in tal modo spazi online più sicuri e più adatti ai minori. In questi casi, gli strumenti possono essere utilizzati per garantire che i minori abbiano accesso solo a determinati contenuti, funzioni o attività adeguati al loro consumo, tenendo conto della loro età e delle loro capacità in evoluzione.

28.È importante distinguere tra i limiti di età, da un lato, che implicano restrizioni di accesso alla piattaforma o a parti di essa per gli utenti al di sotto o al di sopra di una determinata età, e i metodi di accertamento dell'età, dall'altro, che vengono utilizzati per determinare l'età di un utente.

29.Le misure di accertamento dell'età più comuni attualmente disponibili e applicate dalle piattaforme online rientrano in tre grandi categorie: autodichiarazione, stima dell'età e verifica dell'età.

a.L'autodichiarazione consiste in metodi che richiedono ai singoli individui di comunicare la propria età o confermare la propria fascia di età, fornendo volontariamente la data di nascita o l'età oppure dichiarandosi al di sopra di una determinata età, generalmente cliccando su un pulsante online.

b.La stima dell'età consiste in metodi che consentono a un fornitore di stabilire che un utente può avere una certa età, rientrare in una determinata fascia di età o essere al di sopra o al di sotto di una determinata età ( 33 ).

c.La verifica dell'età è un sistema basato su identificatori fisici o su fonti di identificazione verificate che offrono un elevato grado di certezza nel determinare l'età di un utente.

30.La differenza principale tra le misure di stima dell'età e di verifica dell'età è il livello di accuratezza. Mentre la verifica dell'età offre certezza circa l'età dell'utente, la stima dell'età fornisce solo un'approssimazione. L'accuratezza delle tecnologie di stima dell'età può variare e migliorare con il progredire della tecnologia.

6.1.2 Valutazione dell'opportunità di attuare restrizioni di accesso sostenute da misure di accertamento dell'età

31.Prima di decidere se porre in essere restrizioni di accesso basate sull'età sostenute da metodi di accertamento dell'età, i fornitori di piattaforme online accessibili ai minori dovrebbero sempre effettuare una valutazione volta a determinare se tale misura sia appropriata per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori sul loro servizio e se sia proporzionata o se tale elevato livello possa già essere conseguito facendo ricorso ad altre misure di minore portata ( 34 ). A tale riguardo la Commissione è del parere che i fornitori dovrebbero considerare le restrizioni di accesso basate sull'età sostenute da misure di accertamento dell'età come strumento complementare alle misure stabilite in altre sezioni dei presenti orientamenti. In altre parole, le restrizioni di accesso e l'accertamento dell'età non possono da soli sostituire le misure raccomandate altrove nei presenti orientamenti.

32.Tale valutazione dovrebbe garantire la proporzionalità di qualsiasi limitazione all'esercizio dei diritti e delle libertà fondamentali dei destinatari, in particolare dei minori. La Commissione ritiene pertanto che i fornitori di piattaforme online dovrebbero rendere pubblico il risultato di tale valutazione sull'interfaccia online del loro servizio, sia nel caso in cui la valutazione permetta di concludere che non è necessaria alcuna restrizione di accesso sostenuta da metodi di accertamento dell'età, sia se in base alla valutazione una simile restrizione risulta essere una misura adeguata e proporzionata.

33.La Commissione osserva che una minore accuratezza delle soluzioni di stima dell'età non equivale automaticamente a un minore impatto sui diritti e sulle libertà fondamentali dei destinatari, in quanto soluzioni meno accurate potrebbero trattare un maggior numero di dati personali rispetto a quelle più accurate. A causa del minore livello di accuratezza, potrebbero inoltre impedire ad alcuni minori di accedere a piattaforme online cui questi potrebbero altrimenti avere accesso. Di conseguenza, nel considerare i metodi di stima dell'età che richiedono il trattamento di dati personali, i fornitori di piattaforme online accessibili ai minori dovrebbero garantire che i principi di protezione dei dati, in particolare la minimizzazione dei dati, siano attuati correttamente e rimangano solidi nel tempo, e che tengano conto della dichiarazione del comitato europeo per la protezione dei dati (EDPB) sull'accertamento dell'età ( 35 ).

34.La Commissione è del parere che i fornitori di piattaforme online accessibili ai minori che considerano necessarie e proporzionate le restrizioni di accesso basate su metodi di accertamento dell'età dovrebbero fornire informazioni sulle soluzioni di accertamento dell'età individuate e sulla loro adeguatezza ed efficacia, con l'obiettivo di garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sui loro servizi. Essi dovrebbero inoltre fornire una panoramica dei parametri di prestazione utilizzati per la misurazione, come i tassi di falsi positivi e falsi negativi, nonché i tassi di accuratezza e di sensibilità.

35.È opportuno prevedere la partecipazione dei minori alla progettazione, all'attuazione e alla valutazione dei limiti di età e dei metodi di accertamento dell'età.

36.Nelle piattaforme online accessibili ai minori è possibile che solo alcuni contenuti, sezioni o funzioni rappresentino un rischio per i minori, oppure che vi siano parti in cui il rischio può essere attenuato mediante altre misure e/o parti in cui ciò non è possibile. In questi casi, anziché imporre limiti di età per l'accesso al servizio nel suo complesso, i fornitori di tali piattaforme online dovrebbero valutare quali contenuti, sezioni o funzioni sulla loro piattaforma comportano rischi per i minori e attuare restrizioni di accesso sostenute da metodi di accertamento dell'età per ridurre tali rischi per i minori in modo proporzionato e adeguato. Ad esempio, le parti dei servizi dei social media con contenuti, sezioni o funzioni che possono rappresentare un rischio per i minori, come le sezioni per adulti di un social media, o quelle che contengono comunicazioni commerciali o posizionamenti di prodotti per adulti da parte di influencer dovrebbero essere rese disponibili solo agli utenti adulti la cui età sia stata adeguatamente verificata.

6.1.3Determinazione dei metodi di accertamento dell'età da utilizzare

6.1.3.1Verifica dell'età

37.Nelle seguenti circostanze, tenuto conto che la protezione dei minori costituisce un importante obiettivo politico dell'Unione, cui il regolamento (UE) 2022/2065 dà espressione, come indicato nel considerando 71, la Commissione ritiene che il ricorso a restrizioni di accesso sostenute da metodi di verifica dell'età costituisca una misura adeguata e proporzionata per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori:

a.qualora determinati prodotti o servizi presentino un rischio elevato per i minori e tali rischi non possano essere attenuati da misure meno restrittive, tenendo conto della normativa dell'Unione e nazionale applicabile; tra tali prodotti e servizi figurano, a titolo di esempio:

I.la vendita di alcol, tabacco o prodotti contenenti nicotina, droghe,

II.l'accesso a qualsiasi tipo di contenuto pornografico,

III.l'accesso a contenuti relativi al gioco d'azzardo;

b.qualora, a causa dei rischi individuati per i minori, le condizioni generali o altri obblighi contrattuali del servizio impongano all'utente di avere almeno 18 anni per accedere al servizio, anche qualora non esistano obblighi formali di età stabiliti dalla legge;

c.qualsiasi altra circostanza in cui il fornitore di una piattaforma online accessibile ai minori abbia individuato rischi per la vita privata, la sicurezza o la protezione dei minori, tra cui rischi legati a contenuti e comportamenti e rischi per i consumatori, nonché rischi di contatto (ad esempio derivanti da funzioni quali conversazioni via chat, condivisione di immagini/video, messaggistica anonima), laddove tali rischi non possano essere attenuati con altre misure meno invasive aventi la stessa efficacia delle restrizioni di accesso sostenute da misure di verifica dell'età ( 36 );

d.qualora la normativa dell'Unione o nazionale, conformemente al diritto dell'Unione, prescriva l'obbligo di un'età minima per accedere a determinati prodotti o servizi offerti e/o visualizzati in qualsiasi modo su una piattaforma online, comprese alcune categorie specificamente definite di servizi online dei social media ( 37 ).

38.I metodi di stima dell'età possono integrare le tecnologie di verifica dell'età e possono essere utilizzati in aggiunta o come alternativa temporanea a tali tecnologie, in particolare nei casi in cui non siano ancora prontamente disponibili misure di verifica che rispettino i criteri di efficacia delle soluzioni di accertamento dell'età di cui alla sezione 6.1.4, con particolare attenzione alla tutela del diritto degli utenti alla vita privata e alla protezione dei dati, nonché all'accuratezza. Tale periodo transitorio non dovrebbe estendersi oltre il primo riesame dei presenti orientamenti ( 38 ). Ad esempio, le piattaforme che offrono contenuti per adulti potrebbero utilizzare metodi di stima dell'età ex ante se sono in grado di dimostrare che tali metodi sono comparabili a quelli di verifica dell'età in relazione ai criteri di cui alla sezione 6.1.4, in assenza di misure efficaci di verifica dell'età ( 39 ). A tempo debito, la Commissione potrebbe integrare i presenti orientamenti con un'analisi tecnica dei principali metodi esistenti di stima dell'età attualmente disponibili alla luce dei criteri di cui alla sezione 6.1.4.

6.1.3.2Tecnologie di verifica dell'età

39.La verifica dell'età dovrebbe essere trattata come un processo separato e distinto, non collegato ad altre attività di raccolta dei dati svolte dalle piattaforme online. La verifica dell'età non dovrebbe consentire ai fornitori di piattaforme online di conservare dati personali al di là delle informazioni sulla fascia di età dell'utente.

40.Come ulteriormente illustrato nella sezione 6.1.4, per essere considerato adeguato e proporzionato, qualsiasi metodo di accertamento dell'età dovrebbe essere solido e quindi non facilmente eludibile. Un metodo che i minori possono eludere con facilità non sarà considerato una misura efficace di accertamento dell'età.

41.I metodi che si basano su documenti di identità verificati e affidabili rilasciati dal governo, che non forniscano alla piattaforma dati personali aggiuntivi, possono costituire un metodo efficace di verifica dell'età nella misura in cui si basano su token di età anonimizzati ( 40 ). L'emissione di tali token dovrebbe essere preceduta da una verifica affidabile dell'età della persona ed essere effettuata da un terzo indipendente anziché dal fornitore della piattaforma online, in particolare quando offre accesso a contenuti per adulti. La Commissione ritiene che protocolli crittografici come la rotazione delle chiavi o le dimostrazioni a conoscenza zero ( 41 ) costituiscano una base adeguata per accertare l'età senza trasmettere dati personali.

42.Gli Stati membri stanno attualmente fornendo a tutti i loro cittadini e residenti e a ciascuna delle loro imprese un portafoglio europeo di identità digitale ( 42 ). I futuri portafogli europei di identità digitale offriranno mezzi di identificazione elettronica sicuri, affidabili e privati nell'Unione. Una volta implementati, potranno essere utilizzati per condividere con un servizio solo informazioni specifiche, ad esempio se una persona è al di sopra di una determinata età.

Il portafoglio europeo di identità digitale

Una volta implementati, i portafogli europei di identità digitale offriranno mezzi di identificazione elettronica sicuri, affidabili e privati per tutti nell'Unione. Ogni Stato membro è tenuto a fornire a tutti i suoi cittadini, residenti e imprese almeno un portafoglio, che dovrebbe consentire loro di dimostrare la loro identità e di conservare, condividere e firmare in sicurezza documenti digitali importanti entro la fine del 2026. Tutti i portafogli europei di identità digitale offrono l'opportunità di ricevere un token di età e gli Stati membri possono istituire servizi per l'emissione di tali token.

43.Per agevolare la verifica dell'età prima che diventino disponibili i portafogli europei di identità digitale, la Commissione sta attualmente sperimentando una soluzione UE di verifica dell'età come misura autonoma che rispetti i criteri di efficacia delle soluzioni di accertamento dell'età di cui alla sezione 6.1.4. Una volta ultimata, la soluzione UE di verifica dell'età costituirà un esempio di conformità e uno standard di riferimento per i metodi di verifica dell'età basati su dispositivo. I fornitori di piattaforme online da cui ci si attende l'uso di soluzioni di verifica dell'età per i loro servizi sono pertanto incoraggiati a partecipare alle sperimentazioni disponibili delle versioni iniziali della soluzione UE di verifica dell'età, da cui possono trarre informazioni sui mezzi più adatti a garantire la conformità all'articolo 28 del regolamento (UE) 2022/2065.

44.L'attuazione dello standard di riferimento ( 43 ) stabilito dalla soluzione UE di verifica dell'età può essere offerta tramite app pubblicate da soggetti pubblici o privati o integrate nei futuri portafogli europei di identità digitale. L'attuazione di tale standard costituirà una tecnologia di verifica dell'età non tracciabile e interoperabile atta a garantire la tutela della vita privata e minimizzare i dati, nel rispetto dei criteri di efficacia delle soluzioni di accertamento dell'età di cui alla sezione 6.1.4.

Soluzione UE di verifica dell'età

La soluzione UE di verifica dell'età, che comprende un'applicazione mobile, costituirà un metodo di verifica dell'età facile da usare, che potrà essere utilizzato per dimostrare che un utente ha almeno 18 anni (prova 18+). La soluzione colmerà il divario fino a quando non sarà disponibile il portafoglio europeo di identità digitale. L'obiettivo di questa soluzione solida, che garantisce la tutela della vita privata e rispetta il principio della minimizzazione dei dati, è costituire uno standard in termini di tutela della vita privata e facilità d'uso.

La soluzione UE di verifica dell'età, se da un lato rappresenta un parametro di riferimento per la verifica della conformità per quanto concerne l'accuratezza delle soluzioni di accertamento dell'età, dall'altro riduce al minimo l'impatto sui diritti e sulle libertà dei destinatari.

Gli utenti potranno attivare facilmente l'app e ricevere la prova dell'età in diversi modi. La prova conferma solo se l'utente ha almeno 18 anni. Non indica l'età precisa, né include altre informazioni sull'utente. L'utente può presentare la prova 18+ alla piattaforma online in un modo che tutela la vita privata in quanto evita che i suoi dati vengano trasmessi al fornitore di tale prova. Saranno inoltre messi in atto meccanismi per impedire il tracciamento sulle piattaforme online. L'uso dell'app è semplice. Quando richiede l'accesso a contenuti online per adulti, l'utente presenta alla piattaforma online la prova 18+ tramite l'app. Dopo averne verificato la validità, la piattaforma online concede l'accesso all'utente. L'identità e le azioni dell'utente sono protette dalla divulgazione durante l'intero processo. Il fornitore affidabile di prove dell'età non è informato dei servizi online ai quali l'utente intende accedere con la prova 18+. Analogamente, i fornitori di servizi online 18+ non ricevono l'identità dell'utente che chiede l'accesso, ma solo una prova del fatto che questi ha almeno 18 anni.

La soluzione UE di verifica dell'età sarà inoltre tecnicamente in grado di svolgere altre funzioni, come i controlli di vitalità. Nei paesi in cui sono supportati metodi validi per l'attestazione di età inferiori ai 18 anni, la soluzione UE di verifica dell'età può anche prevedere la verifica dell'età al di sotto dei 18 anni.

45.I fornitori di piattaforme online accessibili ai minori possono utilizzare altri metodi di verifica dell'età per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori, a condizione che siano compatibili con lo standard di riferimento dell'UE (come descritto ai paragrafi 43 e 44) e soddisfino i criteri di cui alla sezione 6.1.4. La soluzione UE di verifica dell'età è un esempio di metodo che soddisfa tali criteri.

46.Per garantire il rispetto dei principi di minimizzazione dei dati, limitazione delle finalità e fiducia degli utenti, i fornitori di piattaforme online sono incoraggiati a adottare metodi di verifica dell'età in doppio cieco. Un metodo in doppio cieco garantisce che i) la piattaforma online non riceva mezzi aggiuntivi per identificare l'utente e riceva invece solo informazioni che le consentano di confermare se questi raggiunge la soglia di età richiesta, e che ii) il fornitore della verifica dell'età non venga a conoscenza dei servizi per i quali viene utilizzata la prova dell'età. Tali metodi possono basarsi sul trattamento locale su dispositivo, su token crittografici anonimizzati o su dimostrazioni a conoscenza zero ( 44 ).

6.1.3.3Stima dell'età

47.La Commissione ritiene che l'uso di metodi di stima dell'età, se forniti da terzi indipendenti o mediante sistemi sottoposti ad audit adeguato e indipendente, in particolare per quanto riguarda la conformità in materia di sicurezza e protezione dei dati, e se applicati ex ante ove necessario per garantire l'efficacia della misura, costituisca una misura adeguata e proporzionata per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori nelle circostanze seguenti:

a.qualora, a causa dei rischi individuati per la vita privata, la sicurezza e la protezione dei minori, le condizioni generali del servizio di piattaforma online o analoghi obblighi contrattuali del servizio impongano all'utente di superare l'età minima richiesta inferiore ai 18 anni per accedere al servizio, sulla base della valutazione dei rischi per i minori sulla piattaforma effettuata dal fornitore ( 45 ) ( 46 );

b.qualora il fornitore della piattaforma online abbia individuato rischi medi per i minori sulla propria piattaforma, secondo quanto stabilito nell'analisi dei rischi (cfr. la sezione 5 sull'analisi dei rischi) ( 47 ) e tali rischi non possano essere attenuati da misure meno restrittive. La Commissione ritiene che ciò si verifichi quando il rischio non è abbastanza elevato da giustificare l'imposizione di restrizioni di accesso basate sulla verifica dell'età, ma non è neppure sufficientemente basso da permettere di escludere qualsiasi restrizione di accesso o da giustificare restrizioni di accesso non supportate da alcun metodo di accertamento dell'età o suffragate solo da un'autodichiarazione. Come spiegato più avanti, l'autodichiarazione non è considerata una misura adeguata di accertamento dell'età.

Buona pratica

MegaBetting ( 48 ) è una piattaforma online che consente agli utenti di scommettere sull'esito di eventi del mondo reale. Il fornitore limita il proprio servizio agli utenti di età superiore ai 18 anni, in linea con il diritto nazionale. Per garantire che la sua piattaforma online non sia accessibile ai minori, si basa sulla soluzione UE di verifica dell'età, che si limita a indicare al fornitore se l'utente ha almeno 18 anni. Queste informazioni sono create da un emittente affidabile sulla base dell'e-ID nazionale dell'utente e sono ricevute da un'applicazione sul telefono dell'utente. Il fornitore ritiene pertanto che il sistema soddisfi, da un lato, il criterio dell'elevata efficacia e, dall'altro, quello della tutela della vita privata dell'utente.

Cattiva pratica

SadMedia è una piattaforma online di social media. Il fornitore di SadMedia ha deciso di limitare i propri servizi ai minori di almeno 13 anni di età. Ha basato tale scelta sulla sua valutazione dei rischi medi che la piattaforma potrebbe comportare per la vita privata, la sicurezza e la protezione dei minori. Le condizioni generali di SadMedia stabiliscono tale restrizione. Per applicarla, il fornitore di SadMedia si basa su un modello di stima dell'età che ha sviluppato e che afferma sia in grado di prevedere l'età dell'utente con un margine di errore di ± 2 anni. A causa di questo margine di errore, molti minori al di sotto dell'età indicata possono accedere al servizio, mentre altrettanti minori che hanno l'età richiesta non possono accedervi. La misura di accertamento dell'età adottata da SadMedia non si rivela particolarmente efficace e pertanto non garantisce un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori sul suo servizio. 

48.Qualora il fornitore di una piattaforma online accessibile ai minori abbia stabilito che per conseguire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori sul suo servizio sono necessarie restrizioni di accesso sostenute da misure di accertamento dell'età, la Commissione ritiene che tale fornitore dovrebbe mettere a disposizione sulla sua piattaforma più di un metodo di accertamento dell'età, in modo da offrire all'utente una possibilità di scelta tra i vari metodi, purché tutti i metodi soddisfino i criteri illustrati nella sezione 6.1.4. Questo contribuirà a evitare l'esclusione degli utenti che, pur essendo ammissibili ad accedere a una piattaforma online, non possono avvalersi di uno specifico metodo di accertamento dell'età. Al fine di aumentare l'efficacia e la facilità d'uso, è opportuno applicare il metodo adeguato di accertamento dell'età, ove possibile al momento della creazione di un account, e utilizzare le informazioni sull'età per contribuire a un'esperienza adeguata all'età sulla piattaforma, oltre ad altre misure di protezione menzionate nei presenti orientamenti. Inoltre, i fornitori di piattaforme online dovrebbero prevedere un meccanismo di ricorso che consenta agli utenti di denunciare eventuali valutazioni errate dell'età da parte del fornitore ( 49 ).

Cattiva pratica

SadMedia utilizza una soluzione di stima dell'età tra le varie misure volte a contribuire a un elevato livello di tutela della vita privata, di sicurezza e di protezione. Quando il sistema di stima dell'età dà un risultato negativo, indicando che l'utente è troppo giovane per utilizzare il servizio, all'utente appare una finestra pop-up con il testo: "Non sei d'accordo con il risultato? Riprova!". L'utente può quindi ripetere il test di stima dell'età utilizzando lo stesso metodo. In questo esempio, la misura di accertamento dell'età non sarà considerata adeguata o proporzionata in quanto al destinatario non è data alcuna possibilità di utilizzare un altro metodo di accertamento dell'età né è fornito alcun mezzo di ricorso per contestare una valutazione errata.

6.1.4 Valutazione dell'adeguatezza e della proporzionalità del metodo di accertamento dell'età

49.Prima di valutare se mettere in atto uno specifico metodo di verifica o di stima dell'età a sostegno delle restrizioni di accesso, i fornitori di piattaforme online accessibili ai minori dovrebbero considerare le caratteristiche di tale metodo illustrate di seguito.

a.Accuratezza. Livello di accuratezza con cui un determinato metodo stabilisce l'età dell'utente.

L'accuratezza dei metodi di verifica o di stima dell'età dovrebbe essere valutata sulla base di parametri adeguati, chiari e accessibili al pubblico. Tali parametri sono necessari per valutare la misura in cui il metodo può determinare correttamente se un utente sia al di sopra o al di sotto di una determinata età, oppure stabilire la fascia di età di una persona ( 50 ) ). I fornitori di piattaforme online dovrebbero verificare periodicamente se l'accuratezza tecnica del metodo utilizzato corrisponda ancora allo stato dell'arte.

b.Affidabilità Livello di affidabilità del funzionamento di un determinato metodo nella pratica in circostanze reali.

Per essere affidabili, i metodi dovrebbero essere costantemente disponibili in qualsiasi momento e dovrebbero funzionare in circostanze reali diverse, al di là delle condizioni ideali di laboratorio. Prima di utilizzare una determinata soluzione di accertamento dell'età, i fornitori di piattaforme online accessibili ai minori dovrebbero assicurarsi che i dati utilizzati nell'ambito del processo di accertamento dell'età provengano da fonti affidabili. Ad esempio, una prova dell'età autofirmata non sarà considerata affidabile.

c.Solidità Grado di facilità con cui è possibile eludere un determinato metodo.

Un metodo che i minori possono eludere facilmente non sarà ritenuto sufficientemente solido e pertanto non sarà considerato efficace. Tale grado di "facilità" deve essere valutato caso per caso dai fornitori di piattaforme online accessibili ai minori, tenendo conto dell'età dei minori cui sono rivolte le misure specifiche. I fornitori di piattaforme online accessibili ai minori dovrebbero inoltre valutare se il metodo di accertamento dell'età offra, in linea con lo stato dell'arte, la sicurezza e la protezione necessarie ad assicurare l'integrità dei dati trattati in relazione all'età.

d.Non invasività Livello di invasività di un determinato metodo in relazione ai diritti degli utenti.

I fornitori di piattaforme online accessibili ai minori dovrebbero valutare periodicamente l'impatto che il metodo scelto avrà sui diritti e sulle libertà dei destinatari, compreso il diritto alla vita privata, alla protezione dei dati e alla libertà di espressione ( 51 ). Secondo il comitato europeo per la protezione dei dati e in linea con l'articolo 28, paragrafo 3, del regolamento (UE) 2022/2065 ( 52 ), un fornitore dovrebbe trattare solo gli attributi relativi all'età che sono strettamente necessari per la finalità specifica, e l'accertamento dell'età non dovrebbe essere utilizzato per offrire ai fornitori mezzi aggiuntivi per l'identificazione, la localizzazione, la profilazione o il tracciamento delle persone fisiche ( 53 ). Se il metodo è più invasivo di un altro metodo che fornisce lo stesso livello di accertamento e di efficacia, si dovrebbe scegliere il metodo meno invasivo. Ciò comprende una valutazione volta a stabilire se il metodo garantisca la piena trasparenza sul processo in linea con l'articolo 12 del regolamento (UE) 2016/679 e/o fornisca informazioni sull'utente a rischio. I dati trattati al fine di accertare se un utente sia al di sopra o al di sotto di una determinata età non possono essere in alcun caso conservati o utilizzati per altre finalità.

e.Non discriminazione In che modo un determinato metodo può discriminare alcuni utenti.

I fornitori di piattaforme online accessibili ai minori dovrebbero garantire che il metodo scelto sia adeguato e disponibile per tutti i minori, indipendentemente da disabilità, lingua, origine etnica, genere, religione e appartenenza a minoranze.

50.Le misure di accertamento dell'età che non soddisfano i criteri di cui sopra non possono essere considerate adeguate e proporzionate.

51.Le soluzioni di accertamento dell'età che possono essere facilmente eluse non dovrebbero essere considerate tali da garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori. Tale valutazione dovrebbe essere effettuata in funzione dell'impatto che la piattaforma può avere sulla vita privata, sulla sicurezza e sulla protezione dei minori. La conservazione di una prova dell'età dovrebbe dipendere anche dai rischi associati alle piattaforme in questione. Ad esempio, le piattaforme online per adulti non dovrebbero consentire la condivisione delle credenziali degli account degli utenti e dovrebbero quindi effettuare l'accertamento dell'età ogni volta che si accede al loro servizio.

52.La Commissione ritiene che l'autodichiarazione ( 54 ) non soddisfi tutti i requisiti di cui sopra, in particolare i requisiti di solidità e di accuratezza. Non considera pertanto l'autodichiarazione un metodo di accertamento dell'età adeguato per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori conformemente all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065.

53.La Commissione ritiene inoltre che il ricorso a un terzo per l'accertamento dell'età dovrebbe essere spiegato ai minori, come in qualsiasi altro caso, in modo accessibile, visibile e con un linguaggio a misura di minore (cfr. la sezione 8.4 sulla trasparenza). Spetta inoltre al fornitore garantire l'efficacia del metodo utilizzato dal terzo, in linea con le considerazioni di cui sopra. Ciò comprende, ad esempio, i casi in cui il fornitore intenda avvalersi di soluzioni fornite dai sistemi operativi o dagli operatori dei dispositivi.

6.2Registrazione

54.La registrazione o l'autenticazione può influire sulla capacità dei minori di accedere a un determinato servizio e di utilizzarlo in modo sicuro, adeguato all'età e rispettoso dei diritti, nonché sulle relative modalità. La Commissione è del parere che, una volta stabilito che l'accertamento dell'età è necessario per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione, nonché per fornire un'esperienza adeguata all'età, la registrazione o l'autenticazione possa essere un primo elemento da utilizzare per svolgere tale processo in modo proporzionato.

55.Qualora la registrazione non sia obbligatoria, e tenuto conto del fatto che qualsiasi utente non registrato potrebbe essere un minore di età inferiore all'età minima richiesta dalla piattaforma online per accedere al servizio e/o a contenuti inadatti all'età sul servizio, il fornitore della piattaforma online accessibile ai minori dovrebbe configurare le impostazioni degli utenti non registrati nel modo che garantisca i più elevati livelli di tutela della vita privata, di sicurezza e di protezione, prendendo in considerazione in particolare le raccomandazioni di cui alle sezioni 6.3.1 e 6.3.2 e considerando preminente l'interesse superiore del minore, anche per quanto riguarda i rischi di contatto associati all'eventualità che un adulto si spacci per minore. 

56.Qualora la registrazione sia obbligatoria o offerta come possibilità per accedere a una piattaforma online accessibile ai minori, la Commissione ritiene che il fornitore di tale piattaforma dovrebbe:

a.spiegare agli utenti i vantaggi e i rischi della registrazione e, se del caso, i motivi per cui la registrazione è necessaria (cfr. la sezione 8.4 sulla trasparenza);

b.garantire che per tutti i minori sia facile accedere al processo di registrazione e orientarsi al suo interno, in funzione delle loro capacità in evoluzione, anche per i minori con disabilità o esigenze di accessibilità aggiuntive, e che il processo sia in una lingua che possono comprendere;

c.garantire che il processo di registrazione comprenda misure che aiutano gli utenti a capire se hanno un'età sufficiente per utilizzare il servizio. In linea con il punto d), tali misure dovrebbero essere presentate agli utenti solo dopo l'applicazione di un metodo di accertamento dell'età, compresa l'autodichiarazione;

d.evitare di incoraggiare o indurre gli utenti che non hanno raggiunto l'età minima richiesta dalla piattaforma online accessibile ai minori a creare account o accedere al servizio, e adottare misure per ridurre il rischio che ciò accada ( 55 );

e.garantire che per i minori sia facile disconnettersi e ottenere su richiesta la cancellazione del loro account;

f.utilizzare il processo di registrazione come un'opportunità per effettuare, se necessario, l'accertamento dell'età, alla luce delle raccomandazioni di cui alle sezioni 5 e 6.1 ( 56 ), nonché per porre in evidenza le funzioni di sicurezza della piattaforma o del servizio, le norme di condotta e le relative conseguenze in caso di violazione delle condizioni, gli eventuali rischi individuati per la vita privata, la sicurezza o la protezione dei minori e le risorse disponibili per sostenere gli utenti;

g.garantire che il processo di registrazione non incoraggi o induca i minori a mettere a disposizione o a condividere sul loro profilo più informazioni di quanto necessario per il funzionamento del servizio, e che sia richiesto il consenso del genitore o del tutore del minore ove necessario a norma del diritto dell'Unione o degli Stati membri.

6.3Impostazioni dell'account

6.3.1Impostazioni predefinite 

57.Le impostazioni predefinite sono uno strumento importante che i fornitori di piattaforme online accessibili ai minori possono utilizzare per attenuare i rischi per la vita privata, la sicurezza e la protezione dei minori, come ad esempio il rischio di contatti indesiderati da parte di persone che cercano di arrecare loro danno. I dati indicano che gli utenti tendono a non modificare le loro impostazioni predefinite, il che significa che tali impostazioni vengono mantenute per la maggior parte degli utenti e diventano quindi fondamentali nell'indirizzare il comportamento ( 57 ). La Commissione ritiene pertanto che i fornitori di piattaforme online accessibili ai minori dovrebbero:

a.garantire che i principi di tutela della vita privata, sicurezza e protezione fin dalla progettazione siano applicati in modo coerente a tutte le impostazioni degli account per minori;

b.impostare in modo predefinito gli account per minori al massimo livello di tutela della vita privata, di sicurezza e di protezione. Ciò comprende la progettazione delle impostazioni predefinite in modo da garantire ai minori impostazioni sicure e adeguate all'età, tenendo conto delle loro capacità in evoluzione. Tali impostazioni dovrebbero garantire come minimo, in modo predefinito per tutti i minori, che:

I.gli account consentano solo interazioni quali "mi piace", tag, commenti, messaggi diretti, repost e citazioni da parte di account precedentemente accettati;

II.nessun account possa scaricare informazioni di contatto, sulla posizione o sull'account o contenuti caricati o condivisi dai minori sulla piattaforma, né catturare schermate di tali informazioni o contenuti;

III.solo gli account che il minore ha accettato in precedenza possano vedere i suoi contenuti, post e informazioni sull'account;

IV.nessuno possa vedere le attività del minore, come "mettere mi piace" ai contenuti o "seguire" altri utenti;

V.la geolocalizzazione, il microfono, l'accesso alle foto e la fotocamera, la sincronizzazione dei contatti e tutte le funzioni di tracciamento non strettamente necessarie siano disattivate;

VI.la riproduzione automatica predefinita di video e l'hosting di dirette streaming siano disattivati;

VII.le notifiche push siano disattivate per impostazione predefinita e siano sempre spente durante le ore principali di sonno, e che tali ore siano adattate all'età del minore. Quando sono attivate dall'utente, le notifiche push dovrebbero far pervenire all'utente solo le interazioni derivanti dai suoi contatti diretti e i contenuti provenienti da account o canali che l'utente segue o a cui partecipa attivamente (ad esempio, le notifiche push dovrebbero essere sempre autentiche e dovrebbero indicare sempre con precisione l'utente o il creatore da cui provengono);

VIII.le funzioni che possono contribuire a un uso eccessivo, come il numero di "mi piace" o di "reazioni", gli "streak", la funzione "... sta scrivendo" e le "conferme di lettura" siano disattivate;

IX.siano abilitate tutte le funzionalità che aumentano la capacità di agire degli utenti rispetto alle loro interazioni. Ciò potrebbe includere, ad esempio, informazioni o attriti che rallentano la visualizzazione dei contenuti, la pubblicazione e l'interazione con gli utenti, dando agli utenti la possibilità di riflettere prima di decidere se vogliono vedere più contenuti o di pensare prima di pubblicare;

X.le raccomandazioni di altri account siano disattivate;

XI.i filtri che possono essere associati a effetti negativi sull'immagine corporea, sull'autostima e sulla salute mentale siano disattivati;

c.valutare se, a seconda dell'età e delle capacità in evoluzione dei minori e in base all'esito dell'analisi dei rischi del fornitore, sia necessario andare oltre lo standard minimo per le impostazioni predefinite di cui alla presente sezione 6.3.1 e progettare e attuare impostazioni predefinite più restrittive, ad esempio impostazioni predefinite per i minori più giovani che impediscano ad altri utenti di partecipare a determinati tipi di interazioni;

d.testare e aggiornare regolarmente le impostazioni predefinite, garantendo che rimangano efficaci dopo tutti gli aggiornamenti e contro i rischi e le tendenze online emergenti, compresi eventuali rischi per la vita privata, la sicurezza e la protezione dei minori individuati dal fornitore nel corso della propria analisi dei rischi (cfr. la sezione 5 sull'analisi dei rischi);

e.garantire che i minori non siano in alcun modo incoraggiati o indotti a modificare le loro impostazioni per abbassare i livelli di tutela della vita privata, di sicurezza e di protezione, e che qualsiasi opzione per modificare le impostazioni predefinite sia presentata in modo neutrale;

f.garantire che i minori dispongano di gradi di controllo incrementali sulle loro impostazioni, in funzione dell'età, delle esigenze e delle capacità in evoluzione, al fine di sostenere la loro crescente autonomia e promuovere la loro capacità di agire ( 58 );

g.garantire che le impostazioni siano spiegate ai minori in modo accessibile e a misura di minore (cfr. la sezione 6.4 sull'interfaccia online e altri strumenti).

58.Qualora i minori modifichino le loro impostazioni predefinite o attivino funzioni che mettono a rischio la loro vita privata, sicurezza o protezione, la Commissione ritiene che il fornitore della piattaforma online dovrebbe:

a.consentire ai minori di scegliere tra una modifica temporanea delle loro impostazioni predefinite, ad esempio per un determinato periodo di tempo o per l'uso nella sessione in corso, e una modifica permanente;

b.consentire di tornare facilmente alle impostazioni predefinite, ad esempio mediante una reimpostazione con un solo clic o una funzione di annullamento basata sulla cronologia per le impostazioni che sono state modificate;

c.mostrare segnali di avvertimento nel punto in cui il minore modifica le proprie impostazioni, spiegando chiaramente le potenziali conseguenze di tali modifiche;

d.inviare promemoria regolari ai minori sulle potenziali conseguenze della loro modifica e offrire loro periodicamente la possibilità di tornare alle impostazioni predefinite;

e.al termine della sessione disattivare automaticamente la geolocalizzazione, il microfono e la fotocamera, nonché le funzioni di tracciamento non strettamente necessarie, se un minore li attiva;

f.quando la geolocalizzazione, il microfono e la videocamera sono attivi, rendere tale situazione evidente ai minori per tutto il tempo in cui rimangono attivi.

6.3.2Disponibilità di impostazioni, caratteristiche e funzionalità

59.La Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero:

a.valutare se alcune impostazioni, caratteristiche o funzionalità debbano essere completamente rimosse dagli account dei minori e/o se una qualsiasi delle impostazioni predefinite di cui alla sezione 6.3.1 debba essere resa irreversibile o non modificabile per tutti i minori o per i minori di determinate età, tenendo conto della loro età e delle loro capacità in evoluzione, e rimuovere e/o rendere irreversibili tali impostazioni sulla base di tale valutazione. Nell'effettuare tale valutazione, i fornitori di piattaforme online accessibili ai minori dovrebbero valutare il modo in cui tali impostazioni e funzionalità possono incidere sull'elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sulla loro piattaforma;

b.garantire che, indipendentemente dalle impostazioni dell'account scelte dai minori:

I.i minori non possano mai essere facilmente trovati o contattati da account che non hanno precedentemente accettato come contatti;

II.i dati di contatto personali dei minori, compresi l'indirizzo di posta elettronica o il numero di telefono, non siano mai comunicati ad altri utenti, a meno che il minore non dia il proprio consenso esplicito;

III.gli account dei minori non siano mai inclusi tra i contatti suggeriti agli adulti. Gli account di adulti o quelli che potrebbero essere falsi account di minori non sono raccomandati ai minori;

IV.gli account che il minore non ha precedentemente accettato come contatti non possano mai vedere le informazioni, la biografia, le attività e la cronologia del suo profilo, ad esempio i "mi piace" e le visualizzazioni, gli elenchi di amici e follower e gli account che il minore segue, e che tali informazioni diventino sempre indisponibili se il minore blocca l'account o ne rifiuta uno precedentemente accettato;

c.garantire che i minori abbiano la possibilità di limitare la visibilità della loro foto di profilo e dei singoli contenuti che pubblicano, nonché la visibilità dei loro contenuti in generale;

d.garantire che i minori abbiano la possibilità di accettare o rifiutare di essere taggati da altri utenti nei contenuti, nei commenti o in altra forma;

e.attuare misure per evitare che i minori accettino inavvertitamente contatti indesiderati, ad esempio imponendo agli utenti di includere un messaggio quando inviano una richiesta di contatto a un minore.

6.4Progettazione di interfacce online e altri strumenti

60.La Commissione ritiene che le misure che consentono ai minori di assumere il controllo delle loro esperienze online siano uno strumento efficace per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori ai fini dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065.

61.Fatti salvi gli obblighi dei fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi di cui al capo III, sezione 5, del regolamento (UE) 2022/2065, e indipendentemente dagli obblighi derivanti dall'articolo 25 di tale regolamento per i fornitori di piattaforme online in relazione alla progettazione, all'organizzazione e al funzionamento delle loro interfacce online, la Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero adottare e attuare funzionalità che consentano ai minori di decidere in che modo interagire con i loro servizi. Tali funzionalità dovrebbero garantire il giusto equilibrio tra la capacità di agire dei minori e un livello adeguato di tutela della vita privata, di sicurezza e di protezione. Ciò dovrebbe comprendere, ad esempio:

a.la garanzia che la progettazione dell'interfaccia online offra ai minori un'esperienza adeguata all'età;

b.la garanzia che i minori non siano esposti a caratteristiche di progettazione persuasive che mirano prevalentemente a promuovere l'interazione e che possono portare a un uso esteso o eccessivo della piattaforma o ad abitudini comportamentali problematiche o compulsive. Tra tali caratteristiche rientrano la possibilità di scorrimento infinito, l'obbligo superfluo di eseguire un'azione specifica per ricevere informazioni aggiornate su un'applicazione, l'attivazione automatica di contenuti video, le notifiche programmate artificialmente per riconquistare l'attenzione dei minori, le notifiche artificiali, comprese quelle di chi finge di essere un altro utente o le notifiche social su contenuti con cui l'utente non ha mai interagito, i segnali che comunicano scarsità e/o urgenza ( 59 ) e la creazione di ricompense virtuali per lo svolgimento di azioni (ripetute) sulla piattaforma;

c.l'introduzione di strumenti di gestione del tempo personalizzabili, visibili, di facile accesso e utilizzo, a misura di minore ed efficaci, per sensibilizzare i minori in merito al tempo trascorso sulle piattaforme online. Per essere efficaci, questi strumenti dovrebbero dissuadere i minori dal trascorrere più tempo sulla piattaforma. Potrebbero includere anche incentivi alla scelta di opzioni più sicure. Sarebbe inoltre opportuno attuare sistematicamente notifiche attive che informino i minori del tempo trascorso online;

d.la garanzia che gli strumenti, le caratteristiche, le funzionalità, le impostazioni, i prompt, le opzioni e i meccanismi di segnalazione, feedback e reclamo siano a misura di minore, adeguati all'età, facili da individuare, raggiungere, comprendere e utilizzare per tutti i minori, compresi quelli con disabilità e/o esigenze di accessibilità aggiuntive, siano coinvolgenti e non rendano necessario cambiare dispositivo per completare l'azione;

e.la garanzia che le funzioni dell'IA come chatbot e filtri, se integrate in una piattaforma online accessibile ai minori, non siano attivate automaticamente, che i minori non siano incoraggiati o indotti a utilizzarle e che tali sistemi siano in linea con le loro capacità in evoluzione e progettati in modo da essere sicuri per i minori. A tale riguardo, la Commissione ritiene che le funzioni dell'IA dovrebbero essere rese disponibili sulle piattaforme online accessibili ai minori solo dopo una valutazione dei rischi che tali funzioni possono comportare per la vita privata, la sicurezza e la protezione dei minori, che dovrebbero essere facili da disattivare e che dovrebbe essere chiaro quando invece sono attive;

f.la garanzia dell'attuazione di misure tecniche per avvertire ( 60 ) i minori che le interazioni con una funzione dell'IA sono diverse dalle interazioni umane e che tali funzioni possono fornire informazioni inesatte da un punto di vista fattuale ed essere fuorvianti. Tale avvertenza dovrebbe essere facilmente visibile, redatta in un linguaggio a misura di minore e direttamente accessibile dall'interfaccia per tutta la durata dell'interazione del minore con la funzione dell'IA. Ad esempio, i chatbot di IA non dovrebbero apparire in modo ben visibile, non dovrebbero far parte dei contatti suggeriti o essere raggruppati con utenti cui il minore è collegato. I fornitori di piattaforme online dovrebbero garantire che i minori e i loro tutori abbiano la possibilità di rinunciare all'uso dei chatbot di IA e non siano spinti verso l'utilizzo di tali funzioni ( 61 ). Tali funzioni dell'IA non possono essere utilizzate per influenzare o spingere i minori a visualizzare contenuti commerciali o a realizzare acquisti.

Cattiva pratica

SadFriends è una piattaforma di social media in cui i profili dei minori sono soggetti alle stesse impostazioni degli adulti. Al momento dell'iscrizione, le informazioni e i contenuti degli account dei minori sono visibili agli altri utenti sulla piattaforma e al di fuori di essa. I minori possono essere contattati da altri utenti che non sono stati accettati come contatti dal minore. Questi altri utenti possono inviare loro messaggi e commenti sui loro contenuti. Quando un minore attiva la geolocalizzazione per condividere la posizione con gli amici, la sua posizione diventa visibile a tutti gli account ai quali ha dato l'amicizia e rimane attiva dopo la chiusura della sessione, il che significa che gli altri utenti possono vedere dove si trova fino a quando il minore non si ricorda di disattivare la geolocalizzazione.

Di conseguenza, soggetti malintenzionati iniziano a prendere di mira i minori su SadFriends. Adulti sconosciuti contattano i minori e interagiscono con loro, creando un legame emotivo e guadagnando la loro fiducia. I minori sono adescati e costretti a creare e condividere immagini pedopornografiche con gli autori degli abusi.

6.5Sistemi di raccomandazione e funzioni di ricerca

62.I sistemi di raccomandazione ( 62 ) determinano il modo in cui le informazioni sono messe in ordine di priorità, ottimizzate e mostrate ai minori. Di conseguenza, tali sistemi hanno un ruolo importante nel determinare se e in che misura i minori si imbattano in determinati tipi di contenuti, contatti o comportamenti online. I sistemi di raccomandazione possono comportare rischi per la vita privata, la sicurezza e la protezione online dei minori e aggravare tali rischi, ad esempio amplificando i contenuti che possono avere un impatto negativo sulla sicurezza e sulla protezione dei minori ( 63 ). 

63.A tale riguardo la Commissione ricorda gli obblighi per tutti i fornitori di tutte le categorie di piattaforme online in materia di trasparenza dei sistemi di raccomandazione a norma dell'articolo 27 del regolamento (UE) 2022/2065 e le prescrizioni aggiuntive per i fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi di cui all'articolo 34, paragrafo 1, all'articolo 35, paragrafo 1, e all'articolo 38 del regolamento (UE) 2022/2065 ( 64 ).

64.Al fine di garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione specificamente per i minori, come previsto dall'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065, la Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero mettere in atto le misure descritte di seguito.

6.5.1Sperimentazione e adeguamento della progettazione e del funzionamento dei sistemi di raccomandazione per i minori

65.I fornitori di piattaforme online accessibili ai minori che utilizzano sistemi di raccomandazione per prestare il loro servizio dovrebbero:

a.testare periodicamente i propri sistemi di raccomandazione e adeguarli per migliorare la tutela della vita privata, la sicurezza e la protezione dei minori in base all'analisi dei rischi di cui alla sezione 5, che tiene conto dei diritti più ampi dei minori. Tali test e adeguamenti dovrebbero essere effettuati consultando minori, tutori ed esperti indipendenti;

b.nel definire gli obiettivi, i parametri e le strategie di valutazione dei sistemi di raccomandazione, tenere conto delle esigenze specifiche, delle caratteristiche, delle disabilità e delle esigenze di accessibilità aggiuntive dei minori, prendendo in debita considerazione anche la loro fascia di età. È opportuno definire le priorità dei parametri e delle metriche relativi all'accuratezza, alla diversità, all'inclusività e all'equità;

c.garantire che i sistemi di raccomandazione non si basino sulla raccolta di dati comportamentali che rilevano le attività del minore al di fuori della piattaforma;

d.garantire che, se un sistema di raccomandazione si basa sul trattamento di dati comportamentali relativi a un minore, i suggerimenti relativi a informazioni specifiche rivolte ai minori destinatari del servizio o l'ordine di priorità di tali informazioni non si basino su un trattamento di dati comportamentali personali così ampio da rilevare la totalità o la maggior parte delle attività del minore sulla piattaforma, il che può suscitare la sensazione che la vita privata del minore sia costantemente monitorata;

e.garantire che i sistemi di raccomandazione si basino su "segnali impliciti basati sull'interazione" solo dopo aver valutato se ciò sia nell'interesse superiore del minore, tenendo conto dei principi della minimizzazione dei dati e della trasparenza, e a condizione che tale uso sia chiaramente definito e soggetto a adeguate garanzie ulteriormente definite nelle raccomandazioni di cui sopra;

f.ai fini dei presenti orientamenti, per "segnali impliciti basati sull'interazione" si intendono i segnali e i dati che deducono le preferenze degli utenti dalle loro attività (comportamento di navigazione su una piattaforma), come il tempo trascorso visualizzando contenuti e la percentuale di clic;

g.dare priorità ai "segnali espliciti forniti dall'utente" per determinare i contenuti visualizzati e raccomandati ai minori. La selezione di tali segnali dovrebbe essere giustificata nell'interesse superiore del minore, tenendo conto dei principi della minimizzazione dei dati e della trasparenza, affinché tali segnali contribuiscano a un elevato livello di sicurezza e di protezione per i minori. Ai fini dei presenti orientamenti, per "segnali espliciti forniti dall'utente" si intendono i riscontri e le interazioni degli utenti che indicano le loro preferenze esplicite, in termini sia positivi che negativi, compresa la selezione dichiarata e deliberata di temi di interesse, indagini, segnalazioni ( 65 ) e altri segnali di carattere qualitativo;

h.attuare misure volte a prevenire l'esposizione dei minori a raccomandazioni di contenuti che potrebbero rappresentare un rischio per la loro sicurezza e protezione, in particolare se incontrate ripetutamente, quali contenuti che promuovono standard di bellezza o regimi dietetici non realistici, contenuti che esaltano o banalizzano problemi di salute mentale, quali l'ansia o la depressione, contenuti discriminatori, contenuti che incitano alla radicalizzazione e contenuti angoscianti, che mostrano atti violenti o incoraggiano i minori a intraprendere attività pericolose. Vi rientrano anche i contenuti segnalati o indicati da utenti, segnalatori attendibili o altri soggetti o strumenti di moderazione dei contenuti e la cui liceità e conformità alle condizioni generali della piattaforma non sono state ancora verificate, conformemente ai pertinenti obblighi previsti dal regolamento (UE) 2022/2065 e alla sezione 6.7;

i.attuare misure volte a garantire che i sistemi di raccomandazione non consentano o facilitino la diffusione di contenuti illegali o la commissione di reati a danno dei minori e da parte di questi ultimi;

j.garantire che i risultati di ricerca e i suggerimenti di contatti per i minori diano priorità agli account la cui identità è stata verificata e che i contatti siano collegati alla rete del minore o a contatti della stessa fascia di età del minore;

k.garantire che le funzioni di ricerca, tra cui il completamento automatico del testo nella barra di ricerca e i suggerimenti di termini e frasi chiave, non raccomandino contenuti illegali e/o considerati dannosi per la vita privata, la sicurezza o la protezione dei minori, ad esempio bloccando termini di ricerca noti per attivare contenuti ritenuti dannosi per la vita privata, la sicurezza e/o la protezione dei minori, quali parole, espressioni gergali, hashtag o emoji ( 66 ) particolari. In caso di domande relative a tali contenuti, i fornitori di piattaforme online dovrebbero reindirizzare i minori verso risorse di sostegno e linee telefoniche di assistenza adeguate.

6.5.2Controllo e responsabilizzazione degli utenti 

66.I fornitori di piattaforme online accessibili ai minori che utilizzano sistemi di raccomandazione per la prestazione del loro servizio dovrebbero adottare le misure indicate di seguito per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori:

a.offrire ai minori la possibilità di reimpostare i feed raccomandati in modo completo e permanente;

b.nell'ambito della definizione delle priorità dei parametri e delle metriche relativi all'accuratezza, alla diversità, all'inclusività e all'equità, fornire informazioni e spingere i minori a cercare nuovi contenuti dopo una certa quantità di interazioni con il sistema di raccomandazione;

c.valutare se, alla luce delle funzioni specifiche della piattaforma e al fine di garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori su tale piattaforma, il fornitore della piattaforma online ritenga opportuno garantire che i minori possano scegliere un'opzione del proprio sistema di raccomandazione non basata sulla profilazione. Questa raccomandazione lascia impregiudicati gli obblighi dei fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi a norma dell'articolo 38 del regolamento (UE) 2022/2065;

d.nel caso in cui, a seguito della valutazione di cui al punto precedente o in conseguenza degli obblighi derivanti dall'articolo 38 del regolamento (UE) 2022/2065 in relazione ai fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi, abbiano messo in atto un'opzione del loro sistema di raccomandazione non basata sulla profilazione, valutare se tale opzione debba essere fornita come impostazione predefinita e, se lo ritengono opportuno, mettere in atto le misure di garanzia e di trasparenza necessarie per informare i minori di tale opzione e delle potenziali conseguenze della disattivazione di tale impostazione predefinita;

e.garantire che i meccanismi di segnalazione e feedback di cui alla sezione 7 .1 abbiano un impatto rapido, diretto e duraturo sui parametri, sulla modifica e sui risultati dei sistemi di raccomandazione. Ciò implica tra l'altro rimuovere permanentemente dalle raccomandazioni i contenuti e i contatti segnalati (tra cui i contenuti che si è chiesto di nascondere e i contatti bloccati/segnalati) e ridurre la visibilità di contenuti e account simili.

67.Oltre agli obblighi di cui all'articolo 27, paragrafo 1, del regolamento (UE) 2022/2065 e, per i fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi, oltre agli obblighi rafforzati in materia di dovere di diligenza di cui agli articoli 34, 35 e 38 di tale regolamento, la Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero:

a.garantire che le impostazioni e le informazioni fornite ai minori in merito ai loro sistemi di raccomandazione, tra cui anche le condizioni generali, siano presentate con modalità accessibili e a misura di minore, adeguate all'età e alla progressiva maturità dei minori e in una lingua che possono comprendere (per maggior dettagli, cfr. la sezione 6.4 sulla progettazione di interfacce online e altri strumenti e la sezione 8.4 sulla trasparenza);

b.spiegare con precisione il motivo per cui è stato loro raccomandato ciascun contenuto specifico, fornendo anche informazioni sui parametri utilizzati e sui segnali dell'utente raccolti per tale raccomandazione specifica;

c.offrire ai minori, in modo accessibile e con un linguaggio e una progettazione a misura di minore, le opzioni per modificare o influenzare i parametri dei loro sistemi di raccomandazione, ad esempio consentendo loro di selezionare le categorie di contenuti e le attività cui sono maggiormente o meno interessati, fornendo spiegazioni in un linguaggio a misura di minore. Tale possibilità dovrebbe essere offerta durante il processo di creazione dell'account e regolarmente per tutto il tempo trascorso dal minore sulla piattaforma. Tali preferenze dovrebbero influenzare direttamente le raccomandazioni fornite dal sistema, garantendone un maggiore allineamento con l'età e l'interesse superiore del minore ( 67 ).

6.6Pratiche commerciali

68.I minori sono particolarmente esposti agli effetti persuasivi delle pratiche commerciali e hanno il diritto di essere protetti dalle pratiche di sfruttamento economico ( 68 ) da parte delle piattaforme online. Sono esposti alle pratiche commerciali delle piattaforme online, trovandosi ad affrontare tattiche persuasive diversificate, dinamiche e personalizzate, per esempio sotto forma di pubblicità, inserimento di prodotti, uso di valute in-app, marketing da parte degli influencer, sponsorizzazioni o nudge potenziati dall'IA ( 69 ) ( 70 ). Ciò può avere un effetto negativo sulla vita privata, sulla sicurezza e sulla protezione dei minori quando utilizzano i servizi di una piattaforma online.

69.In linea con il quadro giuridico orizzontale in vigore, in particolare la direttiva 2005/29/CE relativa alle pratiche commerciali sleali, che è pienamente applicabile a tutte le pratiche commerciali anche nei confronti dei minori ( 71 ), e le norme più specifiche del regolamento (UE) 2022/2065 in materia di pubblicità (articolo 26, articolo 28, paragrafo 2, e articolo 39) e di percorsi oscuri (articolo 25), e fatto salvo quanto precede, la Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero adottare le misure indicate di seguito per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio ai fini dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065:

a.garantire che non venga sfruttata la mancanza di esperienza dei minori in ambito commerciale, tenendo conto della loro età, delle loro vulnerabilità e della loro limitata capacità di interagire in modo critico con le pratiche commerciali sulla piattaforma, e fornire loro un sostegno adeguato ( 72 );

b.garantire che i minori non siano esposti a pubblicità dannose, non etiche e illecite ( 73 ). Ciò può comportare, ad esempio, la necessità di valutare l'adeguatezza delle campagne pubblicitarie per le diverse fasce di età, di porre rimedio al loro impatto negativo e di adottare misure di sicurezza adeguate per proteggere i minori e garantire che abbiano accesso a informazioni che perseguono il loro interesse superiore ( 74 );

c.riesaminare periodicamente le misure di protezione pertinenti in consultazione con i minori, i tutori e altri portatori di interessi;

d.garantire che i minori non siano esposti a una frequenza, a raccomandazioni e a volumi totali eccessivi di contenuti commerciali, che possono portare a spese eccessive o indesiderate o a comportamenti che creano dipendenza e avere effetti negativi sulla vita privata, sulla sicurezza e sulla protezione dei minori;

e.garantire che i minori non siano esposti a sistemi di IA integrati nella piattaforma che li influenzano o li incentivano a scopi commerciali, in particolare attraverso formati di conversazione o di consulenza quali i chatbot ( 75 );

f.garantire che le dichiarazioni sulla comunicazione commerciale siano chiaramente visibili, a misura di minore, adeguate all'età e accessibili (cfr. la sezione 8.4 sulla trasparenza) e utilizzate in modo coerente in tutto il servizio, ad esempio utilizzando un'icona o un segno simile per indicare chiaramente che si tratta di un contenuto pubblicitario ( 76 ). Queste dovrebbero essere regolarmente testate e riesaminate in consultazione con i minori, i loro tutori e altri portatori di interessi.

g.garantire che i minori non siano esposti alla commercializzazione e alla comunicazione di prodotti o servizi che possono avere un impatto negativo sulla loro vita privata e sulla loro sicurezza e protezione, anche come individuato nell'analisi dei rischi del fornitore, compresi i prodotti o servizi associati a impatti negativi sulla loro salute fisica e mentale (cfr. la sezione 5 sull'analisi dei rischi);

h.garantire che i minori non siano esposti a pubblicità occulta o dissimulata, sia essa effettuata dal fornitore della piattaforma online o dagli utenti del servizio ( 77 ). In tale contesto, la Commissione ricorda che i fornitori di piattaforme online sono altresì tenuti, a norma dell'articolo 26, paragrafo 2, del regolamento (UE) 2022/2065, a mettere a disposizione dei destinatari del servizio una funzionalità che consente di dichiarare se i contenuti che forniscono siano o contengano comunicazioni commerciali ( 78 ). Tra gli esempi di comunicazioni commerciali dissimulate possono figurare, tra l'altro, gli inserimenti di prodotti da parte di influencer, le vetrine di prodotti e altre forme di promozione velata che possono ingannare o manipolare i minori inducendoli ad acquistare prodotti o servizi;

i.garantire che i minori non siano esposti a tecniche che possono avere l'effetto di ridurre la trasparenza delle transazioni economiche e che possono essere fuorvianti per i minori, come alcune valute virtuali ( 79 ) e altri token o monete che possono essere scambiati con denaro reale (o, se del caso, per l'acquisto di un'altra valuta virtuale) e utilizzati per acquistare articoli virtuali, causando in tal modo anche spese indesiderate ( 80 );

j.garantire che i minori, quando accedono alle piattaforme online o a parti e funzioni delle stesse che sono presentate o appaiono come gratuite ( 81 ), non siano esposti ad acquisti in-app o in-game che sono o sembrano necessari per accedere al servizio o utilizzarlo. Se i minori sono esposti a qualsiasi altro acquisto in-app o in-game, il prezzo dovrebbe sempre essere indicato nella valuta nazionale;

k.provvedere affinché i minori non siano esposti a pratiche che possono portare a spese eccessive o indesiderate o a un uso eccessivo della piattaforma o a comportamenti compulsivi o che creano dipendenza, garantendo che i minori non siano esposti a oggetti virtuali quali scatole premio a pagamento o altri prodotti, laddove offrano risultati casuali o imprevedibili o funzioni assimilabili al gioco d'azzardo, e introducendo una separazione o un punto di attrito tra i contenuti e l'acquisto di prodotti correlati;

l.garantire che i minori non siano esposti a tecniche di progettazione manipolative ( 82 ), quali la scarsità ( 83 ) o premi intermittenti o casuali, o a tecniche di progettazione persuasive ( 84 ) che possono portare a spese eccessive, impulsive o indesiderate o a comportamenti che creano dipendenza;

m.garantire che i minori non siano esposti ad acquisti indesiderati, ad esempio prendendo in considerazione la possibilità di implementare strumenti efficaci per i tutori o di sottoporre qualsiasi impegno finanziario assunto da minori al di sotto di una certa età al riesame o al consenso dei tutori (cfr. la sezione 7.3 sugli strumenti per i tutori);

n.rivedere la politica della piattaforma in relazione all'offerta di transazioni economiche, sulla base delle capacità in evoluzione dei minori, considerando che alcune fasce di età non dovrebbero essere esposte a transazioni economiche né essere autorizzate a effettuarle, in quanto non possiedono ancora la capacità di comprendere i concetti di spesa e denaro.

6.7Moderazione

70.La moderazione può ridurre l'esposizione dei minori a contenuti e comportamenti dannosi per la loro vita privata, la loro sicurezza e protezione, compresi i contenuti illegali o che possono nuocere al loro sviluppo fisico o mentale, e può contribuire alla prevenzione della criminalità.

71.La Commissione ricorda gli obblighi in materia di: termini e condizioni, ai sensi dell'articolo 14 del regolamento (UE) 2022/2065; relazioni di trasparenza, a norma dell'articolo 15 di tale regolamento per i prestatori di servizi intermediari, compresi i fornitori di piattaforme online; meccanismi di segnalazione e azione e motivazioni, previsti rispettivamente agli articoli 16 e 17 di tale regolamento per i prestatori di servizi di memorizzazione di informazioni, comprese le piattaforme online; segnalatori attendibili ( 85 ) per i fornitori di piattaforme online, in forza dell'articolo 22 di tale regolamento. Ricorda inoltre il codice di condotta del 2025 contro l'incitamento all'odio online+ e il codice di condotta sulla disinformazione, che costituiscono codici di condotta ai sensi dell'articolo 45 del regolamento (UE) 2022/2065.

72.Oltre a tali obblighi, la Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero mettere in atto le misure indicate di seguito per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio ai fini dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065, considerando nel contempo preminente l'interesse superiore del minore:

a.definire in modo chiaro e trasparente ciò che la piattaforma considera contenuti e comportamenti dannosi per la vita privata, la sicurezza e la protezione dei minori, in collaborazione con i minori, la società civile e gli esperti indipendenti, compreso il mondo accademico. Dovrebbero essere compresi tutti i contenuti e i comportamenti illegali ai sensi del diritto dell'UE o nazionale. I fornitori di piattaforme online accessibili ai minori dovrebbero comunicare chiaramente ai minori che utilizzano i loro servizi le informazioni sulle loro norme e aspettative riguardo a contenuti e comportamenti, e tali informazioni dovrebbero essere disponibili durante la creazione di un account e facili da individuare sulla piattaforma;

b.stabilire politiche e procedure di moderazione che definiscano le modalità con cui vengono individuati e moderati i contenuti e i comportamenti dannosi per la vita privata, la sicurezza e la protezione dei minori al fine di limitare la loro esposizione a contenuti dannosi. I fornitori di piattaforme online dovrebbero inoltre garantire che tali politiche e/o procedure siano applicate nella pratica;

c.valutare e rivedere le politiche e le procedure per garantire che rimangano efficaci a fronte dei cambiamenti nelle tecnologie e nei comportamenti online. In particolare, la Commissione ritiene che, nel definire le priorità della moderazione, i fornitori di piattaforme online accessibili ai minori dovrebbero tenere conto dei fattori seguenti: la probabilità e la gravità dei contenuti che arrecano danno alla vita privata, alla sicurezza e/o alla protezione di un minore, l'impatto del danno su tale minore, le vulnerabilità specifiche e il numero di minori che potrebbero essere danneggiati. Dovrebbe inoltre essere data priorità alle segnalazioni dei minori;

d.garantire che la verifica umana sia disponibile in aggiunta alla verifica automatizzata dei contenuti e a qualsiasi altro strumento pertinente per gli account o i contenuti segnalati che il fornitore sospetta possano comportare un rischio di danno alla vita privata, alla sicurezza o alla protezione dei minori;

e.garantire che i team di moderazione dei contenuti siano adeguatamente formati e dotati di risorse e che i meccanismi di moderazione siano attivi e funzionanti in ogni momento (24 ore al giorno, 7 giorni alla settimana) per garantire una moderazione efficace, compreso almeno un dipendente reperibile per rispondere a richieste urgenti ed emergenze in qualsiasi momento;

f.garantire che i sistemi e le pratiche di moderazione dei contenuti siano disponibili e operativi nella lingua o nelle lingue ufficiali dello Stato membro in cui è prestato il servizio;

g.mettere in atto tecnologie, meccanismi interni e misure preventive efficaci per ridurre il rischio che ai minori vengano raccomandati contenuti e comportamenti dannosi per la loro vita privata e la loro sicurezza o protezione, anche mediante l'attuazione di soluzioni tecniche efficaci per contrastare i contenuti dannosi e illegali noti, come l'hash matching e il rilevamento di URL. I fornitori dovrebbero inoltre valutare gli ulteriori benefici potenzialmente offerti dalle soluzioni tecniche emergenti, come i classificatori di IA, per individuare contenuti e comportamenti nuovi o modificati;

h.attuare soluzioni tecniche per impedire che i sistemi di IA sulla loro piattaforma consentano agli utenti di accedere a contenuti dannosi per la vita privata, la sicurezza e/o la protezione dei minori, di generare tali contenuti e diffonderli:

I.integrando nei sistemi di IA misure di tutela che individuino e prevengano i prompt che il fornitore ha individuato nelle sue politiche di moderazione come dannosi per la vita privata, la sicurezza e/o la protezione dei minori. Ciò può comprendere, ad esempio, l'uso di classificatori di prompt, la moderazione dei contenuti e altri filtri ( 86 );

II.cooperando con altri fornitori di piattaforme online e con i portatori di interessi al fine di individuare i contenuti illegali che violano le politiche e di prevenire la diffusione dei contenuti e delle condotte illegali tra piattaforme;

III.qualora il fornitore di una piattaforma online accessibile ai minori ospiti operazioni finanziarie, fornendo un canale specifico per la segnalazione di frodi e operazioni finanziarie sospette.

73.I fornitori di piattaforme online accessibili ai minori dovrebbero condividere i parametri relativi alla moderazione dei contenuti, ad esempio la frequenza con cui ricevono le segnalazioni degli utenti, la frequenza con cui individuano di propria iniziativa le violazioni relative a contenuti e comportamenti, i tipi di contenuti e di comportamenti segnalati e individuati e le modalità con cui la piattaforma ha reagito a tali problematiche.

74.Nessuna delle suddette misure dovrebbe comportare un obbligo generale di sorveglianza sui contenuti che i fornitori di piattaforme online accessibili ai minori trasmettono o memorizzano ( 87 ).

Cattiva pratica

SadShare è una piattaforma di social media che consente agli utenti di caricare contenuti visivi e condividerli con altri. Le politiche della piattaforma non prevedono solidi meccanismi di moderazione dei contenuti per individuare e prevenire il caricamento di contenuti dannosi ed espliciti, compreso il materiale pedopornografico. Questa mancanza di moderazione espone pertanto i minori a contenuti illegali e consente agli utenti malintenzionati di (ri)utilizzare le immagini esistenti. Ciò a sua volta alimenta la domanda di materiale pedopornografico, il che inavvertitamente induce altri utenti ad abusare dei minori e ad arrecare loro danno per creare nuovo materiale.

7Segnalazioni, assistenza agli utenti e strumenti per i tutori

7.1Segnalazioni, feedback e reclami degli utenti

75.La disponibilità di strumenti efficaci, visibili e a misura di minore per le segnalazioni, i feedback e i reclami degli utenti consente ai minori di segnalare e porre rimedio alle funzioni delle piattaforme online che possono incidere negativamente sul livello di tutela della vita privata, di sicurezza e protezione dei minori.

76.La Commissione ricorda gli obblighi stabiliti dal regolamento (UE) 2022/2065, tra cui l'obbligo di istituire meccanismi di segnalazione e azione previsto all'articolo 16, l'obbligo di fornire una motivazione a norma dell'articolo 17, l'obbligo di notifica di sospetti di reati stabilito dall'articolo 18, l'obbligo di istituire un sistema interno di gestione dei reclami in forza dell'articolo 20, la risoluzione extragiudiziale delle controversie di cui all'articolo 21 e le norme sui segnalatori attendibili di cui all'articolo 22.

77.Oltre a tali obblighi, la Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero mettere in atto le misure indicate di seguito per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio ai fini dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065:

a.attuare meccanismi di segnalazione, feedback e reclamo che:

I.siano efficaci, visibili, a misura di minore e facilmente accessibili (cfr. la sezione 6.4 sulla progettazione dell'interfaccia online e altri strumenti e la sezione 4 sui principi generali);

II.consentano ai minori di segnalare contenuti, attività, individui, account o gruppi che ritengono possano violare le condizioni generali della piattaforma. Vi rientrano tutti i contenuti, gli utenti o le attività che la piattaforma considera dannosi per la vita privata, la sicurezza e/o la protezione dei minori (cfr. la sezione 5 sull'analisi dei rischi e la sezione 6.7 sulla moderazione);

III.consentano a tutti gli utenti di segnalare contenuti, attività, individui, account o gruppi che ritengono inappropriati o indesiderati per i minori, o se si sentono a disagio all'idea che tali contenuti, attività, individui, account o gruppi siano accessibili ai minori;

IV.consentano a tutti gli utenti di segnalare un account che si sospetta appartenga a un minorenne, se nelle condizioni generali della piattaforma è indicata un'età minima;

V.consentano ai minori di fornire un riscontro su tutti i contenuti, le attività, gli individui, gli account o i gruppi che i minori vedono sui propri account e che li mettono a disagio o che desiderano vedere in misura maggiore o minore. Queste opzioni potrebbero includere frasi del tipo "Mostra di meno/di più", "Non voglio vedere/Non mi interessa", "Non voglio vedere contenuti da questo account", "Mi mette a disagio", "Non mostrare", "Non mi piace" o "Non fa per me". I fornitori di piattaforme online dovrebbero garantire che tali opzioni siano concepite in modo tale da essere visibili solo all'utente e da non poter essere utilizzate in modo improprio da altri per compiere atti di bullismo o molestie nei confronti dei minori sulla piattaforma. I fornitori di piattaforme online dovrebbero adattare i loro sistemi di raccomandazione in risposta a tale feedback (cfr. la sezione 6.5.2 sul controllo e la responsabilizzazione degli utenti) ( 88 );

VI.consentano a qualsiasi utente, se il fornitore utilizza metodi di accertamento dell'età, di accedere a un sistema interno di gestione dei reclami efficace, che gli consenta di presentare, per via elettronica e gratuitamente, un reclamo contro la valutazione dell'età dell'utente effettuata dal fornitore. Tale sistema di gestione dei reclami dovrebbe soddisfare le condizioni di cui all'articolo 20 del regolamento (UE) 2022/2065;

b.garantire che i meccanismi di segnalazione, feedback e reclamo istituiti a norma dell'articolo 20 del regolamento (UE) 2022/2065 ( 89 ):

I.contribuiscano a un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori;

II.siano in linea con i diritti fondamentali, in particolare i diritti dei minori;

III.siano accessibili in modo intuitivo e immediato per tutti i minori, compresi quelli con disabilità e/o con esigenze di accessibilità aggiuntive;

IV.siano facili da utilizzare e comprendere per i minori, adeguati all'età e coinvolgenti (cfr. la sezione 6.4 sulla progettazione dell'interfaccia online e altri strumenti e la sezione 4 sui principi generali);

V.siano a disposizione degli utenti non registrati se questi possono accedere ai contenuti della piattaforma online;

c.garantire la disponibilità di un'opzione che consenta ai minori di indicare i loro motivi per una segnalazione o un reclamo. I fornitori dovrebbero evitare le categorie di segnalazione, ma, se le utilizzano, dovrebbero garantire che siano adattate agli utenti più giovani ammessi sulla piattaforma;

d.garantire che le segnalazioni, i feedback e i reclami siano riservati e anonimi per impostazione predefinita, offrendo nel contempo ai minori la possibilità di rinunciare all'anonimato. In caso di rinuncia all'anonimato, il fornitore dovrebbe spiegare ai minori quali informazioni relative alle segnalazioni e/o ai reclami condividono con altri utenti o terzi, quando e come avviene tale condivisione;

e.dare priorità alle segnalazioni che riguardano la vita privata, la sicurezza e la protezione dei minori. I fornitori di piattaforme online dovrebbero offrire la possibilità di indicare se il minore ritiene che una segnalazione o un reclamo sia urgente, in particolare quando vi sia l'indicazione di un problema in corso che incide sulla vita privata, sulla sicurezza o sulla protezione del minore. I tempi di risposta dovrebbero essere adeguati al problema segnalato o oggetto di reclamo. Ciò non dovrebbe incidere negativamente sulla priorità attribuita alle segnalazioni presentate dai segnalatori attendibili, conformemente all'articolo 22, paragrafo 1, del regolamento (UE) 2022/2065;

f.fornire senza indebito ritardo a ciascun minore che presenta una segnalazione o un reclamo la conferma dell'avvenuto ricevimento di tale segnalazione o reclamo. I minori dovrebbero inoltre poter accedere a una spiegazione adeguata all'età del processo che sarà seguito durante l'esame della segnalazione o del reclamo e a una spiegazione delle misure eventualmente adottate o non adottate. Le informazioni dovrebbero includere un calendario indicativo per la decisione sulla segnalazione o sul reclamo e i possibili risultati. La Commissione ritiene inoltre che i fornitori di piattaforme online dovrebbero fornire un meccanismo per monitorare i progressi e comunicare con le piattaforme;

g.riesaminare periodicamente le segnalazioni, i feedback e i reclami ricevuti. Tali informazioni dovrebbero essere utilizzate per individuare e affrontare qualsiasi aspetto della piattaforma che possa compromettere la vita privata, la sicurezza e/o la protezione dei minori, perfezionare i sistemi di raccomandazione e le pratiche di moderazione, migliorare le norme generali di sicurezza e promuovere un ambiente online più affidabile e responsabile. Per poter essere riesaminate, tali azioni dovrebbero essere documentate.

Cattiva pratica

SadLearn è una famosa piattaforma online progettata per utenti di età compresa tra i 6 e i 18 anni. Offre una serie di contenuti educativi e ricreativi. Per segnalare contenuti contrari alle condizioni generali di SadLearn, l'utente deve cliccare su quattro diversi link. Una volta arrivato alla sezione relativa ai reclami, deve scegliere tra 15 diverse categorie di reclami, il che rende difficile per i minori individuare e selezionare la categoria giusta. Non esiste una categoria a testo libero. Se riesce a presentare reclamo, l'utente non riceve alcuna conferma o spiegazione di ciò che accadrà in seguito. Inoltre, lo strumento di segnalazione è disponibile solo in inglese e il linguaggio è adatto a un pubblico adulto. 

7.2Misure di sostegno agli utenti

78.L'introduzione di funzioni sulle piattaforme online accessibili ai minori per aiutarli a orientarsi tra i servizi offerti e a chiedere assistenza ove necessario è un mezzo efficace per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori. La Commissione ritiene pertanto che i fornitori di piattaforme online accessibili ai minori dovrebbero:

a.disporre di strumenti di sostegno chiari, facilmente identificabili e accessibili che consentano ai minori di chiedere aiuto quando incontrano contenuti, account o comportamenti sospetti, illegali o inappropriati che li mettono a disagio. Ciò comprende la messa a disposizione di tasti per silenziare o bloccare detti elementi. Gli strumenti di sostegno dovrebbero essere a misura di minore, chiaramente visibili, immediatamente accessibili (cfr. la sezione 6.4 sull'interfaccia online e altri strumenti) e dovrebbero mettere i minori in collegamento diretto con i servizi di sostegno più appropriati per la loro ubicazione ed età, come quelli che fanno parte dei centri nazionali per un'internet più sicura, delle reti INHOPE e delle linee telefoniche nazionali di assistenza per i minori;

b.limitare l'uso di strumenti di sostegno basati sull'IA, che non dovrebbero essere utilizzati come meccanismo principale per interagire con i minori;

c.introdurre messaggi di avvertimento direttamente visibili e link alle pertinenti linee di sostegno nazionali ( 90 ) e ad altre fonti autorevoli quando i minori cercano, caricano, generano, condividono e ricevono contenuti potenzialmente illegali o dannosi per la loro vita privata, la loro sicurezza e la loro protezione (come spiegato nella sezione 6.7 sulla moderazione). I fornitori di piattaforme online dovrebbero inoltre indirizzare i minori verso le linee di sostegno nazionali quando questi presentano una segnalazione relativa a tali contenuti. Tale indirizzamento dovrebbe avvenire immediatamente dopo che il fornitore della piattaforma online viene a conoscenza dell'attività o il minore presenta una segnalazione;

d.offrire ai minori la possibilità di bloccare o silenziare in forma anonima qualsiasi altro utente o account, compresi quelli che non sono ad essi collegati, se la piattaforma online comprende caratteristiche o funzionalità relative al collegamento degli utenti, alla pubblicazione di contenuti o alla comunicazione degli utenti. I sistemi di blocco dovrebbero essere facilmente individuabili e accessibili. Nessuna informazione sull'utente o sul suo account dovrebbe essere disponibile per gli account bloccati dall'utente;

e.offrire ai minori, se la piattaforma online consente commenti sui contenuti, la possibilità di limitare i tipi di utenti che possono commentare i loro contenuti e i contenuti che li riguardano e/o di impedire ad altri utenti di commentare i loro contenuti e i contenuti che li riguardano, sia al momento della pubblicazione che successivamente, anche se la possibilità di formulare commenti è limitata agli account precedentemente accettati come contatti dal minore (come raccomandato nella sezione 6.3 sulle impostazioni dell'account);

f.garantire, se la piattaforma online offre funzioni di gruppo, che i minori aderiscano a un gruppo solo dopo essere stati informati dell'invito e dopo aver indicato la loro volontà di far parte di tale gruppo.

Buona pratica

NiceSpace è una piattaforma di social media per gli utenti di età superiore a 13 anni. Quando si iscrivono, gli utenti possono seguire un tutorial interattivo intitolato "SafeSpace 101", che illustra le funzioni di tutela della vita privata, di sicurezza e di protezione della piattaforma, tra cui le opzioni di blocco e di silenziamento, il controllo dei commenti e gli inviti di gruppo. NiceSpace è inoltre dotata di un pulsante "Help" ben visibile, che mette gli utenti in collegamento diretto con la loro linea di assistenza locale del centro per un'internet più sicura. Quando gli utenti cercano contenuti potenzialmente dannosi, NiceSpace li avverte con messaggi contestuali e li reindirizza verso risorse più sicure. Tutte le informazioni sono adattate all'utente più giovane ammesso sulla piattaforma.

7.3Strumenti per i tutori

79.Gli strumenti per i tutori sono costituiti da software, caratteristiche, funzionalità o applicazioni progettate per aiutare i tutori ad accompagnare l'attività online del minore, la vita privata, la sicurezza e il benessere del minore, nel rispetto della sua capacità di agire e della sua vita privata.

80.La Commissione ritiene che gli strumenti per i tutori debbano essere considerati complementari alle misure di sicurezza fin dalla progettazione e per impostazione predefinita e a qualsiasi altra misura messa in atto per conformarsi all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065, comprese quelle descritte nei presenti orientamenti. Il rispetto dell'obbligo per i fornitori di piattaforme online accessibili ai minori di garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione sui loro servizi non deve mai basarsi esclusivamente sugli strumenti per i tutori. Tali strumenti non dovrebbero essere utilizzati come unica misura per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sulle piattaforme online, né per sostituire altre misure messe in atto a tal fine. Tali misure potrebbero non riflettere la realtà della vita dei minori, in particolare nei casi di affidamento separato o affidamento familiare o in caso di assenza o disinteresse dei tutori. Inoltre, l'efficacia del consenso dei genitori è limitata quando non viene verificata in modo affidabile l'identità o l'autorità legale dell'adulto che presta il consenso. I fornitori di piattaforme online accessibili ai minori devono pertanto attuare misure adeguate per proteggere i minori e non dovrebbero fare affidamento esclusivamente sul controllo parentale. La Commissione osserva tuttavia che, se utilizzati in combinazione con altre misure, gli strumenti per i tutori possono contribuire a un tale livello elevato.

81.La Commissione ritiene pertanto che i fornitori di piattaforme online accessibili ai minori dovrebbero predisporre strumenti di controllo per i tutori ai fini dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065; tali strumenti dovrebbero:

a.essere adeguati all'età e in linea con le capacità in evoluzione dei minori. Gli strumenti per i tutori dovrebbero basarsi sulla comunicazione, sull'apprendimento e sulla responsabilizzazione piuttosto che sul controllo e dovrebbero promuovere l'autonomia e la capacità di agire dei minori. Dovrebbero essere efficaci e non limitare in modo sproporzionato il diritto dei minori alla vita privata o all'accesso ai servizi, considerando preminente l'interesse superiore del minore;

b.essere di facile utilizzo, accesso e attivazione, ad esempio consentendo al tutore di utilizzare lo strumento senza creare un account sul servizio;

c.applicarsi indipendentemente dal dispositivo o dal sistema operativo utilizzato per accedere al servizio;

d.avvisare chiaramente i minori dell'attivazione di tali strumenti da parte dei tutori e mettere in atto altre garanzie in considerazione di un possibile uso improprio da parte dei tutori, ad esempio segnalando chiaramente e in tempo reale ai minori l'attivazione di qualunque funzionalità di controllo;

e.garantire che possano essere apportate modifiche soltanto se si dispone dello stesso livello di autorizzazione richiesto per l'attivazione iniziale degli strumenti;

f.essere compatibili con gli strumenti interoperabili disponibili che offrono ai tutori uno sportello unico che riunisce tutte le impostazioni e tutti gli strumenti.

82.Gli strumenti per i tutori possono includere funzioni per la gestione delle impostazioni predefinite, la fissazione di limiti per il tempo trascorso davanti allo schermo (cfr. la sezione 6.4 sulla progettazione dell'interfaccia online e altri strumenti), la visualizzazione degli account con cui il minore comunica, la gestione delle impostazioni dell'account, la fissazione di limiti di spesa predefiniti per il minore, se del caso, o altre funzioni che permettano di controllare gli usi delle piattaforme online che possono pregiudicare la vita privata, la sicurezza e la protezione del minore.

8Governance

83.Una buona governance della piattaforma è uno strumento efficace per fare in modo che alla protezione dei minori sia riservata la dovuta priorità e gestione in tutta la piattaforma, il che contribuirà a garantire l'elevato livello richiesto di tutela della vita privata, di sicurezza e di protezione dei minori.

8.1Governance (aspetti generali)

84.La Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero mettere in atto pratiche di governance efficaci che contribuiscano a garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sui loro servizi ai fini dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065. Ciò implica, tra l'altro:

a.l'attuazione di politiche interne che illustrino le modalità con cui il fornitore della piattaforma online cerca di garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori sul suo servizio;

b.l'affidamento a una persona o a un gruppo ad hoc della responsabilità di garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori. Tale persona o gruppo dovrebbe disporre di risorse e autorità sufficienti per accedere direttamente all'organo di gestione più alto del fornitore della piattaforma online e dovrebbe rappresentare il punto di contatto centrale per le autorità di regolamentazione, gli utenti e i segnalatori attendibili per le questioni relative alla tutela della vita privata, alla sicurezza e alla protezione dei minori;

c.la promozione di una cultura di tutela della vita privata, di sicurezza e di protezione dei minori sul servizio. Ciò significa, tra l'altro:

I.promuovere e dare priorità a una cultura della partecipazione dei minori alla progettazione e al funzionamento della piattaforma. Questo dovrebbe avvenire in modo sicuro, etico, inclusivo e significativo, nell'interesse superiore dei minori, e a tal fine dovrebbero essere previsti meccanismi di feedback per spiegare ai minori come sono state prese in considerazione le loro opinioni ( 91 );

II.sensibilizzare in merito alle modalità con cui il fornitore difende i diritti dei minori sulla sua piattaforma e ai rischi cui possono essere esposti i minori sulla piattaforma in relazione alla loro vita privata, alla loro sicurezza e/o alla loro protezione ( 92 ); 

III.informare adeguatamente le persone responsabili della tutela della vita privata, della sicurezza e della protezione dei minori, gli sviluppatori, le persone incaricate della moderazione e/o quelle che ricevono segnalazioni o reclami da parte di minori, e offrire loro corsi di formazione appropriati ( 93 );

IV.disporre di procedure per garantire un controllo periodo della conformità all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065;

V.provvedere affinché le soluzioni tecnologiche e organizzative adottate per attuare i presenti orientamenti siano "all'avanguardia" e conformi agli orientamenti nazionali in materia di protezione dei minori ( 94 ), ai diritti dei minori e ai più rigorosi standard disponibili ( 95 );

VI.la messa in atto di un processo per la raccolta e la registrazione periodiche dei dati sui danni e sui rischi connessi alla vita privata, alla sicurezza e alla protezione dei minori sulla piattaforma, che dovrebbero essere comunicati periodicamente alla direzione del fornitore e alla persona o al gruppo designato per la protezione dei minori. Ciò lascia impregiudicati gli obblighi dei fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi derivanti dagli articoli 34 e 35 del regolamento (UE) 2022/2065;

VII.realizzare scambi di buone pratiche e soluzioni tecnologiche tra piattaforme e fornitori, nonché con i coordinatori dei servizi digitali, i segnalatori attendibili, le organizzazioni della società civile, il mondo accademico e altri portatori di interessi, finalizzati a garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione per i minori. La collaborazione tra piattaforme dovrebbe riguardare anche l'individuazione dei rischi, le norme di progettazione e la collaborazione nel campo della ricerca con soggetti affidabili.

8.2Condizioni generali

85.Le condizioni generali rappresentano un quadro che consente di disciplinare la relazione tra il fornitore della piattaforma online e i suoi utenti. Stabiliscono le norme e le aspettative riguardo ai comportamenti online e svolgono un ruolo importante nella creazione di un ambiente sicuro, protetto e rispettoso della vita privata ( 96 ).

86.La Commissione ricorda gli obblighi previsti per tutti i prestatori di servizi intermediari dall'articolo 14 del regolamento (UE) 2022/2065 in relazione alle condizioni generali, tra cui l'obbligo di spiegare le condizioni e le restrizioni che si applicano all'utilizzo del servizio in un linguaggio chiaro, semplice, comprensibile, facilmente fruibile e privo di ambiguità. L'articolo 14, paragrafo 3, di tale regolamento specifica inoltre che i servizi intermediari destinati principalmente a minori o utilizzati in prevalenza da questi dovrebbero fornire tali informazioni in modo comprensibile per i minori ( 97 ) ( 98 ).

87.La Commissione ritiene inoltre che i fornitori di piattaforme online accessibili ai minori dovrebbero garantire che le condizioni generali del servizio che forniscono:

a.contengano informazioni riguardanti:

I.le azioni che gli utenti devono intraprendere dalla creazione dell'account fino alla relativa cancellazione;

II.gli orientamenti della comunità volti a promuovere un'atmosfera positiva, sicura e inclusiva e a spiegare quali sono i comportamenti attesi e quali quelli vietati, e le conseguenze dell'inosservanza;

III.i tipi di contenuti e comportamenti considerati dannosi per la vita privata, la sicurezza e/o la protezione dei minori. Tra questi figurano, tra l'altro, i contenuti illegali dannosi per la vita privata, la sicurezza e/o la protezione dei minori e la diffusione di tali contenuti;

IV.il modo in cui i minori sono protetti da tali contenuti e comportamenti;

V.gli strumenti utilizzati per prevenire, attenuare e moderare contenuti, comportamenti e funzioni illegali o dannosi per la vita privata, la sicurezza e la protezione dei minori e il processo per presentare reclami;

b.siano facilmente individuabili e consultabili durante tutta l'esperienza dell'utente sulla piattaforma;

c.non limitino indebitamente i diritti dei minori, compreso il loro diritto alla libertà di espressione e informazione;

d.siano rispettati e attuati nella pratica.

88.La Commissione ritiene inoltre che i fornitori di piattaforme online accessibili ai minori dovrebbero provvedere affinché le modifiche delle condizioni generali siano registrate e pubblicate ( 99 ).

Buona pratica

HappyExplore è una piattaforma online in cui i minori possono giocare, creare ed esplorare creature e mondi che possono condividere tra loro. HappyExplore ha un personaggio chiamato "Pixel Pioneer", che insegna agli utenti come essere esploratori responsabili. Tutti gli utenti sono incoraggiati a aderire al "patto di gentilezza", attraverso il quale imparano e si impegnano a comportarsi in modo gentile e sicuro online. Pixel Pioneer spiega inoltre agli utenti l'importanza della moderazione e delle decisioni sulla sicurezza man mano che esplorano la piattaforma, ad esempio per quale motivo dovrebbero riflettere attentamente prima di condividere le loro creature o i loro mondi.

8.3Monitoraggio e valutazione

89.La Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero adottare pratiche di monitoraggio e di valutazione efficaci per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio ai fini dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065. Ciò significa, tra l'altro:

a.monitorare e valutare periodicamente l'efficacia di qualsiasi elemento della piattaforma che interessi la vita privata, la sicurezza e la protezione dei minori sulla piattaforma. Tra tali elementi figurano, ad esempio, l'interfaccia online, i sistemi, le impostazioni, gli strumenti, le funzionalità e le caratteristiche della piattaforma e i meccanismi di segnalazione, di feedback e di reclamo, nonché le misure adottate per conformarsi all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065 ( 100 ). I fornitori dovrebbero valutare la possibilità di mettere tali valutazioni a disposizione di terzi indipendenti, quali esperti o altri portatori di interessi, affinché possano riesaminarle e fornire i loro contributi;

b.consultare periodicamente i minori, i tutori, il mondo accademico, le organizzazioni della società civile, gli esperti in materia di diritti dei minori e altri portatori di interessi in merito alla progettazione e alla valutazione di qualsiasi elemento della piattaforma che riguardi la tutela della vita privata, la sicurezza e la protezione dei minori sulla piattaforma. Ciò dovrebbe includere la sperimentazione di tali elementi insieme ai minori e la necessità di tenere in considerazione il loro feedback. Per contribuire alla non discriminazione e all'accessibilità, i fornitori dovrebbero, ove possibile, coinvolgere in tali consultazioni i minori provenienti da contesti culturali e linguistici diversi, di età diverse, con disabilità e/o esigenze di accessibilità aggiuntive;

c.adeguare la progettazione e il funzionamento dei suddetti elementi sulla base dei risultati di tali consultazioni e degli sviluppi tecnici, della ricerca, dei cambiamenti nel comportamento degli utenti o nelle relative politiche, dell'evoluzione dei prodotti e del loro utilizzo e dei cambiamenti concernenti i danni e i rischi per la vita privata, la sicurezza e la protezione dei minori sulla loro piattaforma.

8.4Trasparenza 

90.La Commissione ricorda gli obblighi di trasparenza di cui agli articoli 14, 15 e 24 del regolamento (UE) 2022/2065. Alla luce delle fasi di sviluppo e delle capacità in evoluzione dei minori, sono necessarie ulteriori considerazioni sulla trasparenza del funzionamento delle piattaforme online per garantire il rispetto dell'articolo 28, paragrafo 1, di tale regolamento.

91.La Commissione ritiene che i fornitori di piattaforme online accessibili ai minori dovrebbero rendere facilmente accessibili a questi ultimi tutte le informazioni necessarie sul funzionamento dei loro servizi, al fine di garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione su tali servizi. La Commissione ritiene che i fornitori di piattaforme online dovrebbero mettere a disposizione dei minori e, se del caso, dei loro tutori, su un'interfaccia accessibile sulle loro piattaforme online, le informazioni seguenti:

a.informazioni sulle misure messe in atto per garantire un elevato livello di tutela della vita privata, di sicurezza e/o di protezione dei minori sulla piattaforma. Ciò comprende informazioni riguardanti:

I.i metodi di accertamento dell'età utilizzati, le modalità di funzionamento di tali metodi e i soggetti terzi eventualmente incaricati di fornire metodi di verifica o di stima dell'età;

II.il funzionamento dei sistemi di raccomandazione utilizzati in tutta la piattaforma e le diverse opzioni a disposizione degli utenti (cfr. la sezione 6.5.2 sul controllo e la responsabilizzazione degli utenti);

III.le procedure per rispondere a eventuali segnalazioni, feedback e reclami presentati o trasmessi da minori, compresi i calendari indicativi di tali procedure, nonché i possibili risultati e l'impatto delle stesse;

IV.gli strumenti, i prodotti e le funzioni di IA integrati nella piattaforma, le relative limitazioni e le possibili conseguenze del loro utilizzo;

V.il processo di registrazione, se previsto;

VI.gli strumenti offerti per i tutori, con una spiegazione di come utilizzarli e del modo in cui proteggono i minori online, e i tipi di informazioni circa l'attività online del minore che i tutori possono ottenere utilizzando tali strumenti;

VII.le modalità di moderazione dei contenuti che violano le condizioni generali della piattaforma e le conseguenze di tale moderazione;

VIII.le modalità di utilizzo dei diversi strumenti di segnalazione, reclamo, ricorso e sostegno di cui ai presenti orientamenti;

IX.le condizioni generali della piattaforma online;

X.qualsiasi altra misura raccomandata nei presenti orientamenti e messa in atto dal fornitore della piattaforma online;

XI.qualsiasi altra misura adottata, o modifica apportata ai loro servizi, per garantire un elevato livello di tutela della vita privata, di sicurezza o di protezione dei minori sulla piattaforma;

b.garantire che tali informazioni, tutte le avvertenze e qualsiasi altra comunicazione raccomandata nei presenti orientamenti siano:

I.a misura di minore, adeguate all'età, di facile comprensione e facilmente accessibili a tutti i minori, compresi quelli con disabilità e/o con esigenze di accessibilità aggiuntive;

II.presentate in modo chiaro, facilmente comprensibile e quanto più semplice e succinto possibile. Ad esempio, quando le condizioni generali fanno riferimento a una funzione specifica, le informazioni essenziali su tale funzione vengono presentate quando il minore interagisce con essa;

III.presentate al minore in modi che ne agevolino la consultazione e che consentano un accesso immediato e intuitivo, nei momenti in cui diventano rilevanti;

IV.presentate nella lingua o nelle lingue ufficiali dello Stato membro in cui è prestato il servizio;

V.coinvolgenti per i minori. A tal fine può essere necessario l'uso di grafici, video e/o personaggi o altre tecniche;

VI.trasmesse ai minori in modo graduale e nel corso del tempo, per massimizzarne l'assimilazione da parte dell'utente;

c.le misure e le modifiche attuate per conformarsi all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065 potrebbero essere comunicate internamente e rese pubbliche nella misura del possibile.

Buona pratica

HappyTerms è una piattaforma online rivolta ai giovani di età compresa tra i 13 e i 18 anni. Offre ai minori la possibilità di partecipare a comunità e di scambiare idee e informazioni su interessi comuni. HappyTerms mostra informazioni sulle proprie condizioni generali con titoli chiari accompagnati da icone esplicative e immagini colorate. Le norme sono suddivise in sezioni brevi e di facile lettura e sono spiegate in un linguaggio semplice. Vi sono anche infografiche che aiutano i minori a capire le condizioni che si apprestano ad accettare, e che appaiono nel momento in cui diventano rilevanti per una determinata funzione o modifica delle impostazioni. Gli utenti possono anche trovare le norme cliccando su "Che cosa devo sapere", un'icona che indirizza gli utenti verso le norme pertinenti, gli strumenti correlati e i link utili figuranti in qualsiasi parte della piattaforma. HappyTerms offre inoltre un quiz interattivo con cui i minori possono verificare se hanno compreso le condizioni generali.

9Riesame

92.La Commissione riesaminerà i presenti orientamenti non appena ciò si renderà necessario e al più tardi dopo un periodo di 12 mesi, alla luce dell'esperienza pratica acquisita nell'applicazione dell'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065 e del ritmo degli sviluppi tecnologici, sociali e normativi in questo settore.

93.La Commissione incoraggerà i fornitori di piattaforme online accessibili ai minori, i coordinatori dei servizi digitali, le autorità nazionali competenti, la comunità della ricerca e le organizzazioni della società civile a contribuire a tale processo. A seguito di tale riesame, la Commissione, in consultazione con il comitato europeo per i servizi digitali, potrà decidere di modificare i presenti orientamenti.

Allegato

Tipologia "5C" dei rischi online per i minori

94.L'OCSE ( 101 ) e i ricercatori ( 102 ) hanno classificato i rischi ( 103 ) cui i minori possono essere esposti online per consentire ai fornitori di piattaforme online accessibili ai minori, al mondo accademico e ai responsabili delle politiche di comprenderli e analizzarli meglio. Questa classificazione dei rischi è nota come tipologia "5C" dei rischi online per i minori. Contribuisce a individuare i rischi e comprende cinque categorie di rischi: i rischi legati ai contenuti (content), i rischi legati ai comportamenti (conduct), i rischi legati ai contatti (contact), i rischi per i consumatori (consumer) e i rischi trasversali (cross-cutting). Tali rischi possono manifestarsi quando non sono state messe in atto misure adeguate e proporzionate per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul servizio, il che può portare alla violazione di una serie di diritti dei minori.

95.Tipologia "5C" dei rischi online per i minori ( 104 )

Rischi per i minori nell'ambiente digitale

Categorie di rischio

Rischi legati ai contenuti

Rischi legati ai comportamenti

Rischi legati ai contatti

Rischi per i consumatori

Rischi trasversali

Rischi aggiuntivi per la vita privata, la sicurezza e la protezione

Rischi tecnologici avanzati

Rischi per la salute e il benessere

Rischi legati all'uso improprio

Manifestazione del rischio

Contenuti d'odio

Comportamenti d'odio

Incontri d'odio

Rischi legati al marketing

Contenuti dannosi

Comportamenti dannosi

Incontri dannosi

Rischi legati alla profilazione commerciale

Contenuti illegali

Comportamenti illegali

Incontri illegali

Rischi finanziari

Disinformazione

Comportamenti problematici generati dagli utenti

Altri incontri problematici

Rischi per la sicurezza

96.Rischi legati ai contenuti: i minori possono essere esposti inaspettatamente e involontariamente a contenuti che potrebbero danneggiarli: a) contenuti d'odio; b) contenuti dannosi; c) contenuti illegali; d) disinformazione. Generalmente si ritiene che questi tipi di contenuti abbiano gravi conseguenze negative per la salute mentale e il benessere fisico dei minori: si tratta ad esempio di contenuti che promuovono l'autolesionismo, il suicidio, i disturbi alimentari o la violenza estrema. 

97.Rischi legati ai comportamenti: si riferiscono a comportamenti che i minori possono adottare attivamente online e che possono comportare rischi sia per se stessi che per altri, ad esempio a) comportamenti d'odio (ad esempio, minori che pubblicano/inviano contenuti/messaggi d'odio); b) comportamenti dannosi (ad esempio, minori che pubblicano/inviano contenuti violenti o pornografici); c) comportamenti illeciti (ad esempio, minori che pubblicano/inviano materiale pedopornografico o contenuti terroristici); e d) comportamenti problematici generati dagli utenti (ad esempio partecipazione a sfide pericolose; sexting). 

98.Rischi legati ai contatti: si riferiscono a situazioni in cui i minori, invece di agire, sono vittime dell'interazione: a) incontri d'odio; b) incontri dannosi (ad esempio, un incontro che ha luogo con l'intenzione di arrecare danno al minore); c) incontri illegali (ad esempio perseguibili penalmente); e d) altri incontri problematici. Tra gli esempi di rischi legati ai contatti figurano, tra l'altro, l'adescamento online, la coercizione e l'estorsione sessuale online, gli abusi sessuali attraverso la webcam, il bullismo online e la tratta di esseri umani a fini di sfruttamento sessuale. Tali rischi si estendono anche alle pratiche fraudolente online quali il phishing, le frodi sul mercato online e il furto d'identità. 

99.Rischi per i consumatori: i minori possono essere esposti anche a rischi in quanto consumatori nell'economia digitale: a) rischi legati al marketing (ad esempio scatole premio, videogiochi promozionali); b) rischi legati alla profilazione commerciale (ad esempio inserimento di prodotti o ricezione di annunci pubblicitari destinati agli adulti, come servizi di incontri); c) rischi finanziari (ad esempio frode o spesa di ingenti somme di denaro all'insaputa o senza il consenso dei tutori); d) rischi per la sicurezza ed e) rischi connessi all'acquisto e al consumo di droghe, medicinali, alcolici e altri prodotti illegali o pericolosi. I rischi per i consumatori comprendono anche i rischi legati ai contratti, ad esempio la vendita dei dati degli utenti o condizioni generali inique. 

100.Rischi trasversali: interessano tutte le categorie di rischio e sono considerati altamente problematici in quanto possono incidere in misura significativa e in vari modi sulla vita dei minori. Si tratta di:  

a.rischi tecnologici avanzati: comportano per i minori l'esposizione a nuovi pericoli legati all'evoluzione della tecnologia, come i chatbot di IA che potrebbero fornire informazioni dannose o essere utilizzati per l'adescamento sfruttando le vulnerabilità, o l'uso di tecnologie biometriche che possono portare ad abusi, frodi di identità ed esclusione;

b.rischi per la salute e il benessere: comprendono i potenziali danni al benessere mentale, emotivo o fisico dei minori. Ad esempio, l'aumento dell'obesità/anoressia e dei problemi di salute mentale legati all'uso o all'uso eccessivo delle piattaforme online, che in alcuni casi possono avere ripercussioni negative sulla salute fisica e mentale e sul benessere dei minori, quali dipendenza, depressione, disturbi di ansia, alterazione dei modelli del sonno e isolamento sociale;  

c.ulteriori rischi per la vita privata e la protezione dei dati: derivano dall'accesso alle informazioni sui minori e dal pericolo che i predatori sfruttino le funzioni di geolocalizzazione per localizzare e avvicinare i minori. 

101.Altri rischi trasversali ( 105 ) possono includere:

a.ulteriori rischi per la sicurezza e la protezione: riguardano la sicurezza dei minori, in particolare l'incolumità fisica, nonché tutte le questioni relative alla cibersicurezza; 

b.rischi legati all'uso improprio: riguardano i rischi o i danni ai minori derivanti dall'uso improprio della piattaforma online o delle sue funzioni.

(1) ()    Nei presenti orientamenti, per "minori" e "bambini" si intendono le persone di età inferiore ai 18 anni.
(2) ()    Nei presenti orientamenti, per "tutori" si intendono le persone titolari della responsabilità genitoriale.
(3) ()    Fra i contenuti illegali figurano, tra l'altro, quelli che rappresentano il traffico illecito di stupefacenti, i contenuti terroristici ed estremisti violenti e il materiale pedopornografico. La definizione di ciò che costituisce un contenuto illegale non è prevista dal regolamento (UE) 2022/2065 (regolamento sui servizi digitali), bensì da altre normative a livello di UE o nazionale.
(4) ()    Nell'allegato I dei presenti orientamenti è contenuta una tipologia dei rischi ai quali sono esposti i minori che accedono alle piattaforme online, basata su un quadro elaborato dall'OCSE.
(5) ()    Cfr. la sezione 6.1 sull'accertamento dell'età.
(6) ()    Regolamento (UE) 2022/2065 del Parlamento europeo e del Consiglio, del 19 ottobre 2022, relativo a un mercato unico dei servizi digitali e che modifica la direttiva 2000/31/CE (regolamento sui servizi digitali) (GU L 277 del 27.10.2022, pag. 1).
(7) ()    Regolamento (UE) 2016/679 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati (GDPR) (GU L 119 del 4.5.2016, pag. 1).
(8)

()    L'articolo 3 del regolamento (UE) 2022/2065 definisce una "piattaforma online" come "un servizio di memorizzazione di informazioni che, su richiesta di un destinatario del servizio, memorizza e diffonde informazioni al pubblico, tranne qualora tale attività sia una funzione minore e puramente accessoria di un altro servizio o funzionalità minore del servizio principale e, per ragioni oggettive e tecniche, non possa essere utilizzata senza tale altro servizio e a condizione che l'integrazione di tale funzione o funzionalità nell'altro servizio non sia un mezzo per eludere l'applicabilità del presente regolamento".

(9) ()    Nella raccomandazione 2003/361/CE si definisce "piccola impresa" un'impresa che occupa meno di 50 persone e realizza un fatturato annuo o un totale di bilancio annuo non superiori a 10 milioni di EUR. Si definisce "microimpresa" un'impresa che occupa meno di 10 persone e realizza un fatturato annuo oppure un totale di bilancio annuo non superiori a 2 milioni di EUR. La Commissione richiama in questa sede il considerando 10 del regolamento (UE) 2022/2065, in cui si afferma che tale regolamento non pregiudica la direttiva 2010/13/UE. La suddetta direttiva impone a tutti i fornitori di piattaforme per la condivisione di video, indipendentemente dalla loro qualifica di microimprese o piccole imprese, di istituire e gestire sistemi di verifica dell'età per gli utenti di tali piattaforme in relazione ai contenuti che potrebbero nuocere allo sviluppo fisico o mentale dei minori.
(10) ()    Fra questi figurano gli obblighi contenuti nelle seguenti disposizioni del regolamento (UE) 2022/2065: l'articolo 14 relativo a termini e condizioni, gli articoli 16 e 17 sui meccanismi di segnalazione e azione e sulla motivazione, l'articolo 25 sulla progettazione e organizzazione delle interfacce online, gli articoli 15 e 24 sulla trasparenza, l'articolo 26 sulla pubblicità, l'articolo 27 sui sistemi di raccomandazione e l'articolo 44 sulle norme.
(11) ()    Sono qui comprese, tra l'altro, le seguenti disposizioni del regolamento (UE) 2022/2065: gli articoli 34 e 35 sulla valutazione del rischio e l'attenuazione dei rischi, l'articolo 38 sui sistemi di raccomandazione, l'articolo 40 sull'accesso ai dati e controllo e l'articolo 44, lettera j), sulle norme per misure mirate a tutela dei minori online.
(12) ()    Tra queste figurano anche gli articoli 34 e 35 sulla valutazione del rischio e l'attenuazione dei rischi, l'articolo 38 sui sistemi di raccomandazione e l'articolo 40 sull'accesso ai dati e controllo.
(13)

()    Tra questi figurano la strategia per un'internet migliore per i ragazzi (BIK+), la direttiva 2010/13/UE ("direttiva sui servizi di media audiovisivi"), il regolamento (UE) 2024/1689 ("regolamento sull'IA"), il regolamento (UE) 2016/679 ("GDPR"), la direttiva 2011/93/UE relativa alla lotta contro l'abuso e lo sfruttamento sessuale dei minori, la direttiva 2005/29/CE relativa alle pratiche commerciali sleali ("direttiva sulle pratiche commerciali sleali"), il portafoglio europeo di identità digitale e la soluzione a breve termine per la verifica dell'età, il prossimo piano d'azione contro il bullismo online, l'indagine a livello di Unione sugli impatti più ampi dei social media sul benessere, la strategia europea di sicurezza interna, la tabella di marcia dell'UE per contrastare il traffico di droga e la criminalità organizzata, il Forum dell'UE su internet, la strategia dell'UE per una lotta più efficace contro gli abusi sessuali su minori e la strategia dell'UE per la lotta alla tratta degli esseri umani 2021-2025. Inoltre, il regolamento (UE) 2022/2065 non pregiudica il diritto dell'Unione in materia di tutela dei consumatori e sicurezza dei prodotti, compresi i regolamenti (UE) 2017/2394 e (UE) 2019/1020 e le direttive 2001/95/CE e 2013/11/UE. Anche la direttiva 2005/29/CE relativa alle pratiche commerciali sleali, in particolare agli articoli da 5 a 9, tutela i minori e, ad esempio, l'allegato I, punto 28 vieta di includere in un messaggio pubblicitario un'esortazione diretta ai bambini affinché acquistino o convincano i genitori o altri adulti ad acquistare loro i prodotti reclamizzati. La Commissione ricorda inoltre il controllo, da parte della Commissione europea, dell'adeguatezza del diritto dei consumatori dell'UE in materia di equità digitale.  

(14) ()    L'adozione e l'attuazione di qualsiasi misura stabilita nei presenti orientamenti non comportano il rispetto del GDPR o di qualsiasi altra normativa applicabile in materia di protezione dei dati. Nel determinare la conformità all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065, le autorità competenti sono pertanto incoraggiate a cooperare con le autorità di protezione dei dati.
(15) ()    La Commissione ha elaborato gli orientamenti conducendo ricerche documentali approfondite e raccogliendo i riscontri dei portatori di interessi attraverso un invito a presentare contributi e l'organizzazione di laboratori e di consultazioni pubbliche mirate. Si è inoltre avvalsa, in tutti i processi, delle competenze del centro europeo per la trasparenza algoritmica. La Commissione ha anche consultato i giovani, compresi i giovani ambasciatori di "Internet migliore per i ragazzi", e ha organizzato gruppi di riflessione con minori in sette Stati membri, con il sostegno dei centri per un'internet più sicura.
(16) ()    Fra queste figurano le direttive e i regolamenti citati nella nota 13 e i prossimi orientamenti del comitato europeo per la protezione dei dati (EDPB) sul trattamento dei dati personali dei minori a norma del regolamento (UE) 2016/679 (GDPR).
(17) ()    An Coimisiún um Chosaint Sonraí (2021), Fundamentals for a child-oriented approach to data processing, disponibile all'indirizzo: https://www.dataprotection.ie/sites/default/files/uploads/2021-12/Fundamentals%20for%20a%20Child-Oriented%20Approach%20to%20Data%20Processing_FINAL_EN.pdf; Coimisiún na Meán (2024), Online safety code, disponibile all'indirizzo: https://www.cnam.ie/app/uploads/2024/11/Coimisiun-na-Mean-Online-Safety-Code.pdf; IMY (Autorità svedese per la tutela della vita privata) (2021), The rights of children and young people on digital platforms, disponibile all'indirizzo: https://www.imy.se/en/publications/the-rights-of-children-and-young-people-on-digital-platforms/; ministero neerlandese degli Affari interni e delle relazioni del Regno (2022), Code for children's rights, disponibile all'indirizzo: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf .CNIL (2021), CNIL publishes 8 recommendations to enhance protection of children online, disponibile all'indirizzo: https://www.cnil.fr/en/cnil-publishes-8-recommendations-enhance-protection-children-online; Unabhängiger Beauftragter für Fragen des sexuellen Kindesmissbrauchs (s.d.), Rechtsfragen Digitales, disponibile all'indirizzo: https://beauftragte-missbrauch.de/themen/recht/rechtsfragen-digitales; CEN-CENELEC (2023), Workshop Agreement 18016 Age appropriate digital services framework , disponibile al seguente indirizzo: https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf ; OCSE (2021), Children in the digital environment - Revised typology of risks, disponibile all'indirizzo: https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.
(18) ()    Tali diritti sono elaborati dal Comitato delle Nazioni Unite sui diritti dell'infanzia e dell'adolescenza per quanto riguarda l'ambiente digitale nell'osservazione generale n. 25; Ufficio dell'Alto commissario per i diritti umani (2021), Commento generale n. 25 (2021) sui diritti dei minorenni in relazione all'ambiente digitale, disponibile all'indirizzo: https://www.ohchr.org/en/documents/general-comments-and-recommendations/general-comment-no-25-2021-childrens-rights-relation.
(19) ()    I bambini hanno diritto alla protezione e alle cure necessarie per il loro benessere (articolo 24 della Carta).
(20) ()    Essi possono esprimere liberamente la propria opinione; questa viene prese in considerazione sulle questioni che li riguardano in funzione della loro età e della loro maturità (articolo 24 della Carta).
(21) ()    A tale riguardo, la Commissione ricorda l'importanza dell'accessibilità, anche secondo quanto stabilito dalla direttiva (UE) 2016/2102 del Parlamento europeo e del Consiglio, del 26 ottobre 2016, relativa all'accessibilità dei siti web e delle applicazioni mobili degli enti pubblici ("direttiva sull'accessibilità del web"), nonché della partecipazione dei minori in tutte le fasi di progettazione, attuazione e valutazione di tutte le misure di sicurezza, protezione e tutela della vita privata riguardanti i minori online.
(22) ()    Ai sensi dell'articolo 25 GDPR, gli operatori che trattano dati personali dei minori devono già mettere in atto misure organizzative e tecniche adeguate per tutelare i diritti dell'interessato (protezione dei dati fin dalla progettazione e protezione dei dati per impostazione predefinita). Tale obbligo è applicato dalle autorità competenti per la protezione dei dati in linea con l'articolo 51 GDPR. Cfr. EDPB, Linee guida 4/2019 sull'articolo 25 – Protezione dei dati fin dalla progettazione e per impostazione predefinita, disponibile all'indirizzo: https://www.edpb.europa.eu/our-work-tools/our-documents/guidelines/guidelines-42019-article-25-data-protection-design-and_it.
(23) ()    OCSE (2024), Towards Digital Safety by Design for Children, disponibile all'indirizzo: https://doi.org/10.1787/c167b650-en.
(24) ()    A tal fine è necessario dare priorità alle caratteristiche, alle funzionalità, ai contenuti o ai modelli compatibili con le capacità in evoluzione dei minori, nonché tenere conto delle differenze socioculturali. Una progettazione adeguata all'età è fondamentale per la tutela della vita privata, la sicurezza e la protezione dei minori: ad esempio, senza informazioni adeguate all'età i minori potrebbero non essere in grado di comprendere e utilizzare le funzioni, le impostazioni o altri strumenti relativi alla tutela della vita privata e alla sicurezza, o di beneficiarne. CEN-CENELEC (2023), Workshop Agreement 18016 Age appropriate digital services framework , disponibile all'indirizzo https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf; "Ages and developmental stages" disponibile tra l'altro come allegato del Code for Children's Rights dei Paesi Bassi, disponibile all'indirizzo: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf. 
(25) ()    Articolo 3 della Convenzione sui diritti dell'infanzia e dell'adolescenza; articolo 24 della Carta: il diritto del minore a che il suo interesse superiore sia valutato e considerato preminente in sede di esame dei diversi interessi, al fine di giungere a una decisione sulla questione in oggetto riguardante un minore, un gruppo di minori identificati o non identificati o i minori in generale. La determinazione dell'interesse superiore, ove necessario, non dovrebbe essere effettuata dalle imprese, bensì sulla base dell'intervento delle autorità competenti. LSE Digital Futures for Children (2024), The best interests of the child in the digital environment, disponibile all'indirizzo: https://www.digital-futures-for-children.net/digitalfutures-assets/digitalfutures- documents/Best-Interests-of-the-Child-FINAL.pdf.
(26) ()    Non discriminazione: i diritti dei minori si applicano a qualsiasi minore, senza alcuna discriminazione, ai sensi dell'articolo 21 della Carta. I diritti del minore, ai sensi dell'articolo 24 della Carta, comprendono il diritto alla protezione e alle cure necessarie per il suo benessere; i minori possono esprimere liberamente la propria opinione. Questa viene prese in considerazione sulle questioni che li riguardano in funzione della loro età e della loro maturità; in tutti gli atti relativi ai minori, siano essi compiuti da autorità pubbliche o da istituzioni private, l'interesse superiore del minore deve essere considerato preminente. I diritti dei minori comprendono anche, come per ogni persona, il diritto alla vita, sancito dall'articolo 2 della Carta, e il diritto al rispetto della loro integrità fisica e psichica ai sensi dell'articolo 3 della Carta. I diritti dei minori sono inoltre sanciti e ulteriormente specificati nella Convenzione delle Nazioni Unite sui diritti dell'infanzia e dell'adolescenza, ratificata da tutti gli Stati membri.
(27) ()    La Commissione ricorda in particolare le linee guida dell'EDPB in materia di valutazione d'impatto sulla protezione dei dati per determinare se il trattamento possa presentare un rischio elevato ai fini del regolamento (UE) 2016/679.
(28) ()    Esempi di modifiche significative sono l'introduzione di nuove caratteristiche che incidono sull'interazione con gli utenti, le modifiche riguardanti i sistemi di raccomandazione, le impostazioni degli account, la moderazione, le segnalazioni o altre caratteristiche di progettazione che modificherebbero sensibilmente l'esperienza dei minori sulla piattaforma, i cambiamenti nelle pratiche di raccolta dei dati, l'espansione a nuovi gruppi di utenti, l'integrazione di strumenti di IA generativa o le modifiche concernenti le misure di accertamento dell'età o i relativi fornitori.
(29) ()    UNICEF (2024), Children's rights impact assessment: A tool to support the design of AI and digital technology that respects children's rights, disponibile all'indirizzo: https://www.unicef.org/childrightsandbusiness/workstreams/responsible-technology/D-CRIA; (2021) MO-CRIA: Child Rights Impact Self-Assessment Tool for Mobile Operators, disponibile all'indirizzo: https://www.unicef.org/reports/mo-cria-child-rights-impact-self-assessment-tool-mobile-operators.
(30) ()    Ministero neerlandese degli Affari interni e delle relazioni del Regno (BZK) (2024), Child Rights Impact Assessment (Fillable Form), disponibile all'indirizzo: https://www.nldigitalgovernment.nl/document/childrens-rights-impact-assessment-fill-in-document/.
(31) ()    Cfr. in particolare il capitolo 14 dell'accordo CEN-CENELEC (2023) Workshop Agreement 18016 Age appropriate digital services framework , disponibile all'indirizzo: https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf.
(32)

() Commissione europea: direzione generale delle Reti di comunicazione, dei contenuti e delle tecnologie, Center for Law and Digital Technologies (eLaw), LLM, Raiz Shaffique, M. e van der Hof, S. (2024), Mapping age assurance typologies and requirements – Research report, disponibile all'indirizzo: https://data.europa.eu/doi/10.2759/455338.

(33) ()    Ibidem; CEN-CENELEC (2023), Workshop Agreement 18016 Age Appropriate Digital Services Framework , https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf.
(34)

() L'analisi dei rischi e gli strumenti di valutazione d'impatto sui diritti dei minori di cui alla sezione 5 sull'analisi dei rischi possono aiutare i fornitori di piattaforme online a effettuare tale valutazione.

(35) ()    Cfr. EDPB, Dichiarazione 1/2025 sulla garanzia dell'età, disponibile all'indirizzo: https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_it .
(36) ()    Tali rischi possono essere individuati mediante l'analisi dei rischi di cui alla sezione 5.
(37) ()    In tale contesto la Commissione ricorda gli obblighi previsti per gli Stati membri dalla direttiva (UE) 2015/1535 del Parlamento europeo e del Consiglio, del 9 settembre 2015, che prevede una procedura d'informazione nel settore delle regolamentazioni tecniche e delle regole relative ai servizi della società dell'informazione (GU L 241 del 17.9.2015, pag. 1) e le procedure pertinenti per i progetti di regole tecniche ivi previsti.
(38) ()    La Commissione sta attualmente sperimentando una soluzione UE di verifica dell'età per facilitare tale verifica nel rispetto dello standard richiesto nei presenti orientamenti, prima che diventi disponibile il portafoglio europeo di identità digitale. Altre soluzioni compatibili con lo standard stabilito nei presenti orientamenti potrebbero essere disponibili in commercio, oppure in alcuni Stati membri ma non in altri. I fornitori di piattaforme online che dimostrano l'esistenza di tale circostanza dovrebbero comunque iniziare a sperimentare e utilizzare metodi di verifica dell'età che rispettino i criteri di cui alla sezione 6.1.4 non appena tali metodi diventino disponibili. Tale periodo transitorio può essere adeguato alla luce dell'introduzione della soluzione UE di verifica dell'età.
(39) ()    . Una panoramica dei diversi metodi di stima dell'età è disponibile nel seguente documento della Commissione europea: direzione generale delle Reti di comunicazione, dei contenuti e delle tecnologie, Center for Law and Digital Technologies (eLaw), LLM, Raiz Shaffique, M. e van der Hof, S. (2024), Mapping age assurance typologies and requirements – Research report, disponibile all'indirizzo: https://data.europa.eu/doi/10.2759/455338.
(40) ()    Il prestatore di servizi deve solo sapere se l'utente è al di sopra o al di sotto di una soglia di età. Ciò dovrebbe essere attuato mediante un approccio tokenizzato basato sulla partecipazione di un prestatore di servizi terzo, in cui il prestatore di servizi vede solo il risultato funzionale del processo di accertamento dell'età (ad esempio, "superiore" o "inferiore" alla soglia di età). Un prestatore terzo esegue una verifica dell'età e fornisce all'utente un "token di età" che questi può presentare al prestatore di servizi senza dover dimostrare nuovamente la propria età. Il token di età può contenere diversi attributi dell'utente e informazioni su quando, dove o come è stata effettuata la verifica dell'età. Cfr. anche EDPB, Dichiarazione 1/2025 sulla garanzia dell'età, disponibile all'indirizzo: https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_it .
(41) ()    Una dimostrazione a conoscenza zero (zero-knowledge proof) è un protocollo in cui una parte (il dimostratore) può dimostrare a un'altra parte (il verificatore) che una determinata affermazione è vera, senza trasmettere al verificatore alcuna informazione oltre alla semplice veridicità dell'affermazione.
(42) ()    Come previsto al capo II, sezione 1, del regolamento (UE) n. 910/2014, come modificato dal regolamento (UE) 2024/1183.
(43) ()    Lo standard di riferimento dell'UE è disponibile all'indirizzo https://ageverification.dev.
(44) ()    Tali metodi sono pienamente in linea con l'invito, di cui al punto 34 della dichiarazione 1/2025 dell'EDPB sull'accertamento dell'età, a tenere debitamente conto di soluzioni che impediscano l'associazione e la profilazione. Queste impostazioni, intese a tutelare la vita privata, incontrano il favore anche della ricerca accademica in quanto sono scalabili, inclusive ed efficaci nel ridurre al minimo i rischi per i minori, garantendo nel contempo il rispetto dei diritti fondamentali. Disponibile all'indirizzo: https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_it .
(45) ()    Il fatto di ricorrere alla verifica dell'età in questi casi non pregiudica eventuali obblighi distinti a carico del fornitore, ad esempio l'obbligo per quest'ultimo di valutare se il minore, in quanto consumatore, abbia un'età sufficiente per concludere legalmente un contratto. Ciò dipende dalla legge applicabile dello Stato membro in cui risiede il minore.
(46) ()    In alcuni casi il fornitore potrebbe avere la possibilità di verificare se il minore è stato iscritto dai suoi tutori.
(47) ()    Tali rischi possono essere individuati mediante l'analisi dei rischi di cui alla sezione 5.
(48) ()    Tutti gli esempi di buone e cattive pratiche contenuti nei presenti orientamenti fanno riferimento a piattaforme online fittizie.
(49) ()    Il fornitore potrebbe voler integrare tale meccanismo nel suo sistema interno di gestione dei reclami a norma dell'articolo 20. Cfr. anche la sezione 7.1 del presente documento.
(50) ()    Un accertamento non adeguato dell'età può comportare l'esclusione di destinatari che sarebbero di per sé ammissibili a utilizzare un servizio, oppure consentire a destinatari non ammissibili di accedere al servizio nonostante la misura di accertamento dell'età messa in atto.
(51) ()    Un accertamento inadeguato dell'età può creare rischi indebiti per i diritti dei destinatari alla protezione dei dati e alla vita privata, mentre un accertamento generalizzato dell'età potrebbe limitare l'accesso ai servizi in misura superiore rispetto a quanto effettivamente necessario.
(52) ()    Cfr. il considerando 71 del regolamento (UE) 2022/2065, che sottolinea la necessità che i fornitori rispettino il principio della minimizzazione dei dati di cui all'articolo 5, paragrafo 1, lettera c), del regolamento (UE) 2016/679.
(53) ()    Cfr. EDPB, Dichiarazione 1/2025 sulla garanzia dell'età, punti 2.3 e 2.4. Disponibile all'indirizzo: https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_it .
(54) ()    Commissione europea: direzione generale delle Reti di comunicazione, dei contenuti e delle tecnologie, Center for Law and Digital Technologies (eLaw), LLM, Raiz Shaffique, M. e van der Hof, S. (2024), Mapping age assurance typologies and requirements – Research report, disponibile all'indirizzo: https://data.europa.eu/doi/10.2759/455338.
(55) ()    Restano impregiudicati gli obblighi supplementari derivanti da altre disposizioni, come l'articolo 12 del regolamento (UE) 2016/679.
(56) ()    Come indicato nella sezione 6.1, la Commissione non considera l'autodichiarazione un metodo di accertamento dell'età adeguato per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori conformemente all'articolo 28, paragrafo 1, del regolamento (UE) 2022/2065.
(57)

() Willis, L. E. (2014), "Why not privacy by default?", Berkeley Technology Law Journal, 29(1), 61, disponibile all'indirizzo: https://www.btlj.org/data/articles2015/vol29/29_1/29-berkeley-tech-l-j-0061-0134.pdf; Cho, H., Roh, S., & Park, B. (2019), "Of promoting networking and protecting privacy: Effects of defaults and regulatory focus on social media users' preference settings", Computers in Human Behavior, 101, 1-13, disponibile all'indirizzo: https://doi.org/10.1016/j.chb.2019.07.001. Tra gli esempi di impostazioni che possono mettere a rischio la vita privata, la sicurezza o la protezione dei minori figurano, tra l'altro, l'attivazione della condivisione della posizione, il passaggio a un profilo pubblico, il fatto di consentire ad altri utenti di visualizzare i propri elenchi di contatti o follower, di consentire la condivisione di file multimediali e di ospitare una diretta streaming o parteciparvi.

(58) ()    I minori attraversano diverse fasi di sviluppo e il loro livello di maturità e comprensione varia in funzione dell'età. Ciò è riconosciuto, tra l'altro, nel commento generale n. 25 sui diritti dei minorenni in relazione all'ambiente digitale del Comitato delle Nazioni Unite sui diritti dell'infanzia e dell'adolescenza, 2021, punti 19-21. Una tabella pratica sull'età e sulle fasi di sviluppo è disponibile, tra l'altro, come allegato del Code for Children's Rights dei Paesi Bassi, disponibile all'indirizzo: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf .
(59) ()    La Commissione ricorda che la direttiva 2005/29/CE vieta le pratiche commerciali sleali, tra cui quelle di cui all'allegato I, punto 7, consistenti nel "[d]ichiarare falsamente che il prodotto sarà disponibile solo per un periodo molto limitato o che sarà disponibile solo a condizioni particolari per un periodo di tempo molto limitato, in modo da ottenere una decisione immediata e privare i consumatori della possibilità o del tempo sufficiente per prendere una decisione consapevole.
(60) ()    La Commissione ricorda l'obbligo per i fornitori di sistemi di IA destinati a interagire direttamente con le persone fisiche di garantire che siano progettati e sviluppati in modo tale che le persone fisiche interessate siano informate del fatto che interagiscono con un sistema di IA a norma dell'articolo 50, paragrafo 1, del regolamento (UE) 2024/1689 ("regolamento sull'IA"). Qualsiasi misura adottata sulla base di questa raccomandazione dovrebbe essere intesa in conformità con le misure adottate per conformarsi all'articolo 50, paragrafo 1, del regolamento sull'IA, compreso il regime di vigilanza e di applicazione, e lasciare impregiudicate tali misure.
(61) ()    La Commissione ricorda gli orientamenti relativi alle pratiche di intelligenza artificiale vietate ai sensi del regolamento (UE) 2024/1689 (regolamento sull'IA).
(62) ()    Ai fini della presente sezione, la Commissione ricorda che, a norma dell'articolo 3, lettera s), del regolamento (UE) 2022/2065, i sistemi di raccomandazione comprendono i sistemi utilizzati per le raccomandazioni sui contenuti e sui prodotti, le raccomandazioni pubblicitarie, le raccomandazioni di contatto, il completamento automatico del testo nei campi di ricerca e i risultati della ricerca.
(63) ()    Munn, L. (2020), "Angry by design: Toxic communication and technical architectures", Humanities and Social Sciences Communications, 7(53), disponibile all'indirizzo: https://doi.org/10.1057/s41599-020-00550-7; Milli, S. et al. (2025), "Engagement, user satisfaction, and the amplification of divisive content on social media", PNAS Nexus, 4(3) pgaf062, disponibile all'indirizzo: https://doi.org/10.1093/pnasnexus/pgaf062; Piccardi, T. et al. (2024), Social Media Algorithms Can Shape Affective Polarization via Exposure to Antidemocratic Attitudes and Partisan Animosity, disponibile all'indirizzo: 10.48550/arXiv.2411.14652; Harriger, J. A., Evans, J. L., Thompson, J. K., & Tylka, T. L. (2022), "The dangers of the rabbit hole: Reflections on social media as a portal into a distorted world of edited bodies and eating disorder risk and the role of algorithms", Body Image, 41, 292-297, disponibile all'indirizzo: https://doi.org/10.1016/j.bodyim.2022.03.007; Amnesty International (2023), Driven into darkness: How TikTok's 'For You' feed encourages self-harm and suicidal ideation, disponibile all'indirizzo: https://www.amnesty.org/en/documents/pol40/7350/2023/en/; Hilbert, M., Ahmed, S., Cho, J., & Chen, Y. (2024), #BigTech @Minors: Social media algorithms quickly personalize minors' content, lacking equally quick protection, disponibile all'indirizzo: http://dx.doi.org/10.2139/ssrn.4674573; Sala, A., Porcaro, L., Gómez, E. (2024), "Social Media Use and adolescents' mental health and well-being: An umbrella review", Computers in Human Behavior Reports, Volume 14, 100404, ISSN 2451-9588, disponibile all'indirizzo: https://doi.org/10.1016/j.chbr.2024.100404.
(64) ()    La Commissione ricorda inoltre che altre normative dell'Unione o nazionali possono incidere sulla progettazione e sul funzionamento dei sistemi di raccomandazione, al fine di garantire la tutela degli interessi giuridici nell'ambito delle loro competenze, contribuendo a un elevato livello di tutela della vita privata, di sicurezza e di protezione dei diritti fondamentali online.
(65) ()    Ad esempio, il riscontro dei minori su contenuti, attività, individui, account o gruppi che li mettono a disagio o che desiderano vedere in misura maggiore o minore dovrebbe essere preso in considerazione nella classificazione dei sistemi di raccomandazione. Potrebbe trattarsi di riscontri del tipo "Mostra di meno/di più", "Non voglio vedere/Non mi interessa", "Non voglio vedere contenuti da questo account", "Mi mette a disagio", "Non mostrare", "Non mi piace" o "Non fa per me". Cfr. anche la sezione 7.1 dei presenti orientamenti su segnalazioni, feedback e reclami degli utenti.
(66) ()    Alcuni esempi di termini sono reperibili nel pacchetto di conoscenze sulla lotta alla vendita di droghe online, che è stato elaborato nell'ambito del Forum dell'UE su Internet e raccoglie oltre 3 500 termini, emoji ed espressioni gergali utilizzati dai trafficanti di droga per vendere droghe online. Cfr. il riferimento nella tabella di marcia dell'UE per contrastare il traffico di droga e la criminalità organizzata, COM(2023)641 final.
(67) ()     Cfr. l'articolo 27, paragrafi 1 e 3, del regolamento (UE) 2022/2065.
(68) ()    Commento generale n. 25 del Comitato delle Nazioni Unite sui diritti dell'infanzia e dell'adolescenza, punto 112; UNICEF (2019). Discussion paper: Digital marketing and children's rights, disponibile all'indirizzo: https://www.unicef.org/childrightsandbusiness/media/256/file/Discussion-Paper-Digital-Marketing.pdf.
(69) ()    Ciò rende loro difficile, ad esempio, distinguere tra contenuti commerciali e non commerciali, resistere alla pressione dei pari ad acquistare contenuti in-game o in-app che sono attraenti per i minori o addirittura necessari per progredire nel gioco, comprendere il valore in valuta reale delle valute in-app o comprendere che i contenuti più desiderati, come aggiornamenti, mappe e avatar, possono comparire con minor frequenza negli acquisti randomizzati in-app o in-game rispetto ai contenuti meno desiderati.
(70) ()    M. Ganapini, E. Panai (2023), An Audit Framework for Adopting AI-Nudging on Children, disponibile all'indirizzo: https://arxiv.org/pdf/2304.14338.
(71) ()    La Commissione ricorda che, ai sensi dell'articolo 2, paragrafo 4, del regolamento (UE) 2022/2065, tale regolamento non pregiudica la direttiva 2010/13/UE, il diritto dell'Unione in materia di diritto d'autore e diritti connessi, il regolamento (UE) 2021/784, il regolamento (UE) 2019/1148, il regolamento (UE) 2019/1150, il diritto dell'Unione in materia di protezione dei consumatori e sicurezza dei prodotti (compresa la direttiva 2005/29/CE) e il diritto dell'Unione in materia di protezione dei dati personali, il diritto dell'Unione nel settore della cooperazione giudiziaria in materia civile, il diritto dell'Unione nel settore della cooperazione giudiziaria in materia penale e una direttiva recante norme armonizzate sulla nomina di rappresentanti legali ai fini dell'acquisizione di prove nei procedimenti penali. Inoltre, tale regolamento non pregiudica l'applicazione della direttiva 2000/31/CE. A norma dell'articolo 91 del regolamento (UE) 2022/2065, la Commissione è incaricata di valutare e riferire, entro il 17 novembre 2025, sull'interazione di tale regolamento con altri atti giuridici, in particolare gli atti di cui sopra.
(72) ()    L'UNICEF fornisce risorse e orientamenti per le piattaforme in relazione all'ecosistema del marketing digitale, tra cui UNICEF (2025), Discussion Paper on digital marketing and children’s rights, disponibile all'indirizzo https://www.unicef.org/childrightsandbusiness/workstreams/responsible-technology/digital-marketing.
(73) ()    La Commissione ricorda che, ad esempio, i professionisti sono soggetti al divieto di pratiche commerciali sleali previsto dall'articolo 5, paragrafo 1, della direttiva 2005/29/CE, e che l'allegato I, punto 28, della direttiva vieta di includere in un messaggio pubblicitario un'esortazione diretta ai bambini affinché acquistino o convincano i genitori o altri adulti ad acquistare loro i prodotti reclamizzati. Tale comportamento commerciale è considerato in ogni caso sleale.
(74) ()    Il Commento generale n. 25 (2021) sui diritti dei minorenni in relazione all'ambiente digitale del Comitato sui diritti dell'infanzia e dell'adolescenza stabilisce che l'interesse superiore del minore dovrebbe essere una "considerazione preminente nella regolamentazione della pubblicità e del marketing indirizzati e accessibili ai minorenni. La sponsorizzazione, l'inserimento di prodotti e tutte le altre forme di contenuto a scopo commerciale dovrebbero essere distinte in modo chiaro da tutti gli altri contenuti e non dovrebbero perpetuare stereotipi di genere o razziali."
(75) ()    La Commissione ricorda che tali sistemi di IA potrebbero costituire pratiche vietate a norma dell'articolo 5, paragrafo 1, lettera b), del regolamento (UE) 2024/1689 se sfruttano le vulnerabilità dei minori in un modo che provochi o possa ragionevolmente provocare un danno significativo. Le misure adottate conformemente a questa raccomandazione dovrebbero andare oltre quelle adottate per impedire l'applicazione di tale divieto. La vigilanza e l'applicazione delle misure adottate per conformarsi all'articolo 50, paragrafo 1, del regolamento (UE) 2024/1689 restano di responsabilità delle autorità competenti a norma di tale regolamento.
(76) ()    La Commissione ricorda che, a norma degli articoli 6 e 7 della direttiva 2005/29/CE, la divulgazione dell'elemento commerciale deve essere chiara e adeguata, tenendo conto del mezzo in cui avviene la commercializzazione, compresi il contesto, il posizionamento, i tempi, la durata, la lingua o i destinatari. Cfr. anche gli Orientamenti sull'interpretazione e sull'applicazione della direttiva 2005/29/CE .
(77) ()    La Commissione ricorda che l'articolo 7, paragrafo 2, e l'allegato I, punto 22, della direttiva 2005/29/CE vietano di dichiarare falsamente o di dare la falsa impressione che il professionista non agisca nel quadro della sua attività commerciale, industriale, artigianale o professionale, o di presentarsi falsamente come consumatore. Ricorda inoltre la direttiva 2010/13/UE, che vieta di esortare direttamente i minori ad acquistare o prendere in locazione un prodotto o un servizio, incoraggiarli a persuadere i loro genitori o altri ad acquistare i beni o i servizi pubblicizzati, o sfruttare la particolare fiducia che i minori ripongono nei genitori, negli insegnanti o in altre persone. Ai sensi del considerando 10 del regolamento (UE) 2022/2065, il regolamento non dovrebbe pregiudicare il diritto dell'Unione sulla tutela dei consumatori, compresa la direttiva 2005/29/CE relativa alle pratiche commerciali sleali delle imprese nei confronti dei consumatori nel mercato interno.
(78) ()    La Commissione ricorda inoltre che la direttiva 2010/13/UE prevede che le piattaforme per la condivisione di video debbano disporre di una funzionalità per dichiarare che i contenuti caricati contengono comunicazioni commerciali audiovisive.
(79) ()    La Commissione ricorda che il concetto di valuta virtuale è definito nella direttiva (UE) 2018/843 sull'antiriciclaggio.
(80) ()    L'esempio utilizzato nella presente raccomandazione è irrilevante in relazione a qualsiasi definizione o classificazione giuridica delle valute in-game nel diritto vigente dell'Unione e/o a qualsiasi sua interpretazione relativa alle implicazioni dell'uso di tali strumenti.
(81) ()    La Commissione ricorda che l'allegato I, punto 20, della direttiva 2005/29/CE vieta di descrivere un prodotto come gratuito, senza oneri o simili se il consumatore deve pagare un sovrappiù rispetto all'inevitabile costo di rispondere alla pratica commerciale e ritirare o farsi recapitare l'articolo. 
(82) ()    Come previsto dall'articolo 25 del regolamento (UE) 2022/2065. La Commissione ricorda che, a norma dell'articolo 25, paragrafo 2, il divieto di cui all'articolo 25, paragrafo 1, non si applica alle pratiche contemplate dalla direttiva 2005/29/CE o dal regolamento (UE) 2016/679.
(83) ()    La Commissione ricorda che l'allegato I, punto 7, della direttiva 2005/29/CE vieta di dichiarare falsamente che il prodotto sarà disponibile solo per un periodo molto limitato o che sarà disponibile solo a condizioni particolari per un periodo di tempo molto limitato, in modo da ottenere una decisione immediata e privare i consumatori della possibilità o del tempo sufficiente per prendere una decisione consapevole. I professionisti sono pertanto soggetti al divieto di utilizzare tecniche basate sulla scarsità.
(84) ()    La Commissione ricorda che, nel caso dei giochi, a norma degli articoli 8 e 9 della direttiva 2005/29/CE i professionisti non dovrebbero sfruttare i pregiudizi comportamentali né introdurre elementi manipolativi relativi, ad esempio, alla tempistica delle offerte all'interno del gioco (offrendo microtransazioni nei momenti critici del gioco) o all'uso di effetti visivi e acustici per esercitare un'indebita pressione sul giocatore.
(85) ()    I segnalatori attendibili sono soggetti con particolare esperienza e competenza nell'individuazione di determinati tipi di contenuti illegali, e le segnalazioni che presentano nel loro ambito di competenza designato devono essere considerate prioritarie e trattate dai fornitori di piattaforme online senza indebito ritardo. La qualifica di segnalatore attendibile è riconosciuta dal coordinatore dei servizi digitali dello Stato membro in cui il soggetto è stabilito, a condizione che quest'ultimo abbia dimostrato la propria esperienza, competenza, indipendenza dalle piattaforme online e abbia dato prova di diligenza, accuratezza e obiettività nella presentazione delle segnalazioni.
(86) ()    La Commissione ricorda che tali sistemi di IA potrebbero costituire pratiche vietate a norma dell'articolo 5, paragrafo 1, lettera b), del regolamento (UE) 2024/1689 se sfruttano le vulnerabilità dei minori in un modo che provochi o possa ragionevolmente provocare un danno significativo. Le misure adottate conformemente a questa raccomandazione dovrebbero andare oltre quelle adottate per impedire l'applicazione di tale divieto. La vigilanza e l'applicazione delle misure adottate per conformarsi all'articolo 50, paragrafo 1, del regolamento (UE) 2024/1689 restano di responsabilità delle autorità competenti a norma di tale regolamento.
(87) ()    Cfr. l'articolo 8 del regolamento (UE) 2022/2065.
(88) ()    Cfr. la sezione 6.5.2 dei presenti orientamenti per informazioni sul modo in cui tali informazioni dovrebbero incidere sui sistemi di raccomandazione del fornitore.
(89) ()    Nel resto della presente sezione qualsiasi riferimento a "reclamo" o "reclami" comprende i reclami presentati contro la valutazione dell'età dell'utente effettuata dal fornitore e i reclami presentati contro le decisioni di cui all'articolo 20 del regolamento (UE) 2022/2065. L'articolo 20 del regolamento (UE) 2022/2065 impone ai fornitori di piattaforme online di accordare ai destinatari del servizio l'accesso a un sistema interno di gestione dei reclami efficace contro quattro tipi di decisioni adottate dal fornitore della piattaforma online. Queste sono a) le decisioni che indicano se rimuovere le informazioni o disabilitare l'accesso alle stesse o se limitarne la visibilità; b) le decisioni che indicano se sospendere o cessare in tutto o in parte la prestazione del servizio ai destinatari; c) le decisioni che indicano se sospendere o cessare l'account dei destinatari; e d) le decisioni che indicano se sospendere, cessare o limitare in altro modo la capacità di monetizzare le informazioni fornite dai destinatari.
(90) ()    Ad esempio quelle che fanno parte dei centri nazionali per un'internet più sicura e delle reti INHOPE o altre linee nazionali di assistenza per i minori come https://childhelplineinternational.org/.
(91) ()    Gli orientamenti dell'UNICEF sul coinvolgimento dei portatori di interessi nei confronti dei minori propone azioni concrete per attività di partecipazione responsabile dei minori. UNICEF (2025), Spotlight guidance on best practices for stakeholder engagement with children in D-CRIAs, disponibile all'indirizzo: https://www.unicef.org/childrightsandbusiness/media/1541/file/D-CRIA-Spotlight-Guidance-Stakeholder-Engagement.pdf.
(92) ()    Questo approccio è in linea con la strategia per un'internet migliore per i ragazzi (BIK+), che sottolinea l'importanza della sensibilizzazione e dell'istruzione nel promuovere la sicurezza online e sostiene l'attuazione del regolamento (UE) 2022/2065 a tale riguardo. Inoltre, i centri per un'internet più sicura, istituiti in tutti gli Stati membri, dimostrano il valore degli sforzi di sensibilizzazione nel prevenire e nel rispondere ai danni e ai rischi online.
(93) ()    Tali corsi di formazione potrebbero riguardare, ad esempio, i diritti dei minori, i rischi e i danni alla vita privata, alla sicurezza e alla protezione online dei minori, nonché pratiche efficaci di prevenzione, risposta e attenuazione.
(94)

()    An Coimisiún um Chosaint Sonraí (2021), Fundamentals for a child-oriented approach to data processing, disponibile all'indirizzo: https://www.dataprotection.ie/sites/default/files/uploads/2021-12/Fundamentals%20for%20a%20Child-Oriented%20Approach%20to%20Data%20Processing_FINAL_EN.pdf; Coimisiún na Meán (2024), Online safety code, disponibile all'indirizzo: https://www.cnam.ie/app/uploads/2024/11/Coimisiun-na-Mean-Online-Safety-Code.pdf; IMY (Autorità svedese per la tutela della vita privata) (2021), The rights of children and young people on digital platforms, disponibile all'indirizzo: https://www.imy.se/en/publications/the-rights-of-children-and-young-people-on-digital-platforms/; ministero neerlandese degli Affari interni e delle relazioni del Regno (2022), Code for children's rights, disponibile all'indirizzo: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf ; CNIL (2021), CNIL publishes 8 recommendations to enhance protection of children online, disponibile all'indirizzo: https://www.cnil.fr/en/cnil-publishes-8-recommendations-enhance-protection-children-online; Unabhängiger Beauftragter für Fragen des sexuellen Kindesmissbrauchs (s.d.), Rechtsfragen Digitales, disponibile all'indirizzo: https://beauftragte-missbrauch.de/themen/recht/rechtsfragen-digitales.

(95) ()    CEN-CENELEC (2023), Workshop Agreement 18016 Age appropriate digital services framework ; OCSE (2021), Children in the digital environment - Revised typology of risks, https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.
(96) ()    La norma P2089.2TM "Standard for Terms and Conditions for Children's Online Engagement" delinea processi e pratiche per l'elaborazione di condizioni generali che contribuiscano a tutelare i diritti dei minori in ambito digitale.
(97) ()    La Commissione ricorda inoltre che l'articolo 28 ter della direttiva 2010/13/UE impone ai fornitori di piattaforme per la condivisione di video di proteggere i minori da programmi, video generati dagli utenti e comunicazioni commerciali audiovisive che possano nuocere al loro sviluppo fisico, mentale o morale. Tali prescrizioni devono essere valutate e, se del caso, riesaminate entro il 19 dicembre 2026.
(98) ()    Come indicato nell'introduzione dei presenti orientamenti, alcune disposizioni del regolamento (UE) 2022/2065, tra cui l'articolo 14, paragrafi 5 e 6, impongono obblighi supplementari ai fornitori di piattaforme online di dimensioni molto grandi. Nella misura in cui gli obblighi ivi previsti riguardano anche la tutela della vita privata, la sicurezza e la protezione dei minori ai sensi dell'articolo 28, paragrafo 1, i presenti orientamenti si basano su tali disposizioni.
(99) ()    Ad esempio nella banca dati delle condizioni generali dei servizi digitali: https://platform-contracts.digital-strategy.ec.europa.eu/.
(100) ()    Come indicato nella sezione relativa all'ambito di applicazione dei presenti orientamenti (sezione 2), alcune disposizioni del regolamento (UE) 2022/2065, tra cui il capo III, sezione 5, impongono obblighi supplementari ai fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi. Nella misura in cui gli obblighi ivi previsti riguardano anche la tutela della vita privata, la sicurezza e la protezione dei minori ai sensi dell'articolo 28, paragrafo 1, i presenti orientamenti si basano su tali disposizioni e le piattaforme online di dimensioni molto grandi non dovrebbero attendersi che l'adozione di tutte o di parte delle misure descritte nei presenti orientamenti sia sufficiente a garantire il rispetto dei loro obblighi a norma del capo III, sezione 5, del regolamento (UE) 2022/2065.
(101) ()    OCSE (2021), Children in the digital environment - Revised typology of risks, https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.
(102) ()    Livingstone, S., & Stoilova, M. (2021), "The 4Cs: Classifying Online Risk to Children". CO:RE Short Report Series on Key Topics. Amburgo, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI); CO:RE - Children Online: Research and Evidence, https://doi.org/10.21241/ssoar.71817.
(103) ()    Cfr. anche un'analisi dei rischi realizzata dalla Bundeszentrale für Kinder- und Jugendmedienschutz (BZKJ); (2022), Gefährdungsatlas. Digitales Aufwachsen. Vom Kind aus denken. Zukunftssicher handeln. Aktualisierte und erweiterte 2. Auflage, - Bundeszentrale für Kinder- und Jugendmedienschutz, disponibile all'indirizzo: https://www.bzkj.de/resource/blob/197826/5e88ec66e545bcb196b7bf81fc6dd9e3/2-auflage-gefaehrdungsatlas-data.pdf.
(104) ()    OCSE (2021), Children in the digital environment - Revised typology of risks, pag. 7, https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.
(105) ()    Livingstone, S., & Stoilova, M. (2021), "The 4Cs: Classifying Online Risk to Children". CO:RE Short Report Series on Key Topics. Amburgo, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI); CO:RE - Children Online: Research and Evidence, https://doi.org/10.21241/ssoar.71817.
Üles