European flag

Amtsblatt
der Europäischen Union

DE

Reihe C


C/2025/5519

10.10.2025

MITTEILUNG DER KOMMISSION

Leitlinien für Maßnahmen zur Gewährleistung eines hohen Maßes an Privatsphäre, Sicherheit und Schutz von Minderjährigen im Internet gemäß Artikel 28 Absatz 4 der Verordnung (EU) 2022/2065

(C/2025/5519)

1.   EINLEITUNG

1.

Online-Plattformen werden zunehmend von Minderjährigen (1) genutzt und können ihnen verschiedene Vorteile bieten. So können Online-Plattformen beispielsweise Zugang zu einer Fülle von Bildungsressourcen bieten und Minderjährigen dabei helfen, neue Kompetenzen zu erwerben und ihr Wissen zu erweitern. Zudem können Online-Plattformen Minderjährigen die Möglichkeit bieten, ihre Meinung zu äußern und Kontakte zu anderen Personen mit ähnlichen Interessen zu knüpfen, was ihnen dabei hilft, soziale Kompetenzen zu erwerben, Vertrauen aufzubauen und ein Gemeinschaftsgefühl zu entwickeln. Indem die Minderjährigen im Online-Umfeld spielen und es erkunden, können sie auch ihre natürliche Neugier anregen und sich an Aktivitäten beteiligen, die ihre Kreativität, ihre Problemlösungskompetenz, ihr kritisches Denken, ihre Handlungsfähigkeit und ihre Fähigkeit, Spaß zu haben, fördern.

2.

Unter den politischen Entscheidungsträgern, Regulierungsbehörden, der Zivilgesellschaft, Forschenden, Pädagogen und Erziehungsberechtigten (2) besteht jedoch ein breiter Konsens darüber, dass das Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen im Internet gegenwärtig oft unzureichend ist. Die Gestaltung und die Funktionen der vielfältigen Online-Plattformen und die Dienste, die von den Anbietern der für Minderjährige zugänglichen Online-Plattformen angeboten werden, können Risiken für die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen mit sich bringen und bestehende Risiken verschärfen. Zu diesen Risiken gehört beispielsweise die Exposition gegenüber rechtswidrigen (3) und schädlichen Inhalten, die die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen untergräbt oder die körperliche oder geistige Entwicklung von Minderjährigen beeinträchtigen kann. Dazu gehören auch Cybermobbing oder die Kontaktaufnahme durch Personen, die Minderjährigen Schaden zufügen wollen, wie etwa Personen, die Minderjährige sexuell missbrauchen oder erpressen wollen, Menschenhändler sowie Personen, die Minderjährige für kriminelle Banden anwerben wollen oder zu Gewalt aufrufen oder Radikalisierung, gewalttätigen Extremismus und Terrorismus unterstützen. Minderjährige können auch in ihrer Eigenschaft als Verbraucher Risiken ausgesetzt sein, ebenso wie Risiken im Zusammenhang mit der extensiven oder übermäßigen Nutzung von Online-Plattformen, der Exposition gegenüber unangemessenen oder ausbeuterischen Praktiken oder im Zusammenhang mit Glücksspielen und anderen Spielen. Die zunehmende Integration von KI-Chatbots und KI-Begleitern in Online-Plattformen sowie KI-gestützte Deepfakes können sich ebenfalls auf die Interaktion von Minderjährigen mit Online-Plattformen auswirken, bestehende Risiken verschärfen und neue Risiken schaffen, die sich negativ auf die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen auswirken (4). Diese Risiken können sich aus der direkten Erfahrung des Minderjährigen mit der Plattform und/oder aus den Handlungen anderer Nutzer auf der Plattform ergeben.

3.

Diese Leitlinien sollen Anbieter von Online-Plattformen dabei unterstützen, diesen Risiken zu begegnen. Zu diesem Zweck wird in ihnen eine Reihe von Maßnahmen vorgeschlagen, die diesen Anbietern nach Auffassung der Kommission dabei helfen, für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen auf ihren Plattformen zu sorgen. Dies trägt zum Jugendschutz bei, der ein wichtiges politisches Ziel der Union ist. Mit diesen Leitlinien sollen auch die Koordinatoren für digitale Dienste und die zuständigen nationalen Behörden bei der Anwendung und Auslegung von Artikel 28 der Verordnung (EU) 2022/2065 unterstützt werden. So wird beispielsweise die Erhöhung des Grads der Privatheit der Konten Minderjähriger unter anderem den Anbietern von Online-Plattformen dabei helfen, das Risiko unerwünschter oder unaufgeforderter Kontaktaufnahmen zu verringern. Die Umsetzung von Maßnahmen zur Altersfeststellung (5) kann unter anderem den Anbietern dabei helfen, das Risiko zu verringern, dass Minderjährige Diensten, Inhalten, Verhaltensweisen, Kontaktaufnahmen oder Geschäftspraktiken ausgesetzt werden, die ihre Privatsphäre, ihre Sicherheit und ihren Schutz beeinträchtigen. Die Einführung dieser und anderer Maßnahmen – zu Aspekten wie Empfehlungssysteme und Governance bis hin zu Benutzerunterstützung und Berichterstattung – kann den Anbietern von Online-Plattformen dabei helfen, diese so zu gestalten, dass sie die Sicherheit, den Schutz und die Wahrung der Privatsphäre von Minderjährigen besser gewährleisten.

2.   ANWENDUNGSBEREICH DER LEITLINIEN

4.

Angesichts der vorgenannten Risiken hat der Unionsgesetzgeber Artikel 28 der Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates (6) erlassen. Gemäß Absatz 1 dieser Bestimmung sind Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, verpflichtet, geeignete und verhältnismäßige Maßnahmen zu ergreifen, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen innerhalb ihres Dienstes zu sorgen. Gemäß Artikel 28 Absatz 2 der Verordnung (EU) 2022/2065 ist es Anbietern von Online-Plattformen untersagt, auf ihrer Schnittstelle Werbung auf der Grundlage von Profiling im Sinne von Artikel 4 Absatz 4 der Verordnung (EU) 2016/679 (7) unter Verwendung personenbezogener Daten des Nutzers darzustellen, wenn sie hinreichende Gewissheit haben, dass der betreffende Nutzer minderjährig ist. In Artikel 28 Absatz 3 der Verordnung (EU) 2022/2065 wird präzisiert, dass die Anbieter von für Minderjährige zugänglichen Online-Plattformen nicht verpflichtet sind, zur Einhaltung der in diesem Artikel festgelegten Verpflichtungen zusätzliche personenbezogene Daten zu verarbeiten, um festzustellen, ob der Nutzer minderjährig ist. Gemäß Artikel 28 Absatz 4 der Verordnung (EU) 2022/2065 kann die Kommission nach Anhörung des Europäischen Gremiums für digitale Dienste (im Folgenden „Gremium“) Leitlinien herausgeben, um die Anbieter von Online-Plattformen bei der Anwendung von Absatz 1 zu unterstützen.

5.

In diesen Leitlinien werden die Maßnahmen beschrieben, die Anbieter von für Minderjährige zugänglichen Online-Plattformen nach Auffassung der Kommission ergreifen sollten, um im Einklang mit Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen im Internet zu sorgen. Die in dieser Bestimmung vorgesehene Verpflichtung richtet sich an Anbieter von Online-Plattformen, deren Dienste für Minderjährige zugänglich sind (8). In Erwägungsgrund 71 der genannten Verordnung wird ferner klargestellt, dass „eine Online-Plattform [...] als für Minderjährige zugänglich angesehen werden [kann], wenn ihre allgemeinen Geschäftsbedingungen es Minderjährigen gestatten, den Dienst zu nutzen, wenn ihr Dienst sich an Minderjährige richtet oder überwiegend von Minderjährigen genutzt wird oder wenn dem Anbieter in anderer Weise bekannt ist, dass einige seiner Nutzer minderjährig sind“.

6.

In Bezug auf das erste in diesem Erwägungsgrund beschriebene Szenario ist die Kommission der Auffassung, dass sich ein Anbieter einer Online-Plattform nicht allein auf eine Erklärung in seinen allgemeinen Geschäftsbedingungen berufen kann, die Minderjährigen den Zugang verbietet, um geltend zu machen, dass die Plattform für Minderjährige nicht zugänglich sei. Wenn der Anbieter der Online-Plattform keine wirksamen Maßnahmen ergreift, um Minderjährige am Zugang zu seinem Dienst zu hindern, kann er nicht auf der Grundlage dieser Erklärung geltend machen, dass seine Online-Plattform nicht in den Anwendungsbereich von Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 fällt. Beispielsweise werden Online-Plattformen, die Inhalte für Erwachsene hosten und verbreiten (wie etwa Online-Plattformen, die pornografische Inhalte verbreiten) und in deren allgemeinen Geschäftsbedingungen die Nutzung des Dienstes auf Nutzer über 18 Jahren beschränkt wird, als für Minderjährige zugänglich im Sinne des Artikels 28 Absatz 1 der Verordnung (EU) 2022/2065 angesehen, wenn keine wirksamen Maßnahmen ergriffen wurden, um Minderjährige am Zugang zu diesem Dienst zu hindern.

7.

In Bezug auf das dritte Szenario wird in Erwägungsgrund 71 der Verordnung (EU) 2022/2065 klargestellt, dass ein Beispiel für einen Fall, in dem einem Anbieter einer Online-Plattform bekannt sein sollte, dass einige seiner Nutzer minderjährig sind, darin besteht, dass dieser Anbieter die personenbezogenen Daten dieser Nutzer, die ihr Alter für andere Zwecke, z. B. bei der Registrierung bei dem betreffenden Dienst, offenlegen, bereits verarbeitet und sich daraus ergibt, dass einige dieser Nutzer minderjährig sind. Weitere Beispiele für Fälle, in denen von einem Anbieter vernünftigerweise erwartet werden kann, dass er sich dessen bewusst ist, dass Minderjährige zu den Nutzern seines Dienstes gehören, sind die Fälle, in denen sich die Online-Plattform bekanntermaßen an Minderjährige richtet, der Anbieter der Online-Plattform ähnliche Dienste wie die anbietet, die von Minderjährigen genutzt werden, die Online-Plattform bei Minderjährigen beworben wird, der Anbieter der Online-Plattform Untersuchungen durchgeführt oder in Auftrag gegeben hat, bei denen Minderjährige als Nutzer der Dienste ermittelt wurden, oder diese Nutzung aus unabhängigen Untersuchungen hervorgeht.

8.

Gemäß Artikel 19 der Verordnung (EU) 2022/2065 gilt die Verpflichtung gemäß Artikel 28 Absatz 1 dieser Verordnung nicht für Anbieter von Online-Plattformen, bei denen es sich um Kleinst- oder Kleinunternehmen handelt, es sei denn, ihre Online-Plattform wurde von der Kommission als sehr große Online-Plattform im Sinne von Artikel 33 Absatz 4 dieser Verordnung eingestuft (9).

9.

Andere Bestimmungen der Verordnung (EU) 2022/2065 zielen ebenfalls darauf ab, den Schutz Minderjähriger im Internet sicherzustellen (10). Dazu gehören unter anderem mehrere Bestimmungen in Kapitel III Abschnitt 5 der Verordnung (EU) 2022/2065, mit denen Anbietern sehr großer Online-Plattformen und sehr großer Online-Suchmaschinen zusätzliche Verpflichtungen auferlegt werden (11). Es ist nicht der Zweck dieser Leitlinien, diese Bestimmungen auszulegen, und Anbieter von sehr großen Online-Plattformen und sehr großen Online-Suchmaschinen sollten nicht davon ausgehen, dass die teilweise oder vollständige Umsetzung der unten beschriebenen Maßnahmen ausreicht, um die Einhaltung ihrer Verpflichtungen gemäß Kapitel III Abschnitt 5 der Verordnung (EU) 2022/2065 sicherzustellen, da diese Anbieter möglicherweise zusätzliche Maßnahmen ergreifen müssen, die in diesen Leitlinien nicht aufgeführt werden, aber für die Einhaltung der sich aus diesen Bestimmungen ergebenden Verpflichtungen erforderlich sind (12).

10.

Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 sollte auch im Lichte anderer Rechtsvorschriften der Union und nicht verbindlicher Instrumente gesehen werden, die darauf abzielen, den Risiken zu begegnen, denen Minderjährige im Internet ausgesetzt sind (13). Diese Instrumente tragen auch zur Verwirklichung des Ziels bei, für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen im Internet zu sorgen, und sie ergänzen somit die Anwendung von Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065. Die vorliegenden Leitlinien sollten nicht dahin gehend verstanden werden, dass sie Verpflichtungen auslegen oder vorwegnehmen, die sich aus diesen Instrumenten oder den Rechtsvorschriften der Mitgliedstaaten ergeben. Die Überwachung und Durchsetzung dieser Instrumente obliegt weiterhin ausschließlich den gemäß diesen Rechtsrahmen zuständigen Behörden. Insbesondere lässt die Verordnung (EU) 2022/2065, wie in ihrem Erwägungsgrund 10 klargestellt wird, andere Rechtsakte der Union unberührt, die die Bereitstellung von Diensten der Informationsgesellschaft im Allgemeinen regeln, andere Aspekte der Bereitstellung von Vermittlungsdiensten im Binnenmarkt betreffen oder die in dieser Verordnung festgelegten harmonisierten Vorschriften festlegen und ergänzen, wie etwa die Richtlinie 2010/13/EU und das Unionsrecht über den Verbraucherschutz und den Schutz personenbezogener Daten, insbesondere die Verordnung (EU) 2016/679.

11.

In diesen Leitlinien werden zwar Maßnahmen dargelegt, die darauf abzielen, für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen im Internet zu sorgen, doch werden die Anbieter von Online-Plattformen aufgefordert, diese Maßnahmen zum Schutz aller Nutzer und nicht nur von Minderjährigen zu ergreifen. Die Schaffung eines die Privatsphäre wahrenden, sicheren und geschützten Online-Umfelds für alle Nutzer wird zwangsläufig zu einem erhöhten Schutz der Privatsphäre, mehr Sicherheit und einem besseren Schutz von Minderjährigen im Internet führen, während zugleich Maßnahmen ergriffen werden, die die Achtung ihrer spezifischen Rechte und Bedürfnisse im Einklang mit Artikel 28 der Verordnung (EU) 2022/2065 gewährleisten.

12.

Mit der Annahme dieser Leitlinien erklärt die Kommission, dass sie diese Leitlinien auf die darin beschriebenen Fälle anwenden und somit die Ausübung ihres Ermessens bei der Anwendung von Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 einschränken wird. Daher können diese Leitlinien als wichtiger und aussagekräftiger Maßstab betrachtet werden, auf den sich die Kommission bei der Anwendung von Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 und bei der Feststellung stützen wird, ob Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, diese Bestimmung einhalten (14). Die Koordinatoren für digitale Dienste und die zuständigen nationalen Behörden können sich bei der Anwendung und Auslegung von Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 ebenfalls an diesen Leitlinien orientieren. Allerdings kann aus der Annahme und Umsetzung der in diesen Leitlinien dargelegten Maßnahmen, sei es teilweise oder vollständig, nicht automatisch der Schluss gezogen werden, dass diese Bestimmung eingehalten wird.

13.

Für eine verbindliche Auslegung von Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 ist nur der Gerichtshof der Europäischen Union zuständig, der unter anderem im Wege der Vorabentscheidung über die Gültigkeit und die Auslegung von Rechtsakten der Union, einschließlich des Artikels 28 Absatz 1 der Verordnung (EU) 2022/2065, entscheidet.

14.

Im Zuge der Ausarbeitung der Leitlinien hat die Kommission die Interessenträger konsultiert (15), einschließlich des Gremiums und seiner Arbeitsgruppe zum Schutz von Minderjährigen. Im Einklang mit Artikel 28 Absatz 4 der Verordnung (EU) 2022/2065 hat die Kommission das Gremium vor der Annahme der Leitlinien am 2. Juli 2025 zu einem Entwurf davon konsultiert.

15.

Die in den Abschnitten 5 bis 8 dieser Leitlinien beschriebenen Maßnahmen sind nicht erschöpfend. Andere Maßnahmen können auch als geeignet und verhältnismäßig angesehen werden, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen im Einklang mit Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 zu sorgen, wie etwa Maßnahmen, die sich aus der Einhaltung anderer Rechtsvorschriften der Union (16) oder der Beachtung nationaler Leitlinien zum Schutz Minderjähriger oder technischer Normen ergeben (17). Darüber hinaus könnten in Zukunft neue Maßnahmen ermittelt werden, die es Anbietern von Online-Plattformen, die für Minderjährige zugänglich sind, ermöglichen, ihrer Verpflichtung, für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen innerhalb ihres Dienstes zu sorgen, besser nachzukommen.

3.   AUFBAU

16.

Abschnitt 4 dieser Leitlinien enthält die allgemeinen Grundsätze, die für alle Maßnahmen gelten sollten, die Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, ergreifen sollten, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen innerhalb ihres Dienstes zu sorgen. In den Abschnitten 5 bis 8 dieser Leitlinien werden die wichtigsten Maßnahmen dargelegt, die diese Anbieter nach Auffassung der Kommission ergreifen sollten, um für ein derart hohes Maß an Privatsphäre, Sicherheit und Schutz zu sorgen. Dazu gehören Risikobewertung (Abschnitt 5), Dienstgestaltung (Abschnitt 6), Berichterstattung, Benutzerunterstützung und Tools für Erziehungsberechtigte (Abschnitt 7) und Governance (Abschnitt 8).

4.   ALLGEMEINE GRUNDSÄTZE

17.

Die vorliegenden Leitlinien stützen sich auf die folgenden allgemeinen Grundsätze, die miteinander verknüpft sind und von Anbietern von Online-Plattformen, die in den Anwendungsbereich dieser Leitlinien fallen, bei allen ihren Tätigkeiten gesamtheitlich berücksichtigt werden sollten. Die Kommission ist der Auffassung, dass jede Maßnahme, die ein Anbieter einer für Minderjährige zugänglichen Online-Plattform ergreift, um Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 nachzukommen, den folgenden allgemeinen Grundsätzen entsprechen sollte.

a)

Verhältnismäßigkeit und Eignung: Gemäß Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 müssen alle Maßnahmen, die ergriffen werden, um dieser Bestimmung nachzukommen, verhältnismäßig und geeignet sein, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen. Da verschiedene Online-Plattformen unterschiedliche Arten von Risiken für Minderjährige bergen können, wird es nicht immer für alle Anbieter von Online-Plattformen verhältnismäßig oder geeignet sein, alle oder nur einige der in diesen Leitlinien beschriebenen Maßnahmen anzuwenden. Die Feststellung, ob eine bestimmte Maßnahme verhältnismäßig und geeignet ist, insbesondere wenn sie mit einem Eingriff in die Grundrechte des Einzelnen verbunden ist, erfordert eine Einzelfallprüfung durch den einzelnen Anbieter i) der von seiner Online-Plattform oder Teilen davon ausgehenden Risiken für die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen unter Berücksichtigung unter anderem der Größe, Reichweite und Beschaffenheit des von ihm bereitgestellten Dienstes sowie seiner Art, seiner beabsichtigten oder derzeitigen Nutzung, seiner besonderen Merkmale und der Nutzerbasis des Dienstes, ii) der Auswirkungen der Maßnahme auf die Rechte des Kindes und andere in der Charta der Grundrechte der Europäischen Union (im Folgenden „Charta“) verankerte Rechte und Freiheiten sowie iii) der Notwendigkeit, diese Maßnahmen auf den höchsten verfügbaren Normen und bestehenden bewährten Verfahren sowie auf der Perspektive und den Rechten des Kindes aufzubauen (siehe Abschnitt 5 zur Risikobewertung).

b)

Schutz der Rechte des Kindes: Diese Rechte sind in der Charta, die den Schutz der Rechte des Kindes bei der Umsetzung des Unionsrechts garantiert, und im Übereinkommen der Vereinten Nationen über die Rechte des Kindes (im Folgenden „UNCRC“) verankert, das alle Mitgliedstaaten ratifiziert haben (18). Die Rechte des Kindes sind integraler Bestandteil der Menschenrechte, und all diese Rechte sind miteinander verbunden, voneinander abhängig und unteilbar. Gemäß Artikel 24 der Charta muss bei allen Kinder betreffenden Maßnahmen öffentlicher Stellen oder privater Einrichtungen das Wohl des Kindes eine vorrangige Erwägung sein. Um sicherzustellen, dass Maßnahmen zur Erreichung eines hohen Maßes an Privatsphäre, Sicherheit und Schutz von Minderjährigen auf einer Online-Plattform geeignet und verhältnismäßig sind, sollten daher alle Rechte des Kindes berücksichtigt werden und das Wohl des Kindes eine vorrangige Erwägung sein. Diskriminierungen insbesondere wegen des Geschlechts, der Rasse, der Hautfarbe, der ethnischen oder sozialen Herkunft, der genetischen Merkmale, der Sprache, der Religion oder der Weltanschauung, der politischen oder sonstigen Anschauung, der Zugehörigkeit zu einer nationalen Minderheit, des Vermögens, der Geburt, einer Behinderung, des Alters oder der sexuellen Ausrichtung sind gemäß Artikel 21 der Charta verboten. Zu den Rechten des Kindes gehören z. B. das Recht auf Schutz (19), Nichtdiskriminierung, Inklusion, Privatsphäre, Zugang zu Informationen und Bildung, freie Meinungsäußerung und Teilhabe (20) sowie das Recht auf Berücksichtigung der Ansichten der Kinder in allen sie betreffenden Angelegenheiten (21).

c)

Wahrung der Privatsphäre, Sicherheit und Schutz durch Technikgestaltung: Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, sollten bei der Gestaltung, der Entwicklung und dem Betrieb ihrer Dienste hohe Standards in Bezug auf Privatsphäre, Sicherheit und Schutz anlegen (22). By-Design-Konzepte zielen darauf ab, den Einfluss von Anbietern von Online-Plattformen, Entwicklern und politischen Entscheidungsträgern zu nutzen, um die Entwicklung von Produkten und Diensten so zu gestalten, dass Werte, die das menschliche Wohlergehen fördern, im Vordergrund stehen. Sie beziehen sich auf die standardmäßige Einbettung von Maßnahmen zum Schutz der Privatsphäre und der Sicherheit in die Gestaltung, den Betrieb und die Verwaltung von Organisationen sowie in Produkte und Dienste von Beginn an (23).

d)

Altersgerechte Gestaltung: Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, sollten ihre Dienste so gestalten, dass sie dem Entwicklungsstand und den kognitiven und emotionalen Bedürfnissen von Minderjährigen entsprechen und zugleich die Wahrung ihrer Privatsphäre, ihre Sicherheit und ihren Schutz sicherstellen. Eine altersgerechte Gestaltung muss für Kinder geeignet sein, ihre Rechte und ihr Wohlergehen sowie ihre Vielfalt und ihr jeweiliges Alter oder Entwicklungsstadium berücksichtigen und den sich entwickelnden Fähigkeiten von Kindern Rechnung tragen (24).

5.   RISIKOBEWERTUNG

18.

Die Heterogenität von Online-Plattformen und die Vielfalt der Kontexte können unterschiedliche Ansätze erfordern, wobei bestimmte Maßnahmen für einige Plattformen besser geeignet sind als für andere. Wenn ein Anbieter einer für Minderjährige zugänglichen Online-Plattform darüber entscheidet, wie er auf seiner Plattform für ein hohes Maß an Sicherheit, Privatsphäre und Schutz von Minderjährigen sorgt, und zu diesem Zweck geeignete und verhältnismäßige Maßnahmen bestimmt, sollte er nach Auffassung der Kommission zumindest Folgendes ermitteln und berücksichtigen:

a)

Die Wahrscheinlichkeit, dass Minderjährige auf seinen Dienst zugreifen, insbesondere in Anbetracht der Art, des Zwecks und der beabsichtigten Nutzung dieses Dienstes, sowie die Kriterien, die für die Feststellung maßgeblich sind, ob der Dienst für Minderjährige zugänglich ist.

b)

Die tatsächlichen oder potenziellen Auswirkungen auf die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen, die die Online-Plattform haben oder hervorbringen kann, auf der Grundlage der 5C-Typologie der Online-Risiken für Kinder (Anhang). Hierzu ist auch zu prüfen, wie verschiedene Aspekte der Plattform diese Risiken hervorbringen können, wie wahrscheinlich das Eintreten dieser Risiken ist und wie schwer sie wiegen. Zudem sind die positiven Auswirkungen dieser Aspekte auf die Rechte und das Wohlergehen der Kinder unter Berücksichtigung ihres Alters und ihrer sich entwickelnden Fähigkeiten zu berücksichtigen. Beispielsweise können Aspekte wie der Zweck, die Gestaltung, die Schnittstelle, das Wertversprechen, das Marketing, die Merkmale und die Funktionen der Plattform sowie die Anzahl und Art der Nutzer und Nutzungen (tatsächlich und erwartet) von Bedeutung sein. Dies sollte eine Angabe der Höhe des Risikos für Minderjährige auf der Plattform (z. B. niedrig, mittel oder hoch) auf der Grundlage klarer Kriterien im Einklang mit bestehenden Normen und bewährten Verfahren, z. B. für die in Nummer 22 erwähnte Folgenabschätzung für Kinderrechte, umfassen.

c)

Die Maßnahmen, die der Anbieter bereits ergreift, um diese Risiken zu vermeiden und zu mindern.

d)

Alle zusätzlichen Maßnahmen, die bei der Bewertung als geeignet und verhältnismäßig eingestuft werden, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen innerhalb des Dienstes zu sorgen. Die Maßnahmen, die die Anbieter gegebenenfalls ergreifen müssen, sollten den Risiken für die Privatsphäre, die Sicherheit und den Schutz begegnen, die sich aus der Erfahrung Minderjähriger mit dem Dienst ergeben, einschließlich der Risiken, die sich aus den Handlungen anderer Nutzer des Dienstes ergeben.

e)

Wie die Maßnahmen die allgemeinen Grundsätze des Abschnitts 4 wahren.

f)

Die Parameter, die es dem Anbieter ermöglichen, die Wirksamkeit seiner Maßnahmen zur Bewältigung bestimmter Risiken über die Zeit zu überwachen.

g)

Die potenziellen positiven und negativen Auswirkungen aller vom Anbieter derzeit ergriffenen und aller zusätzlichen Maßnahmen auf die Rechte des Kindes oder anderer Nutzer. Dabei ist sicherzustellen, dass diese Rechte nicht unverhältnismäßig oder unangemessen eingeschränkt werden und die positiven Auswirkungen maximiert werden können. Zu den Rechten des Kindes oder anderer Nutzer, die durch einige Maßnahmen beeinträchtigt werden können, gehören beispielsweise das Recht des Kindes auf Teilhabe, Privatsphäre, Schutz personenbezogener Daten sowie Meinungs- und Informationsfreiheit. Dies ist für die Beurteilung der Verhältnismäßigkeit der Maßnahmen maßgeblich.

19.

Bei der Durchführung dieser Bewertung sollten Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, das Wohl des Kindes als vorrangige Erwägung (25) im Einklang mit der Charta und anderen Grundsätzen des Übereinkommens über die Rechte des Kindes (26) sowie anderen einschlägigen Leitlinien der Union zu diesem Thema (27) berücksichtigen. Sie sollten die Perspektiven von Kindern einbeziehen, indem sie sich um ihre Beteiligung bemühen, ebenso wie die Perspektive von Erziehungsberechtigten, Vertretern anderer potenziell betroffener Gruppen und anderer einschlägiger Sachverständiger und Interessenträger.

20.

Die Anbieter sollten die aktuellsten verfügbaren Informationen und Erkenntnisse aus wissenschaftlichen und akademischen Quellen berücksichtigen und auch andere von ihnen durchgeführte einschlägige Bewertungen heranziehen. Sie sollten sich an das Vorsorgeprinzip halten, wenn es hinreichende Hinweise darauf gibt, dass eine bestimmte Praxis, ein bestimmtes Merkmal oder ein bestimmtes Gestaltungsmuster Risiken für Kinder mit sich bringt, und Maßnahmen zur Vermeidung oder Minderung dieser Risiken ergreifen, bis Beweise dafür vorliegen, dass diese bestimmte Praxis, dieses bestimmte Merkmal oder dieses bestimmte Gestaltungsmuster keine schädlichen Auswirkungen auf Kinder hat.

21.

Die Anbieter sollten die Bewertung regelmäßig, mindestens jedoch einmal jährlich oder immer dann durchführen, wenn sie wesentliche Änderungen an der Gestaltung der Plattform vornehmen (28) oder Kenntnis von anderen Umständen erlangen, die sich auf die Gestaltung und den Betrieb der Plattform auswirken und im Hinblick auf die Gewährleistung eines hohen Maßes an Privatsphäre, Sicherheit und Schutz von Minderjährigen auf ihrer Online-Plattform von Bedeutung sind. Die Anbieter sollten die Risikobewertung den zuständigen Aufsichtsbehörden zur Verfügung stellen und ihre Ergebnisse – ohne Offenlegung sensibler operativer oder sicherheitsrelevanter Informationen – spätestens vor der nächsten Bewertung veröffentlichen. Sie sollten auch in Erwägung ziehen, die Risikobewertung unabhängigen Sachverständigen oder einschlägigen Interessenträgern zur Überprüfung vorzulegen.

22.

Bei der Durchführung dieser Überprüfung können sich die Anbieter auf bestehende Normen und Instrumente zur Durchführung von Folgenabschätzungen für Kinderrechte stützen. Dazu gehören beispielsweise die Vorlagen, Formulare und sonstigen Leitlinien von UNICEF (29), des niederländischen Ministeriums für Inneres und Königreichsbeziehungen (BZK) (30) oder der europäischen Normungsorganisation CEN-CENELEC (31). Die Kommission kann zusätzliche Leitlinien oder Instrumente herausgeben, um die Anbieter bei der Durchführung der Bewertung zu unterstützen, unter anderem spezifische Instrumente für Folgenabschätzungen für Kinderrechte. Bis zur Veröffentlichung dieser Leitlinien können die Anbieter für diese Bewertungen auf bestehende Instrumente und bewährte Verfahren zurückgreifen.

23.

Im Falle von Anbietern sehr großer Online-Plattformen und sehr großer Online-Suchmaschinen kann diese Risikobewertung auch im Rahmen der allgemeinen Bewertung der systemischen Risiken gemäß Artikel 34 der Verordnung (EU) 2022/2065 durchgeführt werden, die die gemäß den vorliegenden Leitlinien durchgeführte Risikobewertung ergänzt und darüber hinausgeht.

6.   GESTALTUNG DER DIENSTE

6.1.   Altersfeststellung

6.1.1.   Einführung und Terminologie

24.

In den letzten Jahren hat sich die Technik rasch entwickelt und es den Anbietern von Online-Plattformen ermöglicht, sich auf mehr und weniger genaue, zuverlässige und robuste Weise des Alters ihrer Nutzer zu vergewissern. Diese Maßnahmen werden gemeinhin als „Maßnahmen zur Altersfeststellung“ bezeichnet (32).

25.

Die Kommission betrachtet Maßnahmen zur Beschränkung des Zugangs auf der Grundlage des Alters als wirksames Mittel, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen auf Online-Plattformen zu sorgen. Zu diesem Zweck können Instrumente zur Altersfeststellung den Anbietern dabei helfen, Zugangsbeschränkungen für Nutzer unter einem bestimmten Alter durchzusetzen, um Minderjährige vor dem Zugang zu nicht altersgerechten Inhalten im Internet wie Glücksspiel oder Pornografie oder vor anderen Gefahren wie Grooming zu schützen.

26.

Instrumente zur Altersfeststellung können Anbietern auch dabei helfen, den Zugang von Erwachsenen zu bestimmten Plattformen, die für Minderjährige konzipiert sind, zu anderen als legitimen elterlichen, erzieherischen oder Aufsichtszwecken zu verhindern und so das Risiko zu verringern, dass sich Erwachsene als Minderjährige ausgeben und/oder versuchen, Minderjährigen Schaden zuzufügen.

27.

Schließlich können Instrumente zur Altersfeststellung eingesetzt werden, um die altersgerechte Gestaltung der Dienste selbst zu unterstützen und so sicherere und kindgerechtere Online-Räume zu fördern. In diesen Fällen können die Instrumente eingesetzt werden, um sicherzustellen, dass Kinder nur Zugang zu bestimmten Inhalten, Funktionen oder Aktivitäten haben, die unter Berücksichtigung ihres Alters und ihres sich entwickelnden Fähigkeiten für den Konsum durch Kinder geeignet sind.

28.

Es ist wichtig, zwischen der Altersbeschränkung, die den Zugang zu der Plattform oder Teilen davon auf Nutzer unter oder über einem bestimmten Alter beschränkt, einerseits und den Methoden der Altersfeststellung, die zur Bestimmung des Alters eines Nutzers angewandt werden, andererseits zu unterscheiden.

29.

Die gängigsten Maßnahmen zur Altersfeststellung, die derzeit auf Online-Plattformen zur Verfügung stehen und von ihnen angewandt werden, lassen sich in drei große Kategorien einteilen: Eigenerklärung, Altersschätzung und Altersüberprüfung.

a)

Bei der Eigenerklärung handelt es sich um Methoden, die sich darauf stützen, dass eine Person ihr Alter angibt oder ihre Altersgruppe bestätigt, indem sie entweder freiwillig ihr Geburtsdatum oder ihr Alter angibt oder – in der Regel durch Anklicken einer Schaltfläche auf einer Website – erklärt, ein bestimmtes Alter überschritten zu haben.

b)

Die Altersschätzung umfasst Methoden, die einen Anbieter in die Lage versetzen, festzustellen, dass ein Nutzer wahrscheinlich ein bestimmtes Alter hat, in eine bestimmte Altersgruppe fällt oder ein bestimmtes Alter über- oder unterschreitet (33).

c)

Bei der Altersüberprüfung handelt es sich um ein System, dass sich auf physische Identitätsnachweise oder überprüfte Quellen für die Identifizierung stützt, die bei der Bestimmung des Alters eines Nutzers einen hohen Grad an Gewissheit bieten.

30.

Der Hauptunterschied zwischen Altersschätzung und Altersüberprüfung ist der Grad der Genauigkeit. Während die Altersüberprüfung Gewissheit über das Alter des Nutzers bietet, wird mit der Altersschätzung nur das ungefähre Alter des Nutzers bestimmt. Die Genauigkeit der Technologien zur Altersschätzung kann sich mit dem technologischen Fortschritt ändern und verbessern.

6.1.2.   Bestimmung, ob Zugangsbeschränkungen eingeführt werden sollen, die durch Maßnahmen zur Altersfeststellung unterstützt werden

31.

Bevor Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, entscheiden, ob sie auf dem Alter basierende Zugangsbeschränkungen einführen, die durch Methoden der Altersfeststellung unterstützt werden, sollten sie stets eine Bewertung durchführen, um zu bestimmen, ob eine solche Maßnahme dazu geeignet ist, für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen innerhalb ihres Dienstes zu sorgen, und ob sie verhältnismäßig ist oder ein solch hohes Maß vielmehr bereits durch Rückgriff auf andere, weniger weitreichende Maßnahmen erreicht werden kann (34). In diesem Zusammenhang vertritt die Kommission die Auffassung, dass Anbieter auf dem Alter basierende Zugangsbeschränkungen, die durch Maßnahmen zur Altersfeststellung unterstützt werden, als ergänzendes Instrument zu den in anderen Abschnitten dieser Leitlinien dargelegten Maßnahmen in Betracht ziehen sollten. Anders gesagt können Zugangsbeschränkungen und Altersfeststellung allein nicht die an anderer Stelle in diesen Leitlinien empfohlenen Maßnahmen ersetzen.

32.

Durch diese Bewertung sollte sichergestellt werden, dass jede Einschränkung der Ausübung der Grundrechte und Grundfreiheiten der Nutzer, insbesondere Minderjähriger, verhältnismäßig ist. Folglich ist die Kommission der Auffassung, dass Anbieter von Online-Plattformen das Ergebnis einer solchen Bewertung auf der Online-Schnittstelle ihres Dienstes öffentlich zugänglich machen sollten, und zwar sowohl dann, wenn die Bewertung ergibt, dass keine durch eine Altersfeststellung unterstützte Zugangsbeschränkung erforderlich ist, als auch dann, wenn die Bewertung ergibt, dass eine solche Beschränkung eine geeignete und verhältnismäßige Maßnahme wäre.

33.

Die Kommission weist darauf hin, dass eine geringere Genauigkeit von Lösungen zur Altersschätzung nicht zwangsläufig einer geringeren Auswirkung auf die Grundrechte und Grundfreiheiten der Nutzer gleichkommt, da bei weniger genauen Lösungen möglicherweise mehr personenbezogene Daten verarbeitet werden als bei genaueren Lösungen. Zudem können weniger genaue Lösungen eben aufgrund ihres geringeren Genauigkeitsgrads manche Kinder am Zugang zu Online-Plattformen hindern, auf die sie andernfalls zugreifen könnten. Daher sollten Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, bei der Prüfung von Methoden der Altersschätzung, die die Verarbeitung personenbezogener Daten erfordern, sicherstellen, dass die Datenschutzgrundsätze, insbesondere die Datenminimierung, ordnungsgemäß umgesetzt und über die Zeit ständig eingehalten werden bleiben. Hierbei ist die Erklärung des Europäischen Datenschutzausschusses (EDSA) zur Altersfeststellung (35) zu berücksichtigen.

34.

Um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen innerhalb ihrer Dienste zu sorgen, sollten Anbieter von für Minderjährige zugänglichen Online-Plattformen, die Zugangsbeschränkungen auf der Grundlage von Methoden der Altersfeststellung für notwendig und verhältnismäßig halten, nach Auffassung der Kommission Informationen über alle von ihnen ermittelten Lösungen für die Altersfeststellung und deren Angemessenheit und Wirksamkeit bereitstellen. Zudem sollten sie eine Übersicht über die Leistungsparameter bereitstellen, die verwendet wurden, um dies zu messen, wie etwa Falsch-Positiv- und Falsch-Negativ-Raten sowie Korrektklassifikationsrate und Trefferquote.

35.

Es sollte die Beteiligung von Kindern an der Gestaltung, Umsetzung und Bewertung von Altersbeschränkungen und Methoden der Altersfeststellung vorgesehen werden.

36.

Online-Plattformen, die für Minderjährige zugänglich sind, weisen möglicherweise nur einige Inhalte, Bereiche oder Funktionen auf, die ein Risiko für Minderjährige bergen. Sie können auch Teile, bei denen das Risiko durch andere Maßnahmen gemindert werden kann, und Teile aufweisen, bei denen dies nicht möglich ist. In diesen Fällen sollten die Anbieter derartiger Online-Plattformen nicht den gesamten Dienst einer Altersbeschränkung unterwerfen, sondern prüfen, welche Inhalte, Bereiche oder Funktionen auf ihrer Plattform Risiken für Minderjährige bergen, und dann auf Methoden der Altersfeststellung basierende Zugangsbeschränkungen einführen, um diese Risiken für Minderjährige auf verhältnismäßige und geeignete Weise zu verringern. Beispielsweise sollten Teile von Diensten sozialer Medien mit Inhalten, Bereichen oder Funktionen, die ein Risiko für Minderjährige darstellen können, wie z. B. auf Erwachsene beschränkte Bereiche sozialer Medien oder Bereiche mit auf Erwachsene beschränkten kommerziellen Kommunikationen oder auf Erwachsene beschränkten Produktplatzierungen durch Influencer, nur erwachsenen Nutzern verfügbar gemacht werden, deren Alter entsprechend überprüft wurde.

6.1.3.   Bestimmung der anzuwendenden Methoden der Altersfeststellung

6.1.3.1.   Altersüberprüfung

37.

Angesichts der Tatsache, dass der Schutz von Minderjährigen ein wichtiges politisches Ziel der Union darstellt, dem die Verordnung (EU) 2022/2065 konkreten Ausdruck verleiht, wie in ihrem Erwägungsgrund 71 dargelegt, betrachtet die Kommission unter den folgenden Umständen die Anwendung von Zugangsbeschränkungen, die durch Methoden zur Altersüberprüfung unterstützt werden, als geeignete und verhältnismäßige Maßnahme, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen:

a)

Wenn bestimmte Produkte oder Dienste ein hohes Risiko für Minderjährige bergen und diese Risiken in Ansehung der geltenden Rechtsvorschriften der Union und der Mitgliedstaaten nicht durch weniger restriktive Maßnahmen gemindert werden können, wie beispielsweise im Falle

i)

des Verkaufs von Alkohol, Tabak- und Nikotinerzeugnissen sowie Drogen,

ii)

des Zugangs zu allen Arten von pornografischen Inhalten,

iii)

des Zugangs zu Glücksspielinhalten.

b)

Wenn die allgemeinen Geschäftsbedingungen oder andere vertragliche Verpflichtungen des Dienstes aufgrund der festgestellten Risiken für Minderjährige verlangen, dass ein Nutzer mindestens 18 Jahre alt sein muss, um Zugang zu dem Dienst zu erhalten, auch wenn gesetzlich keine formelle Altersanforderung festgelegt ist.

c)

Alle sonstigen Fälle, in denen der Anbieter einer für Minderjährige zugänglichen Online-Plattform Risiken für die Privatsphäre, die Sicherheit oder den Schutz von Minderjährigen festgestellt hat, einschließlich Inhalts-, Verhaltens- und Verbraucherrisiken sowie Kontaktrisiken (z. B. durch Funktionen wie Live-Chat, Teilen von Bildern/Videos, anonymes Messaging), sofern diese Risiken nicht durch andere weniger einschneidende Maßnahmen gemindert werden können, die ebenso wirksam sind wie Zugangsbeschränkungen, die durch eine Altersüberprüfung unterstützt werden (36).

d)

Wenn das Unionsrecht oder das nationale Recht im Einklang mit dem Unionsrecht ein Mindestalter für den Zugang zu bestimmten Produkten oder Diensten vorschreibt, die auf einer Online-Plattform angeboten und/oder in irgendeiner Weise dargeboten werden, einschließlich eigens definierter Kategorien von Online-Diensten sozialer Medien (37).

38.

Methoden der Altersschätzung können die Technologien zur Altersüberprüfung ergänzen und zusätzlich zu ersteren oder als vorübergehende Alternative angewendet werden, insbesondere in Fällen, in denen Überprüfungsmaßnahmen, die die in Abschnitt 6.1.4 dargelegten Kriterien der Wirksamkeit von Lösungen für die Altersfeststellung mit besonderem Schwerpunkt auf dem Schutz des Rechts der Nutzer auf Privatsphäre und Datenschutz sowie auf die Genauigkeit erfüllen, noch nicht ohne Weiteres verfügbar sind. Der Übergangszeitraum sollte nicht über die erste Überprüfung dieser Leitlinien hinausgehen (38). In Ermangelung wirksamer Maßnahmen zur Altersüberprüfung können etwa Plattformen, die auf Erwachsene beschränkte Inhalte anbieten, beispielsweise Methoden zur Ex-ante-Altersschätzung anwenden, wenn sie nachweisen können, dass diese Methoden im Hinblick auf die in Abschnitt 6.1.4 genannten Kriterien mit den Methoden der Altersüberprüfung vergleichbar sind (39). Die Kommission kann die vorliegenden Leitlinien zu gegebener Zeit durch eine technische Analyse der wichtigsten existierenden Methoden der Altersschätzung ergänzen, die derzeit im Hinblick auf die in Abschnitt 6.1.4 dargelegten Kriterien verfügbar sind.

6.1.3.2.   Technologien zur Altersüberprüfung

39.

Die Altersüberprüfung sollte als separater, gesonderter Vorgang behandelt werden, der nicht mit anderen Datenerhebungstätigkeiten von Online-Plattformen verknüpft ist. Die Altersüberprüfung sollte Anbieter von Online-Plattformen nicht dazu berechtigen, personenbezogene Daten zu speichern, die über Angaben zur Altersgruppe des Nutzers hinausgehen.

40.

Wie in Abschnitt 6.1.4 weiter ausgeführt, sollte jede Methode der Altersfeststellung robust und folglich nicht leicht zu umgehen sein, damit sie als geeignet und verhältnismäßig angesehen werden kann. Eine Methode, die von Minderjährigen leicht umgangen werden kann, wird nicht als wirksame Maßnahme zur Altersfeststellung angesehen.

41.

Methoden, die sich auf überprüfte und vertrauenswürdige von den Behörden ausgestellte Identitätsnachweise stützen, ohne dass der Plattform zusätzliche personenbezogene Daten zur Verfügung gestellt werden, können eine wirksame Methode zur Altersüberprüfung darstellen, sofern sie auf anonymisierten Alterstoken basieren (40). Solche Token sollten nach einer verlässlichen Überprüfung des Alters einer Person ausgegeben werden, und zwar von einem unabhängigen Dritten und nicht vom Anbieter der Online-Plattform selbst, insbesondere dann nicht, wenn dieser Zugang zu Inhalten für Erwachsene anbietet. Die Kommission ist der Auffassung, dass kryptografische Protokolle wie Key Rotation oder Zero-Knowledge-Proof (41) eine geeignete Grundlage für die Altersfeststellung ohne Übermittlung personenbezogener Daten darstellen.

42.

Die Mitgliedstaaten sind derzeit dabei, allen ihren Bürgerinnen und Bürgern, Einwohnerinnen und Einwohnern sowie Unternehmen eine europäische Brieftasche für die digitale Identität zur Verfügung zu stellen (42). Die künftigen europäischen Brieftaschen für die digitale Identität stellen ein sicheres, zuverlässiges und privates Mittel zur elektronischen Identifizierung in der Union dar. Nach ihrer Einführung können sie verwendet werden, um nur bestimmte Informationen an einen Dienst weiterzugeben, wie z. B., dass eine Person ein bestimmtes Alter überschreitet.

Europäische Brieftasche für die digitale Identität

Nach Einführung der europäischen Brieftasche für die digitale Identität verfügt jedermann in der Union über ein sicheres, zuverlässiges und privates Mittel zur elektronischen Identifizierung. Jeder Mitgliedstaat ist verpflichtet, allen seinen Bürgerinnen und Bürgern, Einwohnerinnen und Einwohnern sowie Unternehmen bis Ende 2026 mindestens eine Brieftasche zur Verfügung zu stellen, die es ihnen ermöglicht, ihre Identität nachzuweisen und wichtige digitale Dokumente sicher zu speichern, weiterzugeben und zu unterzeichnen. Alle europäischen Brieftaschen für die digitale Identität beinhalten die Möglichkeit, ein Alterstoken zu erhalten, und die Mitgliedstaaten können Dienste für die Ausgabe solcher Token einrichten.

43.

Um die Altersüberprüfung zu erleichtern, bevor die europäischen Brieftaschen für die digitale Identität zur Verfügung stehen, erprobt die Kommission derzeit eine EU-Lösung für die Altersüberprüfung als eigenständige Maßnahme zur Altersüberprüfung, die die in Abschnitt 6.1.4 aufgeführten Kriterien für die Wirksamkeit von Lösungen zur Altersfeststellung erfüllt. Nach ihrer Fertigstellung wird die EU-Lösung für die Altersüberprüfung ein Konformitätsbeispiel darstellen und als Referenzstandard für eine gerätegebundene Methode zur Altersüberprüfung dienen. Anbieter von Online-Plattformen, von denen erwartet wird, dass sie für ihre Dienste Lösungen zur Altersüberprüfung nutzen, werden daher aufgefordert, sich an den laufenden Tests früher Versionen der EU-Lösung für die Altersüberprüfung zu beteiligen, in deren Rahmen diese Anbieter auch Information darüber erhalten, wie die Einhaltung des Artikels 28 der Verordnung (EU) 2022/2065 am besten sichergestellt werden kann.

44.

Die Umsetzung des von der EU-Lösung für die Altersüberprüfung vorgegebenen Referenzstandards (43) kann über Apps angeboten werden, die von öffentlichen oder privaten Stellen veröffentlicht oder in die künftigen europäischen Brieftaschen für die digitale Identität integriert werden. Die Umsetzung dieses Standards wird eine Technologie zur Altersüberprüfung darstellen, die die Privatsphäre wahrt, die Daten minimiert sowie nicht rückverfolgbar und interoperabel ist und den in Abschnitt 6.1.4 dargelegten Kriterien für die Wirksamkeit von Lösungen zur Altersüberprüfung entspricht.

EU-Lösung für die Altersüberprüfung

Die EU-Lösung für die Altersüberprüfung, einschließlich einer App, wird eine benutzerfreundliche Methode zur Altersüberprüfung sein, mit der nachgewiesen werden kann, dass ein Nutzer mindestens 18 Jahre alt (18+) ist. Diese Lösung wird die Lücke bis zur Verfügbarkeit der europäischen Brieftasche für die digitale Identität schließen. Mit dieser soliden, datenschutzfreundlichen und datenminimierenden Lösung soll ein Standard für den Schutz der Privatsphäre und die Benutzerfreundlichkeit gesetzt werden.

Die EU-Lösung für die Altersüberprüfung bietet einen Maßstab für die Einhaltung der Vorgaben in Bezug auf die Genauigkeit einer Lösung für die Altersfeststellung und minimiert zugleich die Auswirkungen auf die Rechte und Freiheiten der Nutzer.

Die Nutzer werden die Möglichkeit haben, die App einfach zu aktivieren und den Nachweis auf verschiedene Weise zu erhalten. Der Nachweis dient nur zur Bestätigung, dass der Nutzer mindestens 18 Jahre alt ist. Er enthält weder Angaben zum genauen Alter noch weitere Informationen über den Nutzer. Der Nutzer kann den 18+-Nachweis auf der Online-Plattform unter Wahrung seiner Privatsphäre vorlegen, ohne dass Daten an den Nachweisanbieter weitergeleitet werden. Darüber hinaus werden Mechanismen eingeführt, um eine Verfolgung über Online-Plattformen hinweg zu verhindern. Die Nutzung der App ist einfach. Wenn ein Nutzer um Zugang zu Online-Inhalten für Erwachsene ersucht, weist er der Online-Plattform mithilfe der App den 18+-Nachweis vor. Nach Prüfung seiner Gültigkeit gewährt die Online-Plattform dem Nutzer Zugang. Die Identität und die Aktionen des Nutzers sind während des gesamten Vorgangs vor Offenlegung geschützt. Der vertrauenswürdige Nachweisanbieter erfährt nicht, auf welche Online-Dienste der Nutzer mithilfe des 18+-Nachweises zugreifen möchte. Ebenso wird den 18+-Online-Diensteanbietern nicht die Identität des Nutzers mitgeteilt, der um Zugang ersucht; sie erhalten nur einen Nachweis darüber, dass der Nutzer mindestens 18 Jahre alt ist.

Die EU-Lösung für die Altersüberprüfung wird auch die technische Möglichkeit bieten, andere Attribute, z. B. für die Lebendigkeit einer Person, bereitzustellen. In Ländern, in denen gültige Methoden zur Bescheinigung eines Alters unter 18 Jahren unterstützt werden, kann die EU-Lösung für die Altersüberprüfung auch eine Altersüberprüfung für Personen unter 18 Jahren vorsehen.

45.

Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, können andere Methoden zur Altersüberprüfung anwenden, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen, sofern diese mit dem EU-Referenzstandard (wie in den Nummern 43 und 44 beschrieben) vereinbar sind und die in Abschnitt 6.1.4 genannten Kriterien erfüllen. Die EU-Lösung für die Altersüberprüfung ist ein Beispiel für eine Methode, die diese Kriterien erfüllt.

46.

Um die Einhaltung der Grundsätze der Datenminimierung, der Zweckbindung und des Nutzervertrauens sicherzustellen, werden die Anbieter von Online-Plattformen aufgefordert, Doppelblindmethoden zur Altersüberprüfung anzuwenden. Eine Doppelblindmethode stellt sicher, dass i) der Online-Plattform keine zusätzlichen Möglichkeiten zur Identifizierung des Nutzers geboten werden und sie stattdessen nur Informationen erhält, anhand deren sie feststellen kann, ob der Nutzer die erforderliche Altersgrenze erreicht hat, und dass ii) der Altersüberprüfungsanbieter keine Kenntnis von den Diensten erhält, für die der Altersnachweis verwendet wird. Derartige Methoden können sich auf die Verarbeitung auf lokalen Geräten, anonymisierte kryptografische Token oder Zero-Knowledge-Proofs stützen (44).

6.1.3.3.   Altersschätzung

47.

Die Kommission ist der Auffassung, dass die Anwendung von Methoden der Altersschätzung, wenn diese von einem unabhängigen Dritten oder mithilfe von Systemen, die insbesondere im Hinblick auf die Einhaltung der Sicherheits- und Datenschutzvorschriften von unabhängiger Seite angemessen geprüft werden, bereitgestellt werden und wenn die Anwendung außerdem im Voraus erfolgt, um die Wirksamkeit der Maßnahme zu gewährleisten, unter den folgenden Umständen eine geeignete und verhältnismäßige Maßnahme ist, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen:

a)

Wenn die allgemeinen Geschäftsbedingungen des Online-Plattformdienstes oder ähnliche vertragliche Verpflichtungen des Dienstes aufgrund von Risiken für die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen, die auf der Grundlage der Bewertung des Anbieters der Risiken für Minderjährige festgestellt wurden, verlangen, dass ein Nutzer ein erforderliches Mindestalter von weniger als 18 Jahren überschritten haben muss, um Zugang zu dem Dienst zu erhalten (45) , (46).

b)

Wenn der Anbieter der Online-Plattform auf seiner Plattform mittlere Risiken für Minderjährige nach Maßgabe seiner Risikobewertung (siehe Abschnitt 5 über die Risikobewertung) ermittelt hat (47) und diese Risiken nicht durch weniger restriktive Maßnahmen gemindert werden können. Nach Auffassung der Kommission ist dies der Fall, wenn das Risiko nicht hoch genug ist, um eine Zugangsbeschränkung auf der Grundlage einer Altersüberprüfung zu erfordern, aber auch nicht so niedrig, dass es angemessen wäre, keine Zugangsbeschränkung bzw. eine Zugangsbeschränkung vorzusehen, die nicht auf Methoden der Altersfeststellung basiert oder sich nur auf eine Eigenerklärung stützt. Die Eigenerklärung wird, wie unten näher erläutert wird, nicht als geeignete Maßnahme zur Altersfeststellung angesehen.

Bewährtes Verfahren

MegaBetting (48) ist eine Online-Plattform, die es den Nutzern ermöglicht, über den Ausgang realer Ereignisse Wetten abzuschließen. Der Anbieter beschränkt seinen Dienst im Einklang mit dem nationalen Recht auf Nutzer über 18 Jahre. Um sicherzustellen, dass seine Online-Plattform für Minderjährige nicht zugänglich ist, stützt er sich auf die EU-Lösung für die Altersüberprüfung, die den Anbieter lediglich darüber informiert, ob der Nutzer mindestens 18 Jahre alt ist. Diese Information wird von einem vertrauenswürdigen Aussteller auf der Grundlage der nationalen eID des Nutzers generiert und an eine App auf dem Mobiltelefon des Nutzers übermittelt. Der Anbieter ist daher der Auffassung, dass das System das Kriterium der hohen Wirksamkeit unter Wahrung der Privatsphäre des Nutzers erfüllt.

Schlechtes Verfahren

SadMedia ist eine Social-Media-Online-Plattform. Der Anbieter von SadMedia hatte beschlossen, seine Dienste auf Minderjährige zu beschränken, die mindestens 13 Jahre alt sind. Grundlage hierfür war die Bewertung der mittleren Risiken, die die Plattform für die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen bergen könnte. Diese Beschränkung ist in den allgemeinen Geschäftsbedingungen von SadMedia festgelegt. Zur Durchsetzung dieser Beschränkung stützt sich der Anbieter von SadMedia auf ein von ihm entwickeltes Altersschätzungsmodell, das nach seiner Aussage das Alter des Nutzers mit einer Fehlermarge von ± 2 Jahren vorhersagen kann. Aufgrund dieser Fehlermarge erhalten viele Minderjährige, die das angegebene Alter noch nicht erreicht haben, Zugang zu dem Dienst, während viele Minderjährige, die das erforderliche Alter haben, keinen Zugang erhalten. Die Maßnahme zur Altersfeststellung von SadMedia ist nicht sehr wirksam und sorgt daher nicht für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen innerhalb des Dienstes.

48.

Hat der Anbieter einer für Minderjährige zugänglichen Online-Plattform festgestellt, dass Zugangsbeschränkungen, die durch eine Altersfeststellung unterstützt werden, erforderlich sind, um ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen innerhalb seines Dienstes zu erreichen, sollte er nach Auffassung der Kommission auf seiner Plattform mehr als eine Methode der Altersfeststellung anbieten, damit der Nutzer zwischen mehreren Methoden wählen kann. Dies unter der Voraussetzung, dass alle diese Methoden die in Abschnitt 6.1.4 dargelegten Kriterien erfüllen. Dies wird dazu beitragen, den Ausschluss von Nutzern zu vermeiden, die zwar für den Zugang zu einer Online-Plattform infrage kommen, sich aber einer bestimmten Methode der Altersfeststellung nicht bedienen können. Um die Wirksamkeit und Benutzerfreundlichkeit zu erhöhen, sollte – zusätzlich zu anderen in diesen Leitlinien genannten Schutzmaßnahmen – die geeignete Methode der Altersfeststellung nach Möglichkeit bei der Kontoerstellung zur Anwendung kommen und die Altersinformation anschließend verwendet werden, um zu einem altersgerechten Erlebnis auf der Plattform beizutragen. Darüber hinaus sollten die Anbieter von Online-Plattformen einen Rechtsbehelfsmechanismus für Nutzer vorsehen, damit die Nutzer Einspruch gegen eine fehlerhafte Altersbestimmung durch den Anbieter einlegen können (49).

Schlechtes Verfahren

SadMedia nutzt eine Lösung zur Altersschätzung als eine von mehreren Maßnahmen, die zu einem hohen Maß an Privatsphäre, Sicherheit und Schutz beitragen sollen. Wenn das Altersschätzungssystem ein negatives Ergebnis liefert, aus dem hervorgeht, dass der Nutzer zu jung ist, um den Dienst zu nutzen, wird dem Nutzer ein Pop-up mit der Meldung „Mit dem Ergebnis nicht einverstanden? Bitte erneut versuchen!“ angezeigt. Der Nutzer kann dann den Altersschätzungstest mit derselben Methode wiederholen. In diesem Beispiel würde die Methode der Altersfeststellung nicht als geeignet oder verhältnismäßig angesehen, da dem Nutzer weder die Möglichkeit zur Verwendung einer anderen Methode der Altersfeststellung gegeben noch eine Rechtsbehelfsmöglichkeit angeboten wird, um eine fehlerhafte Bestimmung anzufechten.

6.1.4.   Bewertung der Eignung und Verhältnismäßigkeit der einzelnen Methoden der Altersfeststellung

49.

Wenn ein Anbieter von für Minderjährige zugänglichen Online-Plattformen in Betracht zieht, eine bestimmte Methode der Altersüberprüfung oder Altersschätzung zur Unterstützung von Zugangsbeschränkungen einzuführen, sollte er die folgenden Merkmale dieser Methode berücksichtigen:

a)

Genauigkeit. Wie genau eine bestimmte Methode das Alter des Nutzers bestimmt.

Die Genauigkeit einer Methode der Altersüberprüfung oder Altersschätzung sollte anhand geeigneter, klarer und öffentlich zugänglicher Parameter bewertet werden. Diese Parameter sind erforderlich, um beurteilen zu können, inwieweit mit der Methode korrekt festgestellt werden kann, ob ein Nutzer ein bestimmtes Alter über- oder unterschreitet oder welcher Altersgruppe er angehört (50). Die Anbieter von Online-Plattformen sollten regelmäßig überprüfen, ob die technische Genauigkeit der verwendeten Methode nach wie vor dem Stand der Technik entspricht.

b)

Zuverlässigkeit. Wie zuverlässig eine bestimmte Methode in der Praxis unter realen Bedingungen funktioniert.

Damit eine Methode zuverlässig ist, sollte sie jederzeit verfügbar sein und unter unterschiedlichen realen Bedingungen funktionieren, die über ideale Laborbedingungen hinausgehen. Anbieter von für Minderjährige zugänglichen Online-Plattformen sollten vor der Einführung einer bestimmten Lösung für die Altersfeststellung prüfen, ob alle Daten, die im Rahmen des Altersfeststellungsverfahrens herangezogen werden, aus einer zuverlässigen Quelle stammen. So würde beispielsweise ein selbst unterzeichneter Altersnachweis nicht als zuverlässig angesehen.

c)

Robustheit. Wie leicht eine bestimmte Methode umgangen werden kann.

Eine Methode, die von Minderjährigen leicht umgangen werden kann, wird nicht als ausreichend robust und folglich nicht als wirksam angesehen. Wie leicht die Umgehung zu bewerkstelligen ist, müssen die Anbieter von für Minderjährige zugänglichen Online-Plattformen von Fall zu Fall unter Berücksichtigung des Alters der Minderjährigen bewerten, auf die die spezifischen Maßnahmen ausgerichtet sind. Die Anbieter von für Minderjährige zugänglichen Online-Plattformen sollten auch bewerten, ob die Methode der Altersfeststellung Sicherheit und Schutz nach dem Stand der Technik bietet, um die Integrität der verarbeiteten Altersdaten zu gewährleisten.

d)

Nicht-Intrusivität. Wie stark greift eine bestimmte Methode in die Rechte der Nutzer ein.

Die Anbieter von für Minderjährige zugänglichen Online-Plattformen sollten regelmäßig die Auswirkungen der gewählten Methode auf die Rechte und Freiheiten der Nutzer, einschließlich ihres Rechts auf Privatsphäre, auf Datenschutz und auf freie Meinungsäußerung, bewerten (51). Nach Auffassung des Europäischen Datenschutzausschusses und im Einklang mit Artikel 28 Absatz 3 der Verordnung (EU) 2022/2065 (52) sollte ein Anbieter nur die altersbezogenen Attribute verarbeiten, die für den spezifischen Zweck unbedingt erforderlich sind, und die Altersfeststellung sollte nicht dazu verwendet werden, den Anbietern zusätzliche Mittel an die Hand zu geben, um die Identifizierung, die Lokalisierung, das Profiling oder das Tracking von natürlichen Personen zu ermöglichen (53). Ist die Methode intrusiver als eine andere Methode, die das gleiche Maß an Sicherheit und Wirksamkeit bietet, sollte die weniger intrusive Methode gewählt werden. Dazu muss auch bewertet werden, ob die Methode vollständige Transparenz in Bezug auf das Verfahren im Einklang mit Artikel 12 der Verordnung (EU) 2016/679 bietet und/oder ob sie Informationen über den gefährdeten Nutzer bereitstellt. Auf keinen Fall dürfen die Daten, die verarbeitet werden, um festzustellen, ob ein Nutzer ein bestimmtes Alter über- oder unterschreitet, gespeichert oder für andere Zwecke verwendet werden.

e)

Nichtdiskriminierung. Wie eine bestimmte Methode manche Nutzer diskriminieren kann.

Die Anbieter von für Minderjährige zugänglichen Online-Plattformen sollten sicherstellen, dass die gewählte Methode geeignet ist und allen Minderjährigen unabhängig von Behinderung, Sprache, ethnischer Zugehörigkeit, Geschlecht, Religion und Zugehörigkeit zu einer Minderheit zur Verfügung steht.

50.

Maßnahmen zur Altersfeststellung, die die oben genannten Kriterien nicht erfüllen, können nicht als geeignet und verhältnismäßig angesehen werden.

51.

Lösungen für die Altersfeststellung, die leicht umgangen werden können, sollten nicht als Lösungen angesehen werden, die für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen sorgen. Diese Bewertung sollte in Abhängigkeit von den Auswirkungen vorgenommen werden, die die Plattform auf die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen haben kann. Die Speicherung eines Altersnachweises sollte auch von den Risiken abhängig gemacht werden, die mit den jeweiligen Plattformen verbunden sind. So sollten beispielsweise auf Erwachsene beschränkte Online-Plattformen nicht die Weitergabe von Benutzerkonto-Anmeldedaten ermöglichen und somit jedes Mal eine Altersfeststellung vornehmen, wenn auf den Dienst zugegriffen wird.

52.

Die Kommission ist der Auffassung, dass die Eigenerklärung (54) nicht alle oben genannten Anforderungen erfüllt, insbesondere nicht die Anforderung an Robustheit und Genauigkeit. Daher betrachtet sie die Eigenerklärung nicht als geeignete Methode der Altersfeststellung, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen im Einklang mit Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 zu sorgen.

53.

Darüber hinaus ist die Kommission der Auffassung, dass die Tatsache, dass die Altersfeststellung mithilfe eines Dritten erfolgt, den Minderjährigen – wie sonst auch – in zugänglicher und sichtbarer Weise sowie in kindgerechter Sprache erläutert werden sollte (siehe Abschnitt 8.4 zur Transparenz). Außerdem obliegt es nach wie vor dem Anbieter, im Einklang mit den vorstehenden Erwägungen sicherzustellen, dass die vom Dritten verwendete Methode wirksam ist. Dies gilt beispielsweise auch dann, wenn sich der Anbieter auf Lösungen stützen will, die von Betriebssystemen oder Gerätebetreibern bereitgestellt werden.

6.2.   Registrierung

54.

Die Registrierung oder Authentifizierung kann Einfluss darauf haben, ob und wie Minderjährige in sicherer, altersgerechter und die Rechte wahrender Weise auf einen bestimmten Dienst zugreifen und ihn nutzen können. Die Kommission ist der Auffassung, dass, wenn festgestellt wurde, dass eine Altersfeststellung erforderlich ist, um ein hohes Maß an Privatsphäre, Sicherheit und Schutz zu gewährleisten und ein altersgerechtes Erlebnis zu bieten, die Registrierung oder Authentifizierung ein erster Ausgangspunkt sein kann, damit dies in verhältnismäßiger Weise geschieht.

55.

Wenn keine Registrierung erforderlich ist und der Anbieter einer für Minderjährige zugänglichen Online-Plattform sich der Tatsache bewusst ist, dass nicht registrierte Benutzer Minderjährige sein könnten, die das von der Online-Plattform für den Zugriff auf den Dienst und/oder auf nicht altersgerechte Inhalte auf dem Dienst verlangte Mindestalter noch nicht erreicht haben, sollte er die Einstellungen aller nicht registrierten Benutzer so konfigurieren, dass das Höchstmaß an Privatsphäre, Sicherheit und Schutz gewährleistet ist. Dabei sollte er insbesondere die in den Abschnitten 6.3.1 und 6.3.2 dargelegten Empfehlungen berücksichtigen und das Wohl des Kindes als vorrangige Erwägung behandeln, auch unter Berücksichtigung der Kontaktrisiken durch einen Erwachsenen, der sich möglicherweise als Kind ausgibt.

56.

Wenn eine Registrierung erforderlich ist oder als Möglichkeit für den Zugang zu einer für Minderjährige zugänglichen Online-Plattform angeboten wird, sollte der Anbieter dieser Plattform nach Auffassung der Kommission

a)

den Nutzern die Vorteile und Risiken einer Registrierung sowie gegebenenfalls die Gründe erläutern, aus denen eine Registrierung erforderlich ist (siehe Abschnitt 8.4 zur Transparenz);

b)

sicherstellen, dass das Registrierungsverfahren für alle Minderjährigen – auch für Menschen mit Behinderungen oder mit zusätzlichen Anforderungen an die Zugänglichkeit – entsprechend ihren sich entwickelnden Fähigkeiten leicht zugänglich ist und sie leicht damit zurechtkommen können und dass es in einer Sprache abgewickelt wird, die sie verstehen können;

c)

sicherstellen, dass das Registrierungsverfahren Maßnahmen umfasst, die den Nutzern helfen, zu verstehen, ob sie alt genug für die Nutzung des Dienstes sind. Im Einklang mit Buchstabe d sollten diese Maßnahmen den Nutzern erst dargeboten werden, nachdem eine Methode der Altersfeststellung, einschließlich Eigenerklärung, angewandt wurde;

d)

vermeiden, Nutzer, die das von der für Minderjährige zugänglichen Online-Plattform verlangte Mindestalter noch nicht erreicht haben, dazu aufzufordern oder zu verleiten, Konten einzurichten oder auf den Dienst zuzugreifen, sowie Maßnahmen ergreifen, um das Risiko zu verringern, dass dies geschieht (55);

e)

sicherstellen, dass es für Minderjährige leicht ist, sich abzumelden und ihr Konto auf Verlangen löschen zu lassen;

f)

das Registrierungsverfahren als eine Möglichkeit nutzen, um erforderlichenfalls mit Blick auf die Empfehlungen in den Abschnitten 5 und 6.1 (56) eine Altersfeststellung vorzunehmen sowie die Sicherheitsmerkmale der Plattform oder des Dienstes, die Verhaltensregeln mitsamt den jeweiligen Folgen von Verstößen gegen die Geschäftsbedingungen, alle festgestellten Risiken für die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen und die zur Unterstützung der Nutzer verfügbaren Ressourcen aufzuzeigen;

g)

sicherstellen, dass Kinder im Rahmen des Registrierungsverfahrens nicht dazu aufgefordert oder verleitet werden, in ihrem Profil mehr Informationen zur Verfügung zu stellen oder weiterzugeben, als für das Funktionieren des Dienstes erforderlich ist, und dass die Zustimmung der Eltern oder Erziehungsberechtigten des Kindes eingeholt wird, wenn dies nach dem Recht der Union oder der Mitgliedstaaten erforderlich ist.

6.3.   Kontoeinstellungen

6.3.1.   Standardeinstellungen

57.

Standardeinstellungen sind ein wichtiges Instrument, das Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, nutzen können, um Risiken für die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen zu mindern, wie z. B. das Risiko unerwünschter Kontakte von Personen, die Minderjährigen Schaden zufügen wollen. Es gibt Belege dafür, dass Nutzer dazu neigen, ihre Standardeinstellungen nicht zu ändern. Somit werden also die Standardeinstellungen der meisten Nutzer beibehalten und spielen eine entscheidende Rolle bei der Verhaltenssteuerung (57). Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, sollten daher nach Auffassung der Kommission

a)

sicherstellen, dass die Grundsätze für Privatsphäre, Sicherheit und Schutz durch Technikgestaltung durchweg auf alle Konteneinstellungen für Minderjährige angewandt werden;

b)

bei Konten Minderjähriger durch Voreinstellungen das höchste Maß an Datenschutz, Sicherheit und Schutz aktivieren. Dazu gehört auch, die Standardeinstellungen so zu gestalten, dass sichere und altersgerechte Einstellungen für Minderjährige unter Berücksichtigung ihrer sich entwickelnden Fähigkeiten gewährleistet sind. Diese Einstellungen sollten standardmäßig für alle Minderjährigen mindestens Folgendes sicherstellen:

i)

Die Konten ermöglichen nur Interaktionen wie Likes, Tags, Kommentare, Direktnachrichten, Reposts und Erwähnungen mit zuvor akzeptierten Konten.

ii)

Kein Konto kann Kontakt-, Standort- oder Kontoinformationen oder von Minderjährigen auf die Plattform hochgeladene oder dort geteilte Inhalte herunterladen oder Screenshots davon machen.

iii)

Nur Konten, die der Minderjährige zuvor akzeptiert hat, können seine Inhalte, Posts und Kontoinformationen einsehen.

iv)

Niemand kann die Aktivitäten des Minderjährigen erkennen, wie z. B. das „Liken“ von Inhalten oder das „Folgen“ eines anderen Nutzers.

v)

Geolokalisierung, Mikrofon, Fotozugang und Kamera, Kontaktsynchronisierung sowie alle nicht unbedingt erforderlichen Tracking-Funktionen sind deaktiviert.

vi)

Das standardmäßige automatische Abspielen von Videos (Autoplay) und das Hosten von Livestreams sind deaktiviert.

vii)

Push-Benachrichtigungen sind standardmäßig deaktiviert und werden während der Kernschlafstunden immer deaktiviert, wobei die Kernschlafstunden an das Alter des Minderjährigen angepasst werden. Wenn der Nutzer willentlich Push-Benachrichtigungen aktiviert, sollten diese den Nutzer nur über Interaktionen informieren, die sich aus den direkten Kontakten des Nutzers und aus Inhalten von Konten oder Kanälen ergeben, denen der Nutzer aktiv folgt oder mit denen er interagiert (z. B. sollten Push-Benachrichtigungen niemals unauthentisch sein und stets die genaue Angabe des Nutzers oder Erstellers enthalten, von dem die Benachrichtigung kommt).

viii)

Funktionen, die zu einer übermäßigen Nutzung beitragen können, wie z. B. die Zählung der „Likes“, „Reaktionen“ oder „Streaks“, sowie die Funktionen „... schreibt gerade“ und „Lesebestätigung“ sind deaktiviert.

ix)

Alle Funktionen, die die Handlungsmacht der Nutzer über ihre Interaktionen erhöhen, sind aktiviert. Hierzu können beispielsweise Informationen oder Widerstände gehören, die die Anzeige von Inhalten, das Posten und die Benutzerinteraktion verlangsamen und den Nutzern Gelegenheit geben, nachzudenken, bevor sie entscheiden, ob sie mehr Inhalte sehen möchten, oder bevor sie posten.

x)

Empfehlungen anderer Konten sind deaktiviert.

xi)

Filter, die mit negativen Auswirkungen auf die Körperwahrnehmung, das Selbstwertgefühl und die psychische Gesundheit in Verbindung gebracht werden können, sind deaktiviert.

c)

prüfen, ob es in Ansehung des Alters und der sich entwickelnden Fähigkeiten der Minderjährigen und des Ergebnisses der Risikobewertung des Anbieters erforderlich ist, über den in diesem Abschnitt 6.3.1 festgelegten Mindeststandard für Standardeinstellungen hinauszugehen und strengere Standardeinstellungen zu konzipieren und zu implementieren, beispielsweise durch die Konzeption von Standardeinstellungen für jüngere Minderjährige, die keinem anderen Nutzer die Teilnahme an bestimmten Arten von Interaktionen erlauben;

d)

die Standardeinstellungen regelmäßig testen und aktualisieren und dabei sicherstellen, dass sie nach allen Aktualisierungen sowie gegen neu auftretende Online-Risiken und -Trends wirksam bleiben, einschließlich etwaiger Risiken für die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen, die der Anbieter im Rahmen seiner Risikobewertung ermittelt hat (siehe Abschnitt 5 über die Risikobewertung);

e)

sicherstellen, dass Minderjährige in keiner Weise aufgefordert oder verleitet werden, ihre Einstellungen auf ein niedrigeres Maß an Privatsphäre, Sicherheit und Schutz zu ändern, und dass alle Optionen zum Ändern der Standardeinstellungen ohne Wertung dargeboten werden;

f)

sicherstellen, dass Minderjährige entsprechend ihrem Alter, ihren sich entwickelnden Fähigkeiten und Bedürfnissen schrittweise eine zunehmende Kontrolle über ihre Einstellungen erhalten, um ihre wachsende Autonomie zu unterstützen und sie mit mehr Handlungsmacht auszustatten (58).

g)

sicherstellen, dass die Einstellungen Minderjährigen auf kindgerechte und zugängliche Weise erläutert werden (siehe Abschnitt 6.4 zur Online-Schnittstelle und zu anderen Tools).

58.

Wenn Minderjährige ihre Standardeinstellungen ändern oder sich für Funktionen entscheiden, die ihre Privatsphäre, ihre Sicherheit oder ihren Schutz gefährden, sollte der Anbieter einer Online-Plattform nach Auffassung der Kommission

a)

Minderjährige in die Lage versetzen, zwischen einer vorübergehenden Änderung ihrer Standardeinstellungen, z. B. für einen bestimmten Zeitraum oder für die momentane Nutzung in der aktuellen Sitzung, und einer dauerhaften Änderung ihrer Standardeinstellungen zu wählen;

b)

die einfache Rückkehr zu den Standardeinstellungen ermöglichen, beispielsweise durch Zurücksetzen mit einem Klick oder durch eine verlaufsbasierte Funktion zum Rückgängigmachen der Änderung von Einstellungen;

c)

Warnhinweise ausgeben, wenn Minderjährige ihre Einstellungen ändern, und bei dieser Gelegenheit die möglichen Folgen dieser Änderungen in klarer Weise erläutern;

d)

Minderjährige regelmäßig an die möglichen Folgen ihrer Änderungen erinnern und ihnen regelmäßig die Möglichkeit bieten, zu ihren Standardeinstellungen zurückzukehren;

e)

die Geolokalisierung, das Mikrofon und die Kamera sowie nicht unbedingt notwendige Tracking-Funktionen am Ende der Sitzung automatisch deaktivieren, falls sie von Minderjährigen aktiviert wurden;

f)

wenn die Geolokalisierung, das Mikrofon und die Kamera aktiviert sind, dies den Minderjährigen während der gesamten Zeit, in der sie aktiviert sind, deutlich machen.

6.3.2.   Verfügbarkeit von Einstellungen, Merkmalen und Funktionen

59.

Nach Auffassung der Kommission sollten Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind,

a)

prüfen, ob einige Einstellungen, Merkmale oder Funktionen vollständig aus den Konten von Minderjährigen entfernt werden sollten und/oder ob einige der im vorherigen Abschnitt 6.3.1 genannten Standardeinstellungen für alle Minderjährigen oder für Minderjährige bestimmter Altersgruppen unter Berücksichtigung ihres Alters und ihrer sich entwickelnden Fähigkeiten unumkehrbar oder unveränderlich gemacht werden sollten, und diese Einstellungen auf der Grundlage dieser Prüfung entfernen und/oder unumkehrbar machen. Im Rahmen dieser Prüfung sollten die Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, bewerten, in welcher Weise diese Einstellungen und Funktionen das hohe Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen auf ihrer Plattform beeinträchtigen können;

b)

sicherstellen, dass ungeachtet der von den Minderjährigen gewählten Kontoeinstellungen

i)

Minderjährige keinesfalls von Konten, die sie nicht zuvor als Kontakte akzeptiert haben, in einfacher Weise gefunden oder kontaktiert werden können;

ii)

die persönlichen Kontaktdaten von Minderjährigen, einschließlich E-Mail-Adressen und Telefonnummern, niemals an andere Nutzer weitergegeben werden, es sei denn, die Minderjährigen haben dies ausdrücklich gestattet;

iii)

die Konten von Minderjährigen niemals in Kontaktempfehlungen für Erwachsene eingeschlossen werden. Konten von Erwachsenen oder Konten, bei denen es sich wahrscheinlich um gefälschte Konten von Minderjährigen handelt, werden Minderjährigen nicht empfohlen;

iv)

Konten, die die Minderjährigen nicht zuvor als Kontakte akzeptiert haben, niemals Einsicht in ihre Profilinformationen, Biografie, Aktivitäten und Historie wie „Likes“ und „Aufrufe“, Freundes- und Followerlisten sowie Konten haben, denen die Minderjährigen folgen, und dass diese Informationen nicht mehr verfügbar sind, wenn ein Konto gesperrt oder seine Annahme anderweitig rückgängig gemacht wird;

c)

sicherstellen, dass Minderjährige die Möglichkeit haben, die Sichtbarkeit ihres Profilfotos und einzelner von ihnen veröffentlichter Inhalte einzuschränken, sowie die Möglichkeit, die Sichtbarkeit ihrer Inhalte generell einzuschränken;

d)

sicherstellen, dass Minderjährige die Möglichkeit haben, das Tagging durch andere Nutzer, sei es in Inhalten, Kommentaren oder anderswo, zu akzeptieren oder abzulehnen;

e)

Maßnahmen ergreifen, um zu verhindern, dass Minderjährige unabsichtlich unerwünschte Kontakte akzeptieren, indem beispielsweise von den Nutzern verlangt wird, eine Nachricht beizufügen, wenn sie eine Verbindung zu einem Minderjährigen anfordern.

6.4.   Gestaltung von Online-Schnittstellen und andere Tools

60.

Die Kommission ist der Auffassung, dass Maßnahmen, die es Minderjährigen ermöglichen, die Kontrolle über ihr Online-Erlebnis zu übernehmen, ein wirksames Mittel sind, um für die Zwecke des Artikels 28 Absatz 1 der Verordnung (EU) 2022/2065 für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen.

61.

Unbeschadet der Pflichten der Anbieter sehr großer Online-Plattformen und sehr großer Online-Suchmaschinen gemäß Kapitel III Abschnitt 5 der Verordnung (EU) 2022/2065 und unabhängig von den Verpflichtungen der Anbieter von Online-Plattformen in Bezug auf die Gestaltung, die Organisation und den Betrieb ihrer Online-Schnittstellen, die sich aus Artikel 25 dieser Verordnung ergeben, ist die Kommission der Auffassung, dass Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, Funktionen festlegen und implementieren sollten, die es Minderjährigen ermöglichen, darüber zu entscheiden, wie sie mit ihren Diensten interagieren. Diese Funktionen sollten ein ausgewogenes Verhältnis zwischen der Handlungsfähigkeit des Kindes und einem angemessenen Maß an Privatsphäre, Sicherheit und Schutz bieten. Dies sollte beispielsweise Folgendes umfassen:

a)

Sicherstellung, dass die Gestaltung der Online-Schnittstelle Minderjährigen ein altersgerechtes Erlebnis bietet.

b)

Sicherstellung, dass Minderjährige keinen beeinflussenden Gestaltungsmerkmalen ausgesetzt sind, die in erster Linie auf Bindung abzielen und zu einer extensiven oder übermäßigen Nutzung der Plattform oder zu problematischen oder zwanghaften Verhaltensmustern führen können. Dazu gehören die Möglichkeit des endlosen Scrollens, die überflüssige Anforderung, eine bestimmte Aktion auszuführen, um aktualisierte Informationen über eine Anwendung zu erhalten, die automatische Wiedergabe von Videoinhalten, künstlich zeitgesteuerte Benachrichtigungen, mit denen die Aufmerksamkeit von Minderjährigen wiedererlangt werden soll, künstliche Benachrichtigungen, einschließlich solcher, die vorgeben, von einem anderen Nutzer zu stammen, und sozialer Benachrichtigungen über Inhalte, mit denen der Nutzer nie in Kontakt gekommen ist, Zeichen, die Knappheit und/oder Dringlichkeit kommunizieren (59) sowie die Schaffung virtueller Belohnungen für die (wiederholte) Ausführung von Aktionen auf der Plattform.

c)

Einführung von anpassbaren, sichtbaren, leicht zugänglichen und zu nutzenden, kindgerechten und wirksamen Zeitmanagement-Tools, um das Bewusstsein der Minderjährigen für die Zeit zu schärfen, die sie auf Online-Plattformen verbringen. Um wirksam zu sein, sollten diese Tools Minderjährige davon abhalten, mehr Zeit auf der Plattform zu verbringen. Dazu könnten auch Nudges gehören, die sicherere Optionen begünstigen. Darüber hinaus sollten aktive Benachrichtigungen, mit denen Minderjährige über die im Internet verbrachte Zeit informiert werden, systematisch implementiert werden.

d)

Sicherstellung, dass alle Tools, Merkmale, Funktionen, Einstellungen, Eingabeaufforderungen, Optionen und Melde-, Feedback- und Beschwerdemechanismen kindgerecht und altersgerecht sind, für alle Minderjährigen, einschließlich Minderjährigen mit Behinderungen und/oder zusätzlichen Anforderungen an die Zugänglichkeit, leicht zu finden, zugänglich, verständlich und verwendbar sind und für die Ausführung der entsprechenden Aktionen keinen Gerätewechsel erfordern.

e)

Sicherstellung, dass KI-Funktionen wie KI-Chatbots und -Filter, wenn sie in eine für Minderjährige zugängliche Online-Plattform integriert sind, nicht automatisch aktiviert werden und dass Minderjährige nicht dazu aufgefordert oder verleitet werden, sie zu nutzen, und dass derartige Systeme ihren sich entwickelnden Fähigkeiten entsprechen und so konzipiert sind, dass sie für sie sicher sind. In diesem Zusammenhang vertritt die Kommission die Auffassung, dass KI-Funktionen erst nach Bewertung der Risiken, die diese KI-Funktionen für die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen bergen können, auf für Minderjährige zugänglichen Online-Plattformen zur Verfügung gestellt werden sollten. Zudem sollten sie leicht zu deaktivieren sein, und es sollte deutlich erkennbar sein, wenn dies nicht der Fall ist.

f)

Sicherstellung, dass technische Maßnahmen ergriffen werden, um Minderjährige davor zu warnen (60), dass sich Interaktionen mit einer KI-Funktion von menschlichen Interaktionen unterscheiden und dass diese Funktionen sachlich unrichtige und irreführende Informationen bereitstellen können. Dieser Warnhinweis sollte leicht sichtbar, in kindgerechter Sprache abgefasst sowie direkt über die Schnittstelle und während der gesamten Dauer der Interaktion des Minderjährigen mit der KI-Funktion zugänglich sein. Beispielsweise sollten KI-Chatbots weder an hervorgehobener Stelle angezeigt werden, noch Teil vorgeschlagener Kontakte sein noch mit Nutzern gruppiert werden, mit denen der Minderjährige verbunden ist. Die Anbieter von Online-Plattformen sollten sicherstellen, dass Minderjährige und ihre Erziehungsberechtigten die Möglichkeit haben, sich gegen die Nutzung von KI-Chatbots zu entscheiden, und nicht dazu angeregt werden, diese Funktionen zu nutzen (61). Derartige KI-Funktionen dürfen nicht genutzt werden, um Minderjährige zu beeinflussen oder sie zu kommerziellen Inhalten zu lenken oder zu Einkäufen zu bewegen.

Schlechtes Verfahren

SadFriends ist eine Social-Media-Plattform, auf der für die Profile Minderjähriger dieselben Einstellungen wie für Erwachsene vorgesehen sind. Nach der Anmeldung sind die Kontoinformationen und Inhalte von Minderjährigen für andere Nutzer auf und außerhalb der Plattform sichtbar. Minderjährige können von anderen Nutzern kontaktiert werden, die von dem Minderjährigen nicht als Kontakte akzeptiert wurden. Diese anderen Nutzer können ihnen Nachrichten senden und ihre Inhalte kommentieren. Wenn Minderjährige ihre Geolokalisierung aktivieren, um ihren Standort mit ihren Freunden zu teilen, wird ihr Standort für alle Konten, mit denen sie befreundet sind, sichtbar und bleibt auch nach Beendigung der Sitzung aktiviert, was bedeutet, dass andere Nutzer sehen können, wo sie sich befinden, bis sich die Minderjährigen daran erinnern, selbst ihre Geolokalisierung zu deaktivieren.

Infolgedessen beginnen böswillige Akteure, Minderjährige auf SadFriends ins Visier zu nehmen. Unbekannte Erwachsene nehmen Kontakt zu Minderjährigen auf und interagieren mit ihnen, um eine emotionale Verbindung aufzubauen und ihr Vertrauen zu gewinnen. Minderjährige werden dazu gedrängt und gezwungen, bildliche Darstellungen sexuellen Kindesmissbrauchs zu erstellen und mit ihren Peinigern zu teilen.

6.5.   Empfehlungssysteme und Suchfunktionen

62.

Empfehlungssysteme (62) bestimmen die Art und Weise, in der Informationen priorisiert, optimiert und Minderjährigen angezeigt werden. Folglich haben diese Systeme einen erheblichen Einfluss darauf, ob und in welchem Umfang Minderjährige im Internet auf bestimmte Arten von Inhalten, Kontakten oder Verhaltensweisen stoßen. Empfehlungssysteme können Risiken für die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen im Internet bergen und verschärfen, indem sie beispielsweise Inhalte verstärken, die sich negativ auf die Sicherheit und den Schutz von Minderjährigen auswirken können (63).

63.

Die Kommission erinnert an die Verpflichtungen aller Anbieter aller Kategorien von Online-Plattformen in Bezug auf die Transparenz des Empfehlungssystems gemäß Artikel 27 der Verordnung (EU) 2022/2065 sowie an die diesbezüglichen zusätzlichen Anforderungen an Anbieter sehr großer Online-Plattformen und sehr großer Online-Suchmaschinen gemäß Artikel 34 Absatz 1, Artikel 35 Absatz 1 und Artikel 38 der genannten Verordnung (64).

64.

Um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz speziell von Minderjährigen gemäß Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 zu sorgen, sollten Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, folgende Maßnahmen ergreifen:

6.5.1.   Prüfung und Anpassung der Gestaltung und Funktionsweise von Empfehlungssystemen für Minderjährige

65.

Anbieter von für Minderjährige zugänglichen Online-Plattformen, die bei der Erbringung ihres Dienstes Empfehlungssysteme einsetzen, sollten

a)

ihre Empfehlungssysteme regelmäßig prüfen und anpassen, um die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen zu verbessern, und zwar gemäß der in Abschnitt 5 vorgesehenen Risikobewertung, die die Berücksichtigung der umfassenderen Rechte des Kindes beinhaltet. Diese Prüfung und Anpassung sollte im Wege der Konsultation von Minderjährigen, Erziehungsberechtigten und unabhängigen Sachverständigen vorgenommen werden.

b)

bei der Festlegung der Ziele, Parameter und Strategien zur Bewertung von Empfehlungssystemen die besonderen Bedürfnisse, Eigenschaften, Behinderungen und zusätzlichen Anforderungen an die Zugänglichkeit von Minderjährigen berücksichtigen, auch unter gebührender Berücksichtigung ihrer Altersgruppe. Parameter und Kennzahlen in Bezug auf Genauigkeit, Vielfalt, Inklusivität und Fairness sollten Vorrang haben;

c)

sicherstellen, dass sich die Empfehlungssysteme nicht auf die Erhebung von Verhaltensdaten stützen, die die Aktivitäten des Minderjährigen außerhalb der Plattform erfassen;

d)

sicherstellen, dass im Fall von Empfehlungssystemen, die sich auf die Verarbeitung von Verhaltensdaten über Minderjährige stützen, die Vorschläge für spezifische Informationen an minderjährige Nutzer des Dienstes oder die Priorisierung dieser Informationen nicht auf einer Verarbeitung personenbezogener Verhaltensdaten basieren, die so umfassend ist, dass alle oder die meisten Aktivitäten der Minderjährigen auf der Plattform erfasst werden, was zu dem Gefühl führen kann, dass das Privatleben der Minderjährigen ständig überwacht wird;

e)

sicherstellen, dass sich die Empfehlungssysteme erst dann auf „implizite interaktionsbasierte Signale“ stützen, nachdem geprüft wurde, ob dies dem Wohl der Minderjährigen dient, wobei die Grundsätze der Datenminimierung und der Transparenz zu berücksichtigen sind und sofern eine solche Nutzung klar definiert ist und geeigneten Garantien unterliegt, die in den vorstehenden Empfehlungen näher definiert sind;

f)

für die Zwecke dieser Leitlinien sind unter „impliziten interaktionsbasierten Signalen“ Signale und Daten zu verstehen, die es gestatten, aus den Aktivitäten von Nutzern (Browserverhalten auf einer Plattform) Rückschlüsse auf ihre Präferenzen zu ziehen, wie z. B. die mit dem Betrachten von Inhalten verbrachte Zeit oder die Klickraten;

g)

„explizite von Nutzern bereitgestellte Signale“ priorisieren, um die angezeigten und den Minderjährigen empfohlenen Inhalte zu bestimmen. Die Auswahl dieser Signale sollte im besten Interesse der Minderjährigen gerechtfertigt sein, wobei die Grundsätze der Datenminimierung und der Transparenz zu berücksichtigen sind, was dazu beiträgt, sicherzustellen, dass sie zu einem hohen Maß an Sicherheit und Schutz von Minderjährigen beitragen. Für die Zwecke dieser Leitlinien sind unter „expliziten von Nutzern bereitgestellten Signalen“ Rückmeldungen und Interaktionen der Nutzer zu verstehen, die auf die expliziten – positiven und negativen – Präferenzen der Nutzer hinweisen, darunter die angegebene und deliberative Auswahl von Themen von Interesse, Erhebungen, Meldungen (65) und andere qualitätsbasierte Signale;

h)

Maßnahmen ergreifen, um zu verhindern, dass Minderjährige Inhaltsempfehlungen ausgesetzt werden, die – insbesondere wenn sie wiederholt darauf stoßen – ein Risiko für ihre Sicherheit und ihren Schutz bergen könnten, wie z. B. Inhalte, die für unrealistische Schönheitsstandards oder Diäten werben, Inhalte, die psychische Gesundheitsprobleme wie Angstzustände oder Depressionen verklären oder verharmlosen sowie diskriminierende Inhalte, radikalisierende Inhalte und verstörende Inhalte, die Gewalt darstellen oder Minderjährige zu gefährlichen Aktivitäten ermutigen. Hierzu gehören Inhalte, die von Nutzern, vertrauenswürdigen Hinweisgebern oder anderen Akteuren oder Instrumenten zur Moderation von Inhalten gemeldet oder gekennzeichnet wurden und deren Rechtmäßigkeit und Vereinbarkeit mit den allgemeinen Geschäftsbedingungen der Plattform noch nicht im Einklang mit den einschlägigen Verpflichtungen gemäß der Verordnung (EU) 2022/2065 und mit Abschnitt 6.7 überprüft wurden;

i)

Maßnahmen ergreifen, um sicherzustellen, dass Empfehlungssysteme die Verbreitung rechtswidriger Inhalte oder die Begehung von Straftaten gegen und durch Minderjährige weder ermöglichen noch erleichtern;

j)

sicherstellen, dass die einem Minderjährigen angezeigten Suchergebnisse und Kontaktvorschläge Konten priorisieren, deren Identität überprüft wurde und deren Kontakte mit dem Netzwerk des Minderjährigen verbunden sind oder sich in derselben Altersgruppe wie der Minderjährige befinden;

k)

sicherstellen, dass Suchfunktionen, einschließlich, aber nicht beschränkt auf Text-Autovervollständigung in der Suchleiste, vorgeschlagene Suchbegriffe und Schlüsselbegriffe, keine Inhalte vorschlagen, die rechtswidrig sind und/oder als schädlich für die Privatsphäre, die Sicherheit oder den Schutz von Minderjährigen einzustufen sind, indem beispielsweise Suchbegriffe gesperrt werden, die bekanntermaßen zur Anzeige von Inhalten führen, die als schädlich für die Privatsphäre, die Sicherheit und/oder den Schutz von Minderjährigen angesehen werden, wie bestimmte Wörter, Jargon, Hashtags oder Emojis (66). Im Falle von Anfragen, die derartige Inhalte betreffen, sollten die Anbieter von Online-Plattformen Minderjährige an geeignete Unterstützungsressourcen und Beratungsdienste weiterleiten.

6.5.2.   Nutzerkontrolle und Befähigung

66.

Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind und Empfehlungssysteme einsetzen, sollten bei der Erbringung ihres Dienstes die folgenden Maßnahmen treffen, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen:

a)

Sie sollten Minderjährigen die Möglichkeit geben, ihre empfohlenen Feeds vollständig und dauerhaft zurückzusetzen.

b)

Sie sollten im Rahmen der Priorisierung von Parametern und Kennzahlen in Bezug auf Genauigkeit, Vielfalt, Inklusivität und Fairness Informationen bereitstellen und Minderjährige nach einer gewissen Interaktion mit dem Empfehlungssystem dazu anregen, nach neuen Inhalten zu suchen.

c)

Sie sollten prüfen, ob es angesichts der besonderen Merkmale der Plattform und zur Gewährleistung eines hohen Maßes an Privatsphäre, Sicherheit und Schutz von Minderjährigen auf einer solchen Plattform angemessen ist, dafür zu sorgen, dass Minderjährige eine Option ihres Empfehlungssystems wählen können, die nicht auf Profiling basiert. Diese Empfehlung lässt die Verpflichtungen der Anbieter sehr großer Online-Plattformen und sehr großer Online-Suchmaschinen gemäß Artikel 38 der Verordnung (EU) 2022/2065 unberührt.

d)

Falls sie infolge der unter dem vorstehenden Buchstaben genannten Prüfung oder aufgrund der Verpflichtungen aus Artikel 38 der Verordnung (EU) 2022/2065 in Bezug auf Anbieter sehr großer Online-Plattformen und sehr großer Online-Suchmaschinen eine Option ihres Empfehlungssystems eingerichtet haben, die nicht auf Profiling basiert, sollten sie abwägen, ob diese als Standardeinstellung bereitgestellt werden sollte, und falls sie dies für angebracht halten, sollten sie die erforderlichen Schutz- und Transparenzmaßnahmen ergreifen, um Minderjährige über diese Option und die möglichen Folgen der Deaktivierung dieser Standardeinstellung zu informieren.

e)

Sie sollten sicherstellen, dass sich die einschlägigen Melde- und Rückmeldemechanismen gemäß Abschnitt 7.1 rasch, direkt und dauerhaft auf die Parameter, die Bearbeitung und die Ausgabe der Empfehlungssysteme auswirken. Dazu gehört die dauerhafte Entfernung gemeldeter Inhalte und Kontakte aus Empfehlungen (einschließlich zum Ausblenden gemeldeter Inhalte und gesperrter/gemeldeter Kontakte) und die Verringerung der Sichtbarkeit ähnlicher Inhalte und Konten.

67.

Zusätzlich zu den in Artikel 27 Absatz 1 der Verordnung (EU) 2022/2065 festgelegten Verpflichtungen und den erweiterten Sorgfaltspflichten von Anbietern sehr großer Online-Plattformen und sehr großer Online-Suchmaschinen gemäß den Artikeln 34, 35 und 38 der genannten Verordnung sollten Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, nach Auffassung der Kommission

a)

sicherstellen, dass alle Einstellungen und die Minderjährigen über die Empfehlungssysteme der Anbieter zur Verfügung gestellten Informationen, einschließlich, aber nicht beschränkt auf ihre allgemeinen Geschäftsbedingungen, in kindgerechter, zugänglicher und an das Alter und die sich entwickelnde Reife der Kinder angepassten Weise sowie in einer Sprache, die die Kinder verstehen könnten, dargestellt werden (für weitere Einzelheiten siehe Abschnitt 6.4 über die Gestaltung von Online-Schnittstellen und andere Tools und Abschnitt 8.4 über Transparenz);

b)

den Minderjährigen in aussagekräftiger Weise erläutern, warum ihnen die einzelnen Inhalte jeweils empfohlen wurden, wozu auch Informationen über die verwendeten Parameter und die für eine bestimmte Empfehlung erfassten Nutzersignale gehören;

c)

den Minderjährigen in zugänglicher Weise, in kindgerechter Sprache und mit einer kindgerechten Gestaltung Optionen anbieten, um die Parameter ihrer Empfehlungssysteme zu ändern oder zu beeinflussen, indem sie den Minderjährigen beispielsweise die Möglichkeit – mit Erläuterungen in kindgerechter Sprache – geben, Kategorien von Inhalten und Aktivitäten auszuwählen, an denen sie am meisten oder am wenigsten interessiert sind. Dies sollte bei der Kontoerstellung und regelmäßig während der gesamten Zeit, die die Minderjährigen auf der Plattform verbringen, möglich sein. Diese Voreinstellungen sollten sich direkt auf die vom System unterbreiteten Empfehlungen auswirken und sicherstellen, dass die Empfehlungen dem Alter und dem Wohl des Minderjährigen besser gerecht werden (67).

6.6.   Geschäftspraktiken

68.

Minderjährige sind besonders empfänglich für die persuasiven Effekte von Geschäftspraktiken und haben das Recht, vor wirtschaftlich ausbeuterischen Praktiken (68) auf Online-Plattformen geschützt zu werden. Sie sind mit Geschäftspraktiken von Online-Plattformen und mithin mit vielfältigen, dynamischen und personalisierten Überredungstaktiken konfrontiert, wie beispielsweise Werbung, Produktplatzierungen, Verwendung von In-App-Währungen, Influencer-Marketing, Sponsoring oder KI-gestütztes Nudging (69) , (70). All dies kann sich nachteilig auf die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen bei der Nutzung der Dienste einer Online-Plattform auswirken.

69.

Im Einklang mit und unbeschadet des bestehenden horizontalen Rechtsrahmens (71), insbesondere der Richtlinie 2005/29/EG über unlautere Geschäftspraktiken, die uneingeschränkt auf alle Geschäftspraktiken – auch gegenüber Minderjährigen – anwendbar ist, und der spezifischeren Vorschriften der Verordnung (EU) 2022/2065 über Werbung (Artikel 26, Artikel 28 Absatz 2 und Artikel 39) und Dark Patterns (Artikel 25), ist die Kommission der Auffassung, dass Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, für die Zwecke des Artikels 28 Absatz 1 der Verordnung (EU) 2022/2065 die folgenden Maßnahmen ergreifen sollten, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen:

a)

Sicherstellung, dass die fehlende geschäftliche Kompetenz von Minderjährigen nicht ausgenutzt wird, indem das Alter, die Vulnerabilitäten und die begrenzte Fähigkeit von Minderjährigen, sich kritisch mit Geschäftspraktiken auf der Plattform auseinanderzusetzen, einkalkuliert werden, und Leistung entsprechender Unterstützung (72).

b)

Sicherstellung, dass Minderjährige keiner schädlichen, sittenwidrigen und unrechtmäßigen Werbung ausgesetzt werden (73). Dies kann beispielsweise beinhalten, die Angemessenheit von Werbekampagnen für verschiedene Altersgruppen zu prüfen, ihren negativen Auswirkungen entgegenzuwirken und angemessene Sicherheitsmaßnahmen zum Schutz von Minderjährigen zu ergreifen sowie sicherzustellen, dass die Minderjährigen Zugang zu Informationen haben, die ihrem Wohl dienen (74).

c)

Regelmäßige Überprüfung der einschlägigen Schutzmaßnahmen im Wege der Konsultation mit Minderjährigen, Erziehungsberechtigten und anderen einschlägigen Interessenträgern.

d)

Sicherstellung, dass Minderjährige keiner übermäßigen Gesamtmenge, Häufigkeit und Empfehlung kommerzieller Inhalte ausgesetzt werden, die zu übermäßigen oder unerwünschten Ausgaben oder Suchtverhalten führen und sich nachteilig auf ihre Privatsphäre, ihre Sicherheit und ihren Schutz auswirken können.

e)

Sicherstellen, dass Minderjährige keinen in die Plattform integrierten KI-Systemen ausgesetzt werden, die Kinder – insbesondere durch Gesprächs- oder Beratungsformate wie Chatbots – zu kommerziellen Zwecken beeinflussen oder anreizen (75).

f)

Sicherstellung, dass die Erklärungen zur kommerziellen Kommunikation deutlich sichtbar, kindgerecht, altersgerecht und zugänglich sind (siehe Abschnitt 8.4 zur Transparenz) und im gesamten Dienst einheitlich verwendet werden, z. B. durch Verwendung eines Symbols oder ähnlichen Zeichens, um deutlich darauf hinzuweisen, dass es sich bei den Inhalten um Werbung handelt (76). Diese sollten im Wege der Konsultation mit Minderjährigen, ihren Erziehungsberechtigten und anderen einschlägigen Interessenträgern regelmäßig getestet und überprüft werden.

g)

Sicherstellen, dass Minderjährige nicht dem Marketing und der Kommunikation von Produkten oder Dienstleistungen ausgesetzt werden, die sich nachteilig auf ihre Privatsphäre, ihre Sicherheit und ihren Schutz auswirken können, auch unter Berücksichtigung der in der Risikobewertung des Anbieters ermittelten Risiken, darunter diejenigen, die mit negativen Auswirkungen auf ihre körperliche und geistige Gesundheit verbunden sind (siehe Abschnitt 5 zur Risikobewertung).

h)

Sicherstellung, dass Minderjährige keiner Schleichwerbung ausgesetzt werden, unabhängig davon, ob sie vom Anbieter der Online-Plattform oder von den Nutzern des Dienstes platziert wird (77). In diesem Zusammenhang weist die Kommission darauf hin, dass Anbieter von Online-Plattformen gemäß Artikel 26 Absatz 2 der Verordnung (EU) 2022/2065 auch verpflichtet sind, den Nutzern des Dienstes eine Funktion zu bieten, mit der sie erklären können, ob der von ihnen bereitgestellte Inhalt eine kommerzielle Kommunikation darstellt oder eine solche kommerzielle Kommunikation enthält (78). Beispiele für verschleierte kommerzielle Kommunikation sind unter anderem Produktplatzierungen durch Influencer, Produktvorführungen und andere Formen subtiler Werbung, die Minderjährige zum Erwerb von Produkten oder Dienstleistungen verleiten oder beeinflussen können.

i)

Sicherstellung, dass Kinder nicht Techniken ausgesetzt werden, die zu einer Verringerung der Transparenz wirtschaftlicher Transaktionen führen und für Minderjährige irreführend sein können, wozu etwa bestimmte virtuelle Währungen (79) und andere Token oder Münzen gehören, die in echtes Geld (oder gegebenenfalls in eine andere virtuelle Währung) umgetauscht und zum Kauf virtueller Gegenstände verwendet werden können und so auch unerwünschte Ausgaben verursachen (80).

j)

Sicherstellung, dass Minderjährigen beim Zugang zu Online-Plattformen oder deren Teilen und Funktionen, die als kostenlos angeboten werden oder so erscheinen (81), keine In-App- oder In-Game-Käufe vorgeschlagen werden, die für den Zugang einem Dienst oder zu seiner Nutzung erforderlich sind oder zu sein scheinen. Wenn Minderjährigen irgendwelche anderen In-App- oder In-Game-Käufe vorgeschlagen werden, sollte der jeweilige Preis stets in der Landeswährung angegeben werden.

k)

Sicherstellung, dass Minderjährige nicht Praktiken ausgesetzt werden, die zu übermäßigen oder unerwünschten Ausgaben oder zu einer übermäßigen Nutzung der Plattform oder zu zwanghaftem oder Suchtverhalten führen können, indem dafür gesorgt wird, dass Minderjährigen keine virtuellen Gegenstände wie z. B. kostenpflichtige Lootboxen oder sonstige Produkte dargeboten werden, die zufällige oder unvorhersehbare Ergebnisse oder glücksspielähnliche Funktionen bieten, und indem eine Trennung oder Widerstände zwischen Inhalten und dem Kauf der entsprechenden Produkte eingerichtet werden.

l)

Sicherstellung, dass Minderjährige keinen manipulativen Gestaltungstechniken (82) (z. B. Knappheit (83)), episodischen oder zufälligen Belohnungen oder persuasiven Gestaltungstechniken (84) ausgesetzt werden, die zu übermäßigen, impulsiven oder unerwünschten Ausgaben oder Suchtverhalten führen können.

m)

Sicherstellung, dass Minderjährige keine unerwünschten Käufe tätigen, indem z. B. wirksame Tools für Erziehungsberechtigte eingeführt oder alle finanziellen Verpflichtungen, die von Minderjährigen unter einem bestimmten Alter eingegangen werden, der Überprüfung oder Zustimmung der Erziehungsberechtigten unterworfen werden (siehe Abschnitt 7.3 zu Tools für Erziehungsberechtigte).

n)

Überprüfung der Strategie der Plattform, wirtschaftliche Transaktionen auf der Grundlage der sich entwickelnden Fähigkeiten von Kindern anzubieten, wobei zu berücksichtigen ist, dass bestimmten Altersgruppen keine wirtschaftlichen Transaktionen vorgeschlagen werden sollten und dass es ihnen nicht erlaubt sein sollte, Geschäfte zu tätigen, da sie noch kein Verständnis für Ausgaben und Geld haben.

6.7.   Moderation

70.

Moderation kann die Exposition von Minderjährigen gegenüber Inhalten und Verhaltensweisen verringern, die ihrer Privatsphäre, ihrer Sicherheit und ihrem Schutz schaden, einschließlich rechtswidriger Inhalte oder Inhalte, die ihre körperliche oder geistige Entwicklung beeinträchtigen. Zudem kann sie zur Verhütung von Straftaten beitragen.

71.

Die Kommission erinnert an die Verpflichtungen in Bezug auf die allgemeinen Geschäftsbedingungen gemäß Artikel 14 der Verordnung (EU) 2022/2065, die Transparenzberichtspflichten der Anbieter von Vermittlungsdiensten gemäß Artikel 15 dieser Verordnung, die auch für Anbieter von Online-Plattformen gelten, die Verpflichtungen der Hostingdiensteanbieter, einschließlich Online-Plattformen, in Bezug auf Melde- und Abhilfeverfahren und Begründungen gemäß Artikel 16 bzw. 17 dieser Verordnung, und die Verpflichtungen der Anbieter von Online-Plattformen im Zusammenhang mit vertrauenswürdigen Hinweisgebern (85) gemäß Artikel 22 dieser Verordnung. Sie verweist ferner auf den Verhaltenskodex+ für die Bekämpfung rechtswidriger Hassreden im Internet von 2025 und den Verhaltenskodex für Desinformation, bei denen es sich um Verhaltenskodizes im Sinne des Artikels 45 der Verordnung (EU) 2022/2065 handelt.

72.

Neben diesen Verpflichtungen sollten Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, nach Auffassung der Kommission die folgenden Maßnahmen ergreifen, um für die Zwecke des Artikels 28 Absatz 1 der Verordnung (EU) 2022/2065 unter vorrangiger Berücksichtigung des Kindeswohls für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen:

a)

Festlegung in Zusammenarbeit mit Minderjährigen, der Zivilgesellschaft und unabhängigen Sachverständigen, einschließlich der Wissenschaft, in klarer und transparenter Weise dessen, was die Plattform als Inhalte und Verhaltensweisen ansieht, die der Privatsphäre, der Sicherheit und dem Schutz von Minderjährigen schaden. Dies sollte alle Inhalte und Verhaltensweisen einschließen, die nach dem Recht der Union oder der Mitgliedstaaten rechtswidrig sind. Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, sollten Minderjährige, die ihren Dienst nutzen, mit klaren Informationen über ihre Standards und Erwartungen in Bezug auf Inhalte und Verhaltensweisen ausstatten, und diese Informationen sollten während der Einrichtung eines Kontos verfügbar und auf der Plattform leicht auffindbar sein;

b)

Festlegung von Leitlinien und Verfahren für die Moderation, in denen festgelegt ist, wie Inhalte und Verhaltensweisen, die der Privatsphäre, der Sicherheit und dem Schutz von Minderjährigen schaden, erkannt werden und wie die Exposition von Minderjährigen gegenüber schädlichen Inhalten durch Moderation begrenzt wird. Die Anbieter von Online-Plattformen sollten außerdem sicherstellen, dass diese Leitlinien und/oder Verfahren in der Praxis durchgesetzt werden;

c)

Bewertung und Überprüfung der Leitlinien und Verfahren, um sicherzustellen, dass sie angesichts der technischen Entwicklung und der sich ändernden Online-Verhaltensweisen wirksam bleiben. Insbesondere ist die Kommission der Auffassung, dass Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, bei der Priorisierung der Moderation die folgenden Faktoren berücksichtigen sollten: die Wahrscheinlichkeit und Bedenklichkeit der Inhalte, die der Privatsphäre, der Sicherheit und/oder dem Schutz eines Minderjährigen schaden, die Auswirkungen des Schadens auf diesen Minderjährigen, die spezifische Vulnerabilität oder Schutzbedürftigkeit und die Zahl der möglicherweise geschädigten Minderjährigen. Darüber hinaus sollten Meldungen von Minderjährigen vorrangig behandelt werden;

d)

Sicherstellung, dass neben der automatisierten Überprüfung von Inhalten und allen anderen einschlägigen Instrumenten auch eine menschliche Überprüfung für gemeldete Konten oder Inhalte verfügbar ist, bei denen der Anbieter vermutet, dass sie das Risiko bergen, der Privatsphäre, der Sicherheit oder dem Schutz von Minderjährigen zu schaden;

e)

Sicherstellung, dass die Teams zur Moderierung von Inhalten gut geschult und mit ausreichenden Ressourcen ausgestattet sind und dass die Moderationsmechanismen jederzeit (24 Stunden am Tag, 7 Tage in der Woche) aktiv und funktionsfähig sind, um eine wirksame Moderation zu gewährleisten, wozu auch gehört, dass mindestens ein Mitarbeiter Bereitschaftsdienst hat, um jederzeit auf dringende Anfragen und Notfälle zu reagieren;

f)

Sicherstellung, dass die Systeme und Verfahren zur Moderation von Inhalten in der/den Amtssprache(n) des Mitgliedstaats, in dem der Dienst bereitgestellt wird, verfügbar und funktionsfähig sind;

g)

Einführung von wirksamen Technologien, internen Mechanismen und Präventivmaßnahmen, um das Risiko zu verringern, dass Inhalte und Verhaltensweisen, die der Privatsphäre, der Sicherheit oder dem Schutz von Minderjährigen schaden, Minderjährigen empfohlen werden, unter anderem durch die Umsetzung wirksamer technischer Lösungen zur Bekämpfung bekannter schädlicher und rechtswidriger Inhalte wie Hash-Matching und URL-Erkennung. Die Anbieter sollten auch die potenziellen zusätzlichen Vorteile neuer technischer Lösungen wie KI-Klassifikatoren für die Erkennung neuer oder veränderter Inhalte und Verhaltensweisen prüfen;

h)

Umsetzung technischer Lösungen, die verhindern, dass die KI-Systeme auf ihren Plattformen Nutzern den Zugang zu Inhalten ermöglichen, die der Privatsphäre, der Sicherheit und/oder dem Schutz von Minderjährigen schaden, oder derartige Inhalte generieren und verbreiten.

i)

Integration von Schutzvorkehrungen in alle KI-Systeme, die Prompts erkennen und verhindern, die vom Anbieter in seinen Leitlinien für die Moderation als schädlich für die Privatsphäre, die Sicherheit und/oder den Schutz von Minderjährigen ausgewiesen werden. Dies kann beispielsweise die Verwendung von Prompt-Klassifikatoren, die Moderation von Inhalten und andere Filter einschließen (86).

ii)

Zusammenarbeit mit anderen Anbietern von Online-Plattformen und einschlägigen Interessenträgern, um richtlinienverletzende und rechtswidrige Inhalte zu erkennen und die plattformübergreifende Verbreitung sowie plattformübergreifende Verhaltensweisen zu verhindern.

iii)

Wenn ein Anbieter einer für Minderjährige zugänglichen Online-Plattform finanzielle Transaktionen hostet, sollte er einen spezifischen Kanal für die Meldung von Betrug und verdächtigen finanziellen Transaktionen bereitstellen.

73.

Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, sollten die Kennzahlen im Hinblick auf die Moderation von Inhalten austauschen, z. B. wie oft sie Nutzermeldungen erhalten, wie oft sie proaktiv Verstöße in Bezug auf Inhalte und Verhaltensweisen aufdecken, welche Arten von Inhalten und Verhaltensweisen gemeldet und aufgedeckt werden und wie die Plattform auf diese Sachverhalte reagiert hat.

74.

Keine der oben genannten Maßnahmen sollte auf eine allgemeine Verpflichtung zur Überwachung von Inhalten hinauslaufen, die Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, entweder übermitteln oder speichern (87).

Schlechtes Verfahren

SadShare ist eine Social-Media-Plattform, die es Nutzern ermöglicht, visuelle Inhalte hochzuladen und mit anderen zu teilen. Die Leitlinien der Plattform sehen keine robusten Mechanismen zur Moderation von Inhalten vor, um schädliche und explizite Inhalte, einschließlich Darstellungen sexuellen Kindesmissbrauchs, zu erkennen und zu verhindern. Aufgrund dieser mangelnden Moderation sind Minderjährige daher rechtwidrigen Inhalten ausgesetzt und haben böswillige Nutzer die Möglichkeit, vorhandene Bilder (wieder) zu verwenden. Dies wiederum steigert die Nachfrage nach Darstellungen sexuellen Missbrauchs von Kindern, wodurch wiederum andere Nutzer dazu veranlasst werden, ihrerseits Minderjährige zu missbrauchen und ihnen Schaden zuzufügen, um neues Material zu erstellen.

7.   MELDUNG, NUTZERUNTERSTÜTZUNG UND TOOLS FÜR ERZIEHUNGSBERECHTIGTE

7.1.   Nutzermeldungen, Rückmeldungen und Beschwerden

75.

Wirksame, sichtbare und kindgerechte Tools für Meldungen, Rückmeldungen und Beschwerden von Nutzern ermöglichen es Minderjährigen, sich zu äußern und Merkmale von Online-Plattformen anzusprechen, die sich negativ auf das Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen auswirken können.

76.

Die Kommission weist auf die in der Verordnung (EU) 2022/2065 festgelegten Verpflichtungen hin, einschließlich der Verpflichtung zur Einrichtung von Melde- und Abhilfeverfahren gemäß Artikel 16, zur Vorlage einer Begründung gemäß Artikel 17, zur Meldung des Verdachts auf Straftaten gemäß Artikel 18, zur Einrichtung eines internen Beschwerdemanagementsystems gemäß Artikel 20 und zum Recht auf außergerichtliche Streitbeilegung gemäß Artikel 21 sowie der Vorschriften über vertrauenswürdige Hinweisgeber in Artikel 22.

77.

Neben diesen Verpflichtungen sollten Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, nach Auffassung der Kommission die folgenden Maßnahmen ergreifen, um für die Zwecke des Artikels 28 Absatz 1 der Verordnung (EU) 2022/2065 für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen:

a)

Einrichtung von Melde-, Rückmelde- und Beschwerdemechanismen, die

i)

wirksam, sichtbar, kindgerecht und leicht zugänglich sind (siehe Abschnitt 6.4 über die Gestaltung von Online-Schnittstellen und andere Tools und Abschnitt 4 über die allgemeinen Grundsätze);

ii)

Minderjährigen die Möglichkeit geben, Inhalte, Aktivitäten, Personen, Konten oder Gruppen zu melden, die ihrer Ansicht nach möglicherweise gegen die allgemeinen Geschäftsbedingungen der Plattform verstoßen. Dies schließt alle Inhalte, Nutzer oder Aktivitäten ein, die von der Plattform als schädlich für die Privatsphäre, die Sicherheit und/oder den Schutz von Minderjährigen angesehen werden (siehe Abschnitt 5 über die Risikobewertung und Abschnitt 6.7 über die Moderation);

iii)

allen Nutzern die Möglichkeit geben, Inhalte, Aktivitäten, Personen, Konten oder Gruppen zu melden, die sie als unangemessen oder unerwünscht für Minderjährige erachten oder in Bezug auf die ihnen die Vorstellung Unbehagen bereitet, dass sie für Minderjährige zugänglich sind;

iv)

allen Nutzern die Möglichkeit geben, ein Konto zu melden, bei dem der Verdacht besteht, dass sein Inhaber zu jung ist, falls in den allgemeinen Geschäftsbedingungen der Plattform ein Mindestalter angegeben ist;

v)

Minderjährigen die Möglichkeit geben, Rückmeldungen zu allen Inhalten, Aktivitäten, Personen, Konten oder Gruppen zu geben, die ihnen auf ihren Konten angezeigt werden und die ihnen Unbehagen bereiten oder von denen sie mehr oder weniger sehen möchten. Diese Optionen könnten Sätze wie „Mehr/weniger anzeigen“, „Möchte ich nicht sehen/Interessiert mich nicht“, „Ich möchte keine Inhalte von diesem Konto sehen“, „Das ruft bei mir Unbehagen hervor“, „Ausblenden“, „Das gefällt mir nicht“ oder „Das ist nichts für mich“ umfassen. Die Anbieter von Online-Plattformen sollten sicherstellen, dass diese Optionen so konzipiert sind, dass sie nur für den Nutzer sichtbar sind, damit sie nicht von anderen missbraucht werden können, um Minderjährige auf der Plattform zu mobben oder zu belästigen. Die Anbieter von Online-Plattformen sollten ihre Empfehlungssysteme als Reaktion auf diese Rückmeldungen anpassen (siehe Abschnitt 6.5.2 über Nutzerkontrolle und Befähigung) (88);

vi)

den Nutzern im Falle der Anwendung von Methoden der Altersfeststellung durch den Anbieter Zugang zu einem wirksamen internen Beschwerdemanagementsystem gewähren, das es den Nutzern ermöglicht, auf elektronischem Wege und kostenlos Beschwerden gegen eine Feststellung des Alters der Nutzer durch den Anbieter einzureichen. Dieses Beschwerdemanagementsystem sollte die Voraussetzungen gemäß Artikel 20 der Verordnung (EU) 2022/2065 erfüllen;

b)

Sicherstellung, dass die Melde-, Rückmelde- und Beschwerdemechanismen gemäß Artikel 20 der Verordnung (EU) 2022/2065 (89):

i)

zu einem hohen Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen beitragen;

ii)

mit den Grundrechten, insbesondere den Rechten des Kindes, im Einklang stehen;

iii)

für den intuitiven und unmittelbaren Zugang für alle Minderjährigen, auch für Menschen mit Behinderungen und/oder zusätzlichen Anforderungen an die Zugänglichkeit, zur Verfügung stehen;

iv)

für Minderjährige leicht zu nutzen und zu verstehen, altersgerecht und ansprechend sind (siehe Abschnitt 6.4 über die Gestaltung von Online-Schnittstellen und andere Tools und Abschnitt 4 über die allgemeinen Grundsätze);

v)

nicht registrierten Nutzern zur Verfügung stehen, wenn sie auf die Inhalte der Online-Plattform zugreifen können;

c)

Sicherstellung, dass eine Option zur Verfügung steht, die es Minderjährigen ermöglicht, ihre eigenen Gründe für eine Meldung oder Beschwerde darzulegen. Die Anbieter sollten Meldekategorien vermeiden, aber im Falle ihrer Verwendung sicherstellen, dass sie an die jüngsten Nutzer angepasst sind, die auf der Plattform zugelassen sind;

d)

Sicherstellung, dass Meldungen, Rückmeldungen und Beschwerden standardmäßig vertraulich behandelt werden und anonym sind und zugleich Minderjährigen die Möglichkeit eingeräumt wird, die Anonymität aufzuheben. Für den Fall, dass die Anonymität aufgehoben wird, sollte der Anbieter den Minderjährigen erläutern, wann und wie sie welche Informationen an andere Nutzer oder Dritte im Zusammenhang mit Meldungen und/oder Beschwerden weitergeben;

e)

Priorisierung von Meldungen, die die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen betreffen. Anbieter von Online-Plattformen sollten für Minderjährige eine Äußerungsmöglichkeit bezüglich der Dringlichkeit ihrer Meldung oder Beschwerde vorsehen, insbesondere wenn Hinweise auf ein anhaltendes Problem in Bezug auf Privatsphäre, Sicherheit oder Schutz vorliegen. Die Reaktionszeiten sollten dem gemeldeten oder beklagten Problem angemessen sein. Dies sollte sich nicht negativ auf den Vorrang der von vertrauenswürdigen Hinweisgebern gemäß Artikel 22 Absatz 1 der Verordnung (EU) 2022/2065 übermittelten Meldungen auswirken;

f)

unverzügliche Übermittlung an jeden Minderjährigen, der eine Meldung oder Beschwerde übermittelt, einer Bestätigung über den Eingang der Meldung oder Beschwerde. Minderjährige sollten auch Zugang zu einer altersgerechten Erläuterung des Verfahrens, das bei der Prüfung der Meldung oder Beschwerde angewandt wird, und einer Erläuterung aller ergriffenen Maßnahmen oder Unterlassungen haben. Die Informationen sollten einen vorläufigen Zeitrahmen für die Entscheidung über die Meldung oder Beschwerde und mögliche Ergebnisse einschließen. Die Kommission ist ferner der Ansicht, dass die Anbieter von Online-Plattformen einen Mechanismus zur Verfolgung der Fortschritte und zur Kommunikation mit den Plattformen bereitstellen sollten;

g)

regelmäßige Überprüfung der Meldungen, Rückmeldungen und Beschwerden, die bei ihnen eingehen. Sie sollten diese Informationen nutzen, um alle Aspekte ihrer Plattform zu ermitteln und in Angriff zu nehmen, die die Privatsphäre, die Sicherheit und/oder den Schutz von Minderjährigen beeinträchtigen könnten, ihre Empfehlungssysteme und Moderationspraktiken zu verfeinern, die allgemeinen Sicherheitsstandards zu verbessern und ein vertrauenswürdigeres und verantwortungsvolleres Online-Umfeld zu fördern. Diese Maßnahmen sollten dokumentiert werden, damit sie überprüft werden können.

Schlechtes Verfahren

SadLearn ist eine beliebte Online-Plattform für Nutzer zwischen 6 und 18 Jahren. Sie bietet eine Reihe von Bildungs- und Unterhaltungsinhalten. Um Inhalte zu kennzeichnen, die im Widerspruch zu den allgemeinen Geschäftsbedingungen von SadLearn stehen, muss der Nutzer auf vier verschiedene Links klicken. Wenn der Nutzer im Beschwerdebereich angekommen ist, muss er zwischen 15 verschiedenen Beschwerdekategorien wählen, was es Minderjährigen erschwert, die richtige Kategorie zu identifizieren und auszuwählen. Eine freie Texteingabe ist nicht vorgesehen. Gelingt es den Nutzern, Beschwerden einzureichen, erhalten sie weder eine Bestätigung noch eine Erklärung zum weiteren Vorgehen. Darüber hinaus ist das Meldetool nur in englischer Sprache verfügbar, und die Sprache ist an ein erwachsenes Publikum angepasst.

7.2.   Nutzerunterstützungsmaßnahmen

78.

Die Einrichtung von Funktionen auf für Minderjährige zugänglichen Online-Plattformen, die den Minderjährigen dabei helfen, sich in den Diensten der Plattform zurechtzufinden und erforderlichenfalls Unterstützung zu erhalten, ist ein wirksames Mittel, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen. Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, sollten daher nach Auffassung der Kommission

a)

über klare, leicht erkennbare und zugängliche Unterstützungstools verfügen, die es Minderjährigen ermöglichen, Hilfe zu erhalten, wenn sie auf verdächtige, rechtswidrige oder unangemessene Inhalte, Konten oder Verhaltensweisen stoßen, die ihnen Unbehagen bereiten. Dazu gehört auch die Bereitstellung von Schaltflächen zum Sperren und Stummschalten. Die Unterstützungstools sollten kindgerecht, deutlich sichtbar und unmittelbar zugänglich sein (siehe Abschnitt 6.4 zur Online-Schnittstelle und anderen Tools) und Minderjährige direkt mit den für ihren Standort und ihr Alter am besten geeigneten Unterstützungsdiensten verbinden, wie z. B. jenen, die zu den nationalen Safer-Internet-Zentren, dem INHOPE-Verbund und den nationalen Beratungsdiensten für Kinder gehören;

b)

die Nutzung von KI-basierten Unterstützungstools begrenzen, die nicht als Hauptmechanismus für die Interaktion mit Kindern eingesetzt werden sollten;

c)

unmittelbar sichtbare Warnmeldungen sowie Links zu einschlägigen nationalen Unterstützungsdiensten (90) und anderen verlässlichen Quellen einführen, wenn Minderjährige Inhalte suchen, hochladen, generieren, teilen oder empfangen, die möglicherweise rechtswidrig sind oder der Privatsphäre, der Sicherheit und dem Schutz von Minderjährigen schaden (wie in Abschnitt 6.7 zur Moderation erläutert). Anbieter von Online-Plattformen sollten Minderjährige auch an die einschlägigen nationalen Unterstützungsdienste verweisen, wenn sie eine Meldung im Zusammenhang mit solchen Inhalten machen. Die Verweisung sollte unmittelbar erfolgen, nachdem der Anbieter der Online-Plattform von der Aktivität Kenntnis erlangt oder ein Minderjähriger eine Meldung macht;

d)

für den Fall, dass eine Online-Plattform Merkmale oder Funktionen im Zusammenhang mit Nutzerverbindung, Posten von Inhalten oder Nutzerkommunikation aufweist, Minderjährigen die Möglichkeit bieten, andere Nutzer oder Konten anonym zu sperren oder stummzuschalten, einschließlich derjenigen, die nicht mit ihnen verbunden sind. Die Sperrsysteme sollten leicht auffindbar und zugänglich sein. Für Konten, die der Nutzer gesperrt hat, sollten keine Informationen über den Nutzer oder sein Konto verfügbar sein;

e)

für den Fall, dass eine Online-Plattform Kommentare zu Inhalten ermöglicht, Minderjährigen die Möglichkeit geben, die Arten von Nutzern zu beschränken, die ihre Inhalte und Inhalte über sie kommentieren können, und/oder andere Nutzer daran zu hindern, ihre Inhalte und Inhalte über sie zu kommentieren, und zwar sowohl zum Zeitpunkt des Postens als auch danach, selbst wenn die Möglichkeit zum Kommentieren auf Konten beschränkt ist, die die Minderjährigen zuvor als Kontakte akzeptiert haben (wie in Abschnitt 6.3 über die Kontoeinstellungen empfohlen);

f)

für den Fall, dass die Online-Plattform Gruppenfunktionen bietet, sicherstellen, dass Minderjährige einer Gruppe erst beitreten, nachdem sie über die Einladung informiert wurden und ihre Zustimmung zur Teilnahme an dieser Gruppe gegeben haben.

Bewährtes Verfahren

NiceSpace ist eine Social-Media-Plattform für Nutzer ab 13 Jahren. Wenn sich Nutzer anmelden, wird ihnen ein interaktives Tutorial „SafeSpace 101“ präsentiert, in dem die Datenschutz-, Sicherheits- und Sicherheitsfunktionen der Plattform erläutert werden, einschließlich Sperr- und Stummschaltoptionen, Kommentarsteuerung und Gruppeneinladungen. NiceSpace verfügt auch über eine auffällige „Hilfe“-Schaltfläche, über die die Nutzer direkt mit ihrem lokalen Beratungsdienst des Safer-Internet-Zentrums verbunden werden. Falls die Nutzer nach potenziell schädlichen Inhalten suchen, werden sie von NiceSpace mithilfe von kontextabhängigen Meldungen gewarnt und zu sichereren Ressourcen umgeleitet. Alle Informationen sind an die jüngsten Nutzer angepasst, die auf der Plattform zugelassen sind.

7.3.   Tools für Erziehungsberechtigte

79.

Bei den Tools für Erziehungsberechtigte handelt es sich um Software, Merkmale, Funktionen oder Anwendungen, die den Erziehungsberechtigten dabei helfen sollen, unter Achtung der Handlungsfähigkeit und der Privatsphäre ihrer minderjährigen Kinder ein Auge auf deren Online-Tätigkeit, Privatsphäre, Sicherheit und Wohlergehen zu haben.

80.

Die Kommission ist der Auffassung, dass Tools für Erziehungsberechtigte als Ergänzung zu Maßnahmen für die Sicherheit als Teil der Gestaltung und durch Voreinstellungen sowie zu allen anderen Maßnahmen, die ergriffen werden, um Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 nachzukommen, einschließlich der in diesen Leitlinien beschriebenen Maßnahmen, betrachtet werden sollten. Die Einhaltung der Verpflichtung der Anbieter von für Minderjährige zugänglichen Online-Plattformen, für ein hohes Maß an Privatsphäre, Sicherheit und Schutz innerhalb ihrer Dienste zu sorgen, darf sich keinesfalls ausschließlich auf Tools für Erziehungsberechtigte stützen. Tools für Erziehungsberechtigte sollten weder als einzige Maßnahme zur Gewährleistung eines hohen Maßes an Privatsphäre, Sicherheit und Schutz von Minderjährigen auf Online-Plattformen noch als Ersatz für andere zu diesem Zweck ergriffene Maßnahmen eingesetzt werden. Derartige Maßnahmen entsprechen unter Umständen nicht den tatsächlichen Lebensumständen der Kinder, insbesondere in Fällen geteilten Sorgerechts, der Pflegeunterbringung oder der Abwesenheit oder Uninteressiertheit von Erziehungsberechtigten. Darüber hinaus ist die Wirksamkeit der elterlichen Einwilligung eingeschränkt, wenn die Identität oder die rechtliche Befugnis des einwilligenden Erwachsenen nicht zuverlässig überprüft wird. Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, müssen daher geeignete Maßnahmen zum Schutz Minderjähriger ergreifen und sollten sich nicht nur auf die elterliche Aufsicht verlassen. Die Kommission stellt jedoch fest, dass Tools für Erziehungsberechtigte, wenn sie in Verbindung mit anderen Maßnahmen eingesetzt werden, zu dem verlangten hohen Maß beitragen können.

81.

Daher ist die Kommission der Auffassung, dass Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, für die Zwecke des Artikels 28 Absatz 1 der Verordnung (EU) 2022/2065 Tools für die elterliche Kontrolle einrichten sollten, die

a)

altersgerecht sind und den sich entwickelnden Fähigkeiten von Minderjährigen entsprechen. Die Tools für Erziehungsberechtigte sollten auf Kommunikation, Lernen und Befähigung statt auf Kontrolle basieren und der Autonomie und Handlungskompetenz von Minderjährigen Vorschub leisten. Sie sollten wirksam sein und die Rechte Minderjähriger auf Privatsphäre oder den Zugang zu Diensten nicht in unverhältnismäßiger Weise einschränken, wobei das Wohl der Minderjährigen als vorrangige Erwägung zu berücksichtigen ist;

b)

einfach zu verwenden, zugänglich und zu aktivieren sind, indem den Erziehungsberechtigten beispielsweise gestattet wird, das Tool zu nutzen, ohne ein Konto für den Dienst einzurichten;

c)

unabhängig vom Gerät oder Betriebssystem anwendbar sind, das für den Zugang zum Dienst verwendet wird;

d)

den Minderjährigen eine klare Benachrichtigung über ihre Aktivierung durch Erziehungsberechtigte zukommen lassen und angesichts der Möglichkeit ihres Missbrauchs durch Erziehungsberechtigte weitere Schutzmaßnahmen vorsehen, indem sie beispielsweise die Minderjährigen in Echtzeit mit einem deutlichen Zeichen auf die Aktivierung einer Überwachungsfunktion hinweisen;

e)

sicherstellen, dass für Änderungen die gleiche Berechtigung wie zur ersten Aktivierung der Tools benötigt wird;

f)

mit der Verfügbarkeit interoperabler One-Stop-Shop-Tools für Erziehungsberechtigte vereinbar sind, die alle Einstellungen und Tools zusammenführen.

82.

Tools für Erziehungsberechtigte können Funktionen für die Verwaltung von Standardeinstellungen, die Einstellung von Bildschirmzeitbegrenzungen (siehe Abschnitt 6.4 über die Gestaltung von Online-Schnittstellen und andere Tools), die Anzeige der Konten, mit denen die Minderjährigen kommunizieren, die Verwaltung von Kontoeinstellungen, die standardmäßige Festlegung von Ausgabenobergrenzen für die Minderjährigen oder andere Funktionen zur Überwachung von Nutzungen der Online-Plattformen umfassen, die sich nachteilig auf die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen auswirken können.

8.   GOVERNANCE

83.

Eine gute Plattform-Governance ist ein wirksames Mittel, um sicherzustellen, dass der Schutz von Minderjährigen plattformweit gebührend priorisiert und gehandhabt wird, und trägt so dazu bei, das erforderliche hohe Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu gewährleisten.

8.1.   Governance (allgemein)

84.

Die Kommission ist der Auffassung, dass Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, wirksame Governance-Praktiken einführen sollten, um für die Zwecke des Artikels 28 Absatz 1 der Verordnung (EU) 2022/2065 für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen innerhalb ihrer Dienste zu sorgen. Dazu zählt unter anderem Folgendes:

a)

Umsetzung interner Leitlinien, in denen dargelegt wird, wie der Anbieter der Online-Plattform für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen innerhalb seines Dienstes sorgen will.

b)

Zuweisung der Verantwortung für die Gewährleistung eines hohen Maßes an Privatsphäre, Sicherheit und Schutz von Minderjährigen an eine eigens dafür zuständige Person oder ein eigens dafür zuständiges Team. Diese Person oder dieses Team sollte über ausreichende Ressourcen sowie ausreichende Befugnisse verfügen, um direkten Zugang zur höchsten Führungsebene des Anbieters der Online-Plattform zu haben, und zudem als zentrale Anlaufstelle für Regulierungsbehörden, Nutzer und vertrauenswürdige Hinweisgeber in Angelegenheiten im Zusammenhang mit der Privatsphäre, der Sicherheit und dem Schutz von Minderjährigen fungieren.

c)

Förderung einer Kultur der Privatsphäre, der Sicherheit und des Schutzes von Minderjährigen innerhalb des Dienstes. Hierzu gehört unter anderem Folgendes:

i)

Förderung und Priorisierung einer Kultur der Beteiligung von Kindern an der Gestaltung und dem Betrieb der Plattform. Dies sollte auf sichere, ethische, inklusive und sinnvolle Weise zum Wohl der Kinder geschehen. Zudem sollten Rückmeldemechanismen vorgesehen werden, um den Minderjährigen zu erläutern, wie ihren Ansichten Rechnung getragen wurde (91).

ii)

Schärfung des Bewusstseins dafür, wie der Anbieter die Rechte des Kindes auf seiner Plattform wahrt, sowie für die Risiken, denen Minderjährige auf der Plattform im Hinblick auf ihre Privatsphäre, ihre Sicherheit und/oder ihren Schutz ausgesetzt sein können (92).

iii)

Bereitstellung einschlägiger Schulungen und Informationen für Personen, die für die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen verantwortlich sind, für Entwickler, für Personen, die für die Moderation zuständig sind und/oder für Personen, bei denen die Meldungen oder Beschwerden von Minderjährigen eingehen (93).

iv)

Einrichtung von Verfahren, die die regelmäßige Überwachung der Einhaltung von Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 sicherstellen.

v)

Sicherstellung, dass alle technologischen und organisatorischen Lösungen, die zur Umsetzung dieser Leitlinien eingesetzt werden, dem neuesten Stand der Technik entsprechen und mit den nationalen Leitfäden zum Schutz von Minderjährigen (94), den Rechten des Kindes und den höchsten verfügbaren Standards (95) im Einklang stehen.

vi)

Einführung eines Verfahrens für die regelmäßige Erhebung und Aufzeichnung von Daten über Schäden und Risiken im Zusammenhang mit der Privatsphäre, der Sicherheit und dem Schutz von Minderjährigen auf der Plattform, die regelmäßig an die Leitung des Anbieters sowie an die Person oder das Team weitergegeben werden sollten, die bzw. das für den Schutz von Minderjährigen zuständig ist. Dies gilt unbeschadet der Pflichten von Anbietern sehr großer Online-Plattformen und sehr großer Online-Suchmaschinen, die sich aus den Artikeln 34 und 35 der Verordnung (EU) 2022/2065 ergeben.

vii)

Austausch zwischen Plattformen und Anbietern sowie mit Koordinatoren für digitale Dienste, vertrauenswürdigen Hinweisgebern, Organisationen der Zivilgesellschaft, Hochschulen und anderen einschlägigen Interessenträgern, über bewährte Verfahren und technologische Lösungen, die darauf abzielen, ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu gewährleisten. Die plattformübergreifende Zusammenarbeit sollte sich auf Risikoerkennung, Gestaltungsstandards und Forschungszusammenarbeit mit vertrauenswürdigen Akteuren erstrecken.

8.2.   Allgemeine Geschäftsbedingungen

85.

Die allgemeinen Geschäftsbedingungen bilden den Rahmen für die Regelung der Beziehungen zwischen dem Anbieter der Online-Plattform und seinen Nutzern. Sie legen die Regeln für und die Erwartungen an das Online-Verhalten fest und spielen eine wichtige Rolle bei der Schaffung eines sicheren, geschützten und die Privatsphäre wahrenden Umfelds (96).

86.

Die Kommission verweist auf die Pflichten aller Anbieter von Vermittlungsdiensten in Bezug auf die allgemeinen Geschäftsbedingungen gemäß Artikel 14 der Verordnung (EU) 2022/2065, wozu auch die Pflicht der Anbieter von Vermittlungsdiensten gehört, die Bedingungen und jegliche Einschränkungen für die Nutzung des Dienstes in einer klaren, einfachen, verständlichen, benutzerfreundlichen und unzweideutigen Sprache zu erläutern. Darüber hinaus ist in Artikel 14 Absatz 3 der genannten Verordnung festgelegt, dass Vermittlungsdienste, die sich in erster Linie an Minderjährige richten oder überwiegend von Minderjährigen genutzt werden, diese Informationen so bereitstellen sollten, dass Minderjährige sie verstehen können (97) , (98).

87.

Darüber hinaus ist die Kommission der Auffassung, dass Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, sicherstellen sollten, dass die allgemeinen Geschäftsbedingungen des von ihnen bereitgestellten Dienstes

a)

Informationen über Folgendes enthalten:

i)

die Schritte, die die Nutzer von der Kontoerstellung bis zur Kontolöschung ausführen müssen;

ii)

gemeinschaftliche Leitlinien, die eine positive, sichere und inklusive Atmosphäre fördern und in denen erläutert wird, welche Verhaltensweisen innerhalb ihres Dienstes erwartet werden und welche verboten sind und welche Folgen Verstöße haben;

iii)

die Arten von Inhalten und Verhaltensweisen, die als schädlich für die Privatsphäre, die Sicherheit und/oder den Schutz von Minderjährigen angesehen werden. Dazu gehören unter anderem rechtswidrige Inhalte, die der Privatsphäre, der Sicherheit und/oder dem Schutz von Minderjährigen schaden, sowie die Verbreitung derartiger Inhalte;

iv)

wie Minderjährige vor diesen Inhalten und Verhaltensweisen geschützt werden;

v)

die Instrumente, die eingesetzt werden, um Inhalte, Verhaltensweisen und Funktionen, die rechtswidrig sind oder der Privatsphäre, der Sicherheit und dem Schutz von Minderjährigen schaden, zu verhindern, einzudämmen und zu moderieren, sowie das Beschwerdeverfahren;

b)

während der gesamten Nutzererfahrung auf der Plattform leicht auffindbar und durchsuchbar sind;

c)

die Rechte Minderjähriger, einschließlich ihres Rechts auf Meinungs- und Informationsfreiheit, nicht in unangemessener Weise einschränken;

d)

geachtet und in die Praxis umgesetzt werden.

88.

Darüber hinaus ist die Kommission der Auffassung, dass die Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, sicherstellen sollten, dass Änderungen der allgemeinen Geschäftsbedingungen protokolliert und veröffentlicht werden (99).

Bewährtes Verfahren

HappyExplore ist eine Online-Plattform, auf der Minderjährige Spiele spielen sowie Kreaturen und Welten erschaffen bzw. erkunden können, die sie miteinander teilen können. Auf der Plattform HappyExplore gibt es eine Figur mit dem Namen „Pixel Pioneer“, die den Nutzern beibringt, wie man ein verantwortungsvoller Entdecker wird. Alle Nutzer werden ermutigt, die „Verpflichtung zur Freundlichkeit“ einzugehen, in deren Rahmen sie lernen und versprechen, sich freundlich und sicher im Internet zu verhalten. Pixel Pioneer erläutert den Nutzern beim Erkunden auch, wie wichtig Moderation und Sicherheitsentscheidungen sind, und erklärt ihnen beispielsweise, warum sie sorgfältig nachdenken sollten, bevor sie ihre Kreaturen oder Welten teilen.

8.3.   Überwachung und Bewertung

89.

Die Kommission ist der Auffassung, dass Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, wirksame Überwachungs- und Bewertungsverfahren anwenden sollten, um für die Zwecke des Artikels 28 Absatz 1 der Verordnung (EU) 2022/2065 für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen. Dazu zählt unter anderem Folgendes:

a)

Regelmäßige Überwachung und Bewertung der Wirksamkeit aller Elemente der Plattform, die die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen auf der Plattform betreffen. Dies umfasst beispielsweise die Online-Schnittstelle der Plattform, Systeme, Einstellungen, Tools, Funktionen und Merkmale, Melde-, Rückmelde- und Beschwerdemechanismen sowie Maßnahmen, die ergriffen wurden, um Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 nachzukommen (100). Die Anbieter sollten in Erwägung ziehen, diese Bewertungen zur Überprüfung und Stellungnahme durch unabhängige Dritte wie Sachverständige oder andere einschlägige Interessenträger zur Verfügung zu stellen.

b)

Regelmäßige Konsultation mit Minderjährigen, Erziehungsberechtigten, Hochschulen, Organisationen der Zivilgesellschaft, Kinderrechtsexperten und anderen einschlägigen Interessenträgern zur Gestaltung und Bewertung aller Elemente der Plattform, die die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen auf der Plattform betreffen. Dies sollte auch die Erprobung dieser Elemente mit Minderjährigen und die Berücksichtigung ihrer Rückmeldungen einschließen. Als Beitrag zur Nichtdiskriminierung und zur Barrierefreiheit sollten die Anbieter, soweit möglich, Minderjährige mit unterschiedlichem kulturellem und sprachlichem Hintergrund, unterschiedlichen Alters, mit Behinderungen und/oder zusätzlichen Anforderungen an die Zugänglichkeit in diese Konsultationen einbeziehen.

c)

Anpassung der Gestaltung und Funktionsweise der oben genannten Elemente auf der Grundlage der Ergebnisse dieser Konsultationen und technischer Entwicklungen sowie auf der Grundlage von Forschungsergebnissen, Änderungen des Nutzerverhaltens oder Entwicklungen im Hinblick auf die Richtlinien, das Produkt und die Nutzung sowie Änderungen hinsichtlich der Schäden und der Risiken für die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen auf ihrer Plattform.

8.4.   Transparenz

90.

Die Kommission weist auf die Transparenzpflichten gemäß den Artikeln 14, 15 und 24 der Verordnung (EU) 2022/2065 hin. Angesichts der Entwicklungsstadien und der sich entwickelnden Fähigkeiten von Minderjährigen sind zusätzliche Überlegungen hinsichtlich der Transparenz der Funktionsweise einer Online-Plattform vonnöten, um die Einhaltung von Artikel 28 Absatz 1 dieser Verordnung sicherzustellen.

91.

Die Kommission ist der Auffassung, dass Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, alle erforderlichen und relevanten Informationen über die Funktionsweise ihrer Dienste für Minderjährige leicht zugänglich machen sollten, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz innerhalb ihrer Dienste zu sorgen. Sie ist der Auffassung, dass die Anbieter von Online-Plattformen Minderjährigen und gegebenenfalls ihren Erziehungsberechtigten auf einer zugänglichen Schnittstelle auf ihren Online-Plattformen folgende Informationen zur Verfügung stellen sollten:

a)

Informationen über alle Maßnahmen, die ergriffen wurden, um für ein hohes Maß an Privatsphäre, Sicherheit und/oder Schutz von Minderjährigen auf der Plattform zu sorgen. Dazu gehören Informationen über

i)

alle verwendeten Methoden der Altersfeststellung, ihre Funktionsweise und alle Dritten, auf die für die Bereitstellung von jeglichen Methoden zur Altersfeststellung oder Altersschätzung zurückgegriffen wird;

ii)

die Funktionsweise der Empfehlungssysteme, die auf der gesamten Plattform verwendet werden, und die verschiedenen Optionen, die den Nutzern zur Verfügung stehen (siehe Abschnitt 6.5.2 zur Nutzerkontrolle und Befähigung);

iii)

die Verfahren für die Beantwortung von Meldungen, Rückmeldungen und Beschwerden von Minderjährigen, einschließlich der ungefähren Zeitrahmen, sowie die möglichen Ergebnisse und Auswirkungen dieser Verfahren;

iv)

die KI-Tools, -Produkte und -Funktionen, die in die Plattform integriert sind, ihre Beschränkungen und die möglichen Folgen ihrer Nutzung;

v)

das Registrierungsverfahren, sofern ein solches angeboten wird;

vi)

alle angebotenen Tools für Erziehungsberechtigte mit Erläuterungen dazu, wie sie genutzt werden können und in welcher Weise sie dem Schutz von Minderjährigen im Internet dienen und welche Arten von Informationen über die Online-Aktivitäten von Minderjährigen die Erziehungsberechtigten mithilfe dieser Tools erhalten können;

vii)

die Moderation von Inhalten, die gegen die allgemeinen Geschäftsbedingungen der Plattform verstoßen, und die Folgen dieser Moderation;

viii)

die Verwendung der verschiedenen in den vorliegenden Leitlinien genannten Melde-, Beschwerde-, Rechtsbehelfs- und Unterstützungsinstrumente;

ix)

die allgemeinen Geschäftsbedingungen der Online-Plattform;

x)

alle sonstigen in den vorliegenden Leitlinien empfohlenen und vom Anbieter der Online-Plattform ergriffenen Maßnahmen;

xi)

alle sonstigen Maßnahmen, die ergriffen, oder Änderungen, die an ihren Diensten vorgenommen wurden, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen auf der Plattform zu sorgen.

b)

Es ist sicherzustellen, dass diese Informationen, alle Warnhinweise und alle anderen Mitteilungen, die in den vorliegenden Leitlinien empfohlen werden,

i)

kindgerecht, altersgerecht und für alle Minderjährigen, einschließlich Minderjährigen mit Behinderungen und/oder zusätzlichen Anforderungen an die Zugänglichkeit, leicht verständlich und leicht zugänglich sind;

ii)

übersichtlich, verständlich und möglichst einfach und prägnant dargeboten werden. Wenn sich beispielsweise die allgemeinen Geschäftsbedingungen auf ein bestimmtes Merkmal beziehen, werden die wichtigsten Informationen zu diesem Merkmal dargeboten, wenn die Minderjährigen darauf treffen;

iii)

den Minderjährigen auf leicht überprüfbare Weise dargeboten werden, die einen sofortigen und intuitiven Zugang ermöglicht, und zwar dann, wenn sie Bedeutung erlangen;

iv)

in der/den Amtssprache(n) des Mitgliedstaats dargeboten werden, in dem der Dienst bereitgestellt wird;

v)

das Interesse der Minderjährigen wecken. Dies kann die Verwendung von Grafiken, Videos und/oder Zeichen oder anderen Techniken erfordern;

vi)

den Minderjährigen schrittweise und allmählich dargeboten werden, damit diese sie möglichst gut im Gedächtnis behalten.

c)

Alle Maßnahmen, die ergriffen, und Änderungen, die vorgenommen werden, um Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 nachzukommen, könnten intern kommuniziert und so weit wie möglich veröffentlicht werden.

Bewährtes Verfahren

HappyTerms ist eine Online-Plattform, die sich an 13- bis 18-Jährige richtet. Sie bietet Minderjährigen die Möglichkeit, an Gemeinschaften teilzuhaben und Ideen und Informationen über gemeinsame Interessen auszutauschen. HappyTerms zeigt Informationen über seine allgemeinen Geschäftsbedingungen mit klaren Überschriften zusammen mit erläuternden Symbolen und bunten Bildern an. Die Bestimmungen sind in kurze, leicht lesbare Abschnitte unterteilt, und es wird eine einfache Sprache verwendet, um die Bestimmungen zu erläutern. Es gibt auch Infografiken, die Minderjährigen dabei helfen, zu verstehen, wozu sie ihre Zustimmung erteilen, und die eingeblendet werden, wenn sie für eine bestimmte Funktion oder Änderung von Einstellungen von Bedeutung sind. Die Nutzer können auch nach Bestimmungen suchen, indem sie auf eine Ikone mit der Aufschrift „Was ich wissen muss“ klicken, die den Nutzer von jedem Teil der Plattform zu den einschlägigen Bestimmungen, den zugehörigen Tools und zu nützlichen Links weiterleitet. HappyTerms bietet außerdem ein interaktives Quiz, mit dessen Hilfe die Minderjährigen überprüfen können, ob sie die allgemeinen Geschäftsbedingungen verstanden haben.

9.   ÜBERPRÜFUNG

92.

Die Kommission wird diese Leitlinien im Lichte der bei der Anwendung von Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 gesammelten praktischen Erfahrungen und unter Berücksichtigung des Tempos der technologischen, gesellschaftlichen und regulatorischen Entwicklungen in diesem Bereich überprüfen, sobald dies erforderlich ist, spätestens jedoch nach einem Zeitraum von zwölf Monaten.

93.

Die Kommission wird die Anbieter von für Minderjährige zugänglichen Online-Plattformen, die Koordinatoren für digitale Dienste, die zuständigen nationalen Behörden, die Forschungsgemeinschaft und Organisationen der Zivilgesellschaft auffordern, dazu beizutragen. Nach dieser Überprüfung kann die Kommission in Absprache mit dem Europäischen Gremium für digitale Dienste beschließen, diese Leitlinien zu ändern.

(1)  In den vorliegenden Leitlinien beziehen sich die Ausdrücke „Kind“, „Kinder“ und „Minderjährige“ auf Personen unter 18 Jahren.

(2)  In den vorliegenden Leitlinien bezieht sich der Ausdruck „Erziehungsberechtigte“ auf Personen, die das elterliche Sorgerecht innehaben.

(3)  Zu den rechtswidrigen Inhalten zählen unter anderem Inhalte, die illegalen Drogenhandel darstellen, terroristische und extremistische Gewaltinhalte sowie Darstellungen sexuellen Missbrauchs von Kindern. Was unter rechtswidrigen Inhalten zu verstehen ist, ist nicht in der Verordnung (EU) 2022/2065 (Gesetz über digitale Dienste), sondern in anderen Gesetzen entweder auf EU- oder nationaler Ebene festgelegt.

(4)  Die verschiedenen Arten von Risiken, denen Minderjährige beim Zugang zu Online-Plattformen ausgesetzt sind, werden auf der Grundlage eines von der OECD entwickelten Rahmens in Anhang I dieser Leitlinien aufgeführt.

(5)  Siehe Abschnitt 6.1 zur Altersfeststellung.

(6)  Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG (Gesetz über digitale Dienste) (ABl. L 277 vom 27.10.2022, S. 1, ELI: http://data.europa.eu/eli/reg/2022/2065/oj).

(7)  Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Datenverkehr (DSGVO) (ABl. L 119 vom 4.5.2016, S. 1, ELI: http://data.europa.eu/eli/reg/2016/679/oj).

(8)  Gemäß Artikel 3 der Verordnung (EU) 2022/2065 bezeichnet der Begriff „Online-Plattform“ einen Hostingdienst, der im Auftrag eines Nutzers Informationen speichert und öffentlich verbreitet, sofern es sich bei dieser Tätigkeit nicht nur um eine unbedeutende und reine Nebenfunktion eines anderen Dienstes oder um eine unbedeutende Funktion des Hauptdienstes handelt, die aus objektiven und technischen Gründen nicht ohne diesen anderen Dienst genutzt werden kann, und sofern die Integration der Funktion der Nebenfunktion oder der unbedeutenden Funktion in den anderen Dienst nicht dazu dient, die Anwendbarkeit dieser Verordnung zu umgehen.

(9)  In der Empfehlung 2003/361/EG wird ein Kleinunternehmen als Unternehmen definiert, das weniger als 50 Personen beschäftigt und dessen Jahresumsatz bzw. Jahresbilanz 10 Mio. EUR nicht übersteigt. Ein Kleinstunternehmen ist als Unternehmen definiert, das weniger als 10 Personen beschäftigt und dessen Jahresumsatz bzw. Jahresbilanz 2 Mio. EUR nicht übersteigt. Die Kommission weist hier auf Erwägungsgrund 10 der Verordnung (EU) 2022/2065 hin, in dem es heißt, dass diese Verordnung die Richtlinie 2010/13/EU unberührt lässt. Gemäß der genannten Richtlinie müssen alle Anbieter von Video-Sharing-Plattformen unabhängig von ihrer Einstufung als Kleinst- oder Kleinunternehmen Altersüberprüfungssysteme für die Nutzer von Video-Sharing-Plattformen in Bezug auf Inhalte einrichten und betreiben, die die körperliche oder geistige Entwicklung Minderjähriger beeinträchtigen können.

(10)  Hierzu gehören die in den folgenden Bestimmungen der Verordnung (EU) 2022/2065 enthaltenen Verpflichtungen: Artikel 14 über die allgemeinen Geschäftsbedingungen, Artikel 16 und 17 über Melde- und Abhilfeverfahren bzw. Begründungen, Artikel 25 über die Gestaltung und Organisation der Online-Schnittstelle, Artikel 15 und 24 über Transparenz, Artikel 26 über Werbung, Artikel 27 über Empfehlungssysteme und Artikel 44 über Normen.

(11)  Dazu gehören unter anderem die folgenden Bestimmungen der Verordnung (EU) 2022/2065: Artikel 34 und 35 über Risikobewertung bzw. Risikominderung, Artikel 38 über Empfehlungssysteme, Artikel 40 über Datenzugang und Kontrolle und Artikel 44 Buchstabe j über Normen für gezielte Maßnahmen zum Schutz Minderjähriger im Internet.

(12)  Dazu gehören unter anderem die Artikel 34 und 35 über Risikobewertung bzw. Risikominderung, Artikel 38 über Empfehlungssysteme und Artikel 40 über Datenzugang und Kontrolle.

(13)  Dazu gehören die Strategie für ein besseres Internet für Kinder (BIK+), die Richtlinie 2010/13/EU (im Folgenden „Richtlinie über audiovisuelle Mediendienste“), die Verordnung (EU) 2024/1689 (im Folgenden „KI-Verordnung“), die Verordnung (EU) 2016/679 (im Folgenden „DSGVO“), die Richtlinie 2011/93/EU zur Bekämpfung des sexuellen Missbrauchs und der sexuellen Ausbeutung von Kindern, die Richtlinie 2005/29/EG über unlautere Geschäftspraktiken (im Folgenden „UGP-Richtlinie“), die europäische Brieftasche für die digitale Identität und die befristete Lösung zur Altersüberprüfung, der bevorstehende Aktionsplan gegen Cybermobbing, die EU-weite Untersuchung der umfassenderen Auswirkungen sozialer Medien auf das Wohlergehen, die Strategie ProtectEU, der EU-Fahrplan zur Bekämpfung des Drogenhandels und der organisierten Kriminalität, das EU-Internetforum, die EU-Strategie für eine wirksamere Bekämpfung des sexuellen Missbrauchs von Kindern und die Strategie der EU zur Bekämpfung des Menschenhandels 2021-2025. Außerdem lässt die Verordnung (EU) 2022/2065 das Unionsrecht auf dem Gebiet des Verbraucherschutzes und der Produktsicherheit unberührt, einschließlich der Verordnungen (EU) 2017/2394 und (EU) 2019/1020 und der Richtlinien 2001/95/EG und 2013/11/EU. Die Richtlinie 2005/29/EG über unlautere Geschäftspraktiken, insbesondere die Artikel 5 bis 9, schützt auch Minderjährige. So verbietet z. B. Anhang I Nr. 28 die Einbeziehung einer direkten Aufforderung an Kinder in eine Werbung, die beworbenen Produkte zu kaufen oder ihre Eltern oder andere Erwachsene zu überreden, die beworbenen Produkte für sie zu kaufen. Die Kommission weist auch auf ihre Eignungsprüfung des EU-Verbraucherrechts zu digitaler Fairness hin.

(14)  Aus der Annahme und Umsetzung irgendeiner der in diesen Leitlinien festgelegten Maßnahmen ergibt sich auch nicht die Einhaltung der DSGVO oder irgendwelcher anderen anwendbaren datenschutzrechtlichen Vorschriften. Die zuständigen Behörden werden daher aufgefordert, bei der Feststellung der Einhaltung von Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 mit den Datenschutzbehörden zusammenzuarbeiten.

(15)  Zum Zweck der Ausarbeitung der Leitlinien hat die Kommission eine gründliche Sekundärforschung betrieben sowie Rückmeldungen von Interessenträgern mittels einer Aufforderung zur Stellungnahme, Workshops und einer gezielten öffentlichen Konsultation eingeholt. Die Kommission stützte sich zudem in allen Phasen der Ausarbeitung auf das Fachwissen des Europäischen Zentrums für die Transparenz der Algorithmen. Darüber hinaus konsultierte die Kommission mit Unterstützung der Safer-Internet-Zentren junge Menschen, darunter auch BIK-Jugendbotschafterinnen und -botschafter sowie mit Kindern organisierte Fokusgruppen in sieben Mitgliedstaaten.

(16)  Dazu gehören beispielsweise die in Fußnote 13 genannten Richtlinien und Verordnungen sowie die bevorstehenden Leitlinien des Europäischen Datenschutzausschusses (EDSA) zur Verarbeitung personenbezogener Daten von Minderjährigen gemäß der Verordnung (EU) 2016/679 (DSGVO).

(17)  An Coimisiún um chosaint Sonraí (2021), Fundamentals for a child-oriented approach to data processing; abrufbar unter: https://www.dataprotection.ie/sites/default/files/uploads/2021-12/Fundamentals%20for%20a%20Child-Oriented%20Approach%20to%20Data%20Processing_FINAL_EN.pdf; Coimisiún na Meán (2024), Online safety code; abrufbar unter: https://www.cnam.ie/app/uploads/2024/11/Coimisiun-na-Mean-Online-Safety-Code.pdf; IMY (schwedische Datenschutzbehörde) (2021), The rights of children and young people on digital platforms; abrufbar unter: https://www.imy.se/en/publications/the-rights-of-children-and-young-people-on-digital-platforms/; Niederländisches Ministerium für Inneres und Königreichsbeziehungen (2022), Kodex der Rechte des Kindes; abrufbar unter: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf.

CNIL (2021), CNIL publishes 8 recommendations to enhance protection of children online; abrufbar unter: https://www.cnil.fr/en/cnil-publishes-8-recommendations-enhance-protection-children-online; Unabhängiger Beauftragter für Fragen des sexuellen Kindesmissbrauchs (ohne Jahresangabe), Rechtsfragen Digitales; abrufbar unter: https://beauftragte-missbrauch.de/themen/recht/rechtsfragen-digitales; CEN-CENELEC (2023), Workshop Agreement 18016 – Age Appropriate Digital Services Framework ; abrufbar unter: https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf; OECD (2021), Children in the digital environment – Revised typology of risks; abrufbar unter: https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.

(18)  Diese Rechte werden vom Ausschuss der Vereinten Nationen für die Rechte des Kindes in Bezug auf das digitale Umfeld in seiner Allgemeinen Bemerkung Nr. 25 dargelegt. Amt des Hohen Kommissars für Menschenrechte (2021), Allgemeine Bemerkung Nr. 25 (2021) über die Rechte der Kinder im digitalen Umfeld; abrufbar unter: https://www.ohchr.org/en/documents/general-comments-and-recommendations/general-comment-no-25-2021-childrens-rights-relation.

(19)  Kinder haben Anspruch auf den Schutz und die Fürsorge, die für ihr Wohlergehen notwendig sind. (Artikel 24 der Charta).

(20)  Sie können ihre Meinung frei äußern. Ihre Meinung wird in den Angelegenheiten, die sie betreffen, in einer ihrem Alter und ihrem Reifegrad entsprechenden Weise berücksichtigt (Artikel 24 der Charta).

(21)  In diesem Zusammenhang weist die Kommission auf die Bedeutung des barrierefreien Zugangs hin, wie er auch in der Richtlinie (EU) 2016/2102 des Europäischen Parlaments und des Rates vom 26. Oktober 2016 über den barrierefreien Zugang zu den Websites und mobilen Anwendungen öffentlicher Stellen (im Folgenden „Richtlinie über den barrierefreien Zugang zu Websites“) geregelt ist, sowie auf die Bedeutung der Beteiligung von Kindern bei der gesamten Gestaltung, Umsetzung und Bewertung aller Maßnahmen zur Gewährleistung der Sicherheit, des Schutzes und der Privatsphäre von Kindern im Internet.

(22)  Gemäß Artikel 25 DSGVO müssen Betreiber, die personenbezogene Daten Minderjähriger verarbeiten, bereits geeignete organisatorische und technische Maßnahmen zum Schutz der Rechte betroffener Personen ergreifen (Datenschutz durch Technikgestaltung und durch datenschutzfreundliche Voreinstellungen). Diese Verpflichtung wird von den zuständigen Datenschutzbehörden im Einklang mit Artikel 51 DSGVO durchgesetzt. Siehe die Leitlinien 4/2019 zu Artikel 25 Datenschutz durch Technikgestaltung und durch datenschutzfreundliche Voreinstellungen; abrufbar unter: https://www.edpb.europa.eu/our-work-tools/our-documents/guidelines/guidelines-42019-article-25-data-protection-design-and_de.

(23)  OECD (2024), Towards Digital Safety by Design for Children; abrufbar unter: https://doi.org/10.1787/c167b650-en.

(24)  Dies erfordert eine Priorisierung von Merkmalen, Funktionen, Inhalten oder Modellen, die mit den sich entwickelnden Fähigkeiten der Kinder vereinbar sind, sowie die Berücksichtigung soziokultureller Unterschiede. Eine altersgerechte Gestaltung ist für die Privatsphäre, die Sicherheit und den Schutz von Kindern von entscheidender Bedeutung, denn wenn ihnen keine altersgerechten Informationen bereitgestellt werden, sind Kinder möglicherweise nicht in der Lage, Funktionen, Einstellungen oder sonstige Tools in Bezug auf ihre Privatsphäre oder Sicherheit zu verstehen, zu nutzen oder in Anspruch zu nehmen. CEN-CENELEC (2023), Workshop Agreement 18016 – Age Appropriate Digital Services Framework ; abrufbar unter: https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf; Alter und Entwicklungsstadien verfügbar unter anderem als Anhang zum niederländischen Kodex der Rechte des Kindes; abrufbar unter: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf.

(25)  Artikel 3 des Übereinkommens über die Rechte des Kindes; Artikel 24 der Charta: Das Recht des Kindes, dass sein Wohl beurteilt und bei der Abwägung verschiedener Interessen als vorrangige Erwägung berücksichtigt wird, um zu einer Entscheidung über die in Rede stehende Angelegenheit zu gelangen, die ein Kind, eine Gruppe identifizierter oder nicht identifizierter Kinder oder Kinder im Allgemeinen betrifft. Die Bestimmung des Kindeswohls sollte erforderlichenfalls nicht von den Unternehmen vorgenommen werden, sondern auf der Grundlage der Maßnahmen der zuständigen Behörden erfolgen. LSE Digital Futures for Children (2024), The Best interests of the child in the digital environment; abrufbar unter: https://www.digital-futures-for-children.net/digitalfutures-assets/digitalfutures-documents/Best-Interests-of-the-Child-FINAL.pdf.

(26)  Nichtdiskriminierung: Die Rechte des Kindes gelten gemäß Artikel 21 der Charta für jedes Kind ohne jede Diskriminierung. Zu den Rechten des Kindes gehört gemäß Artikel 24 der Charta auch ihr Recht auf den Schutz und die Fürsorge, die für ihr Wohlergehen erforderlich sind. Kinder können ihre Meinung frei äußern. Ihre Meinung muss in den Angelegenheiten, die sie betreffen, in einer ihrem Alter und ihrem Reifegrad entsprechenden Weise berücksichtigt werden. Bei allen Kinder betreffenden Maßnahmen öffentlicher Stellen oder privater Einrichtungen muss das Wohl des Kindes eine vorrangige Erwägung sein. Zu den Rechten des Kindes gehören – wie bei allen Menschen – auch das Recht auf Leben gemäß Artikel 2 der Charta und das Recht auf Achtung der körperlichen und geistigen Unversehrtheit gemäß Artikel 3 der Charta. Die Rechte des Kindes sind auch im Übereinkommen der Vereinten Nationen über die Rechte des Kindes (im Folgenden „UNCRC“) verankert und näher ausgeführt, das alle Mitgliedstaaten ratifiziert haben.

(27)  Die Kommission verweist insbesondere auf die Leitlinien des EDSA zur Datenschutz-Folgenabschätzung (DSFA) und Beantwortung der Frage, ob eine Verarbeitung im Sinne der Verordnung (EU) 2016/679 „wahrscheinlich ein hohes Risiko mit sich bringt“.

(28)  Beispiele für wesentliche Änderungen sind die Einführung neuer Funktionen, die die Interaktion der Nutzer beeinflussen, Änderungen an Empfehlungssystemen, Kontoeinstellungen, Moderation, Berichterstattung oder anderen Gestaltungsmerkmalen, die das Erlebnis von Kindern auf der Plattform spürbar verändern würden, Änderungen der Datenerhebungsverfahren, die Ausweitung auf neue Nutzergruppen, die Integration generativer KI-Tools oder Änderungen im Zusammenhang mit Maßnahmen zur Altersfeststellung oder ihren Anbietern.

(29)  UNICEF (2024), Children's rights impact assessment: A tool to support the design of AI and digital technology that respects children's rights; abrufbar unter: https://www.unicef.org/childrightsandbusiness/workstreams/responsible-technology/D-CRIA; MO-CRIA (2021), Child Rights Impact Self-Assessment Tool for Mobile Operators; abrufbar unter: https://www.unicef.org/reports/mo-cria-child-rights-impact-self-assessment-tool-mobile-operators.

(30)  Niederländisches Ministerium für Inneres und Königreichsbeziehungen (BZK) (2024), Child Rights Impact Assessment (Fillable Form); abrufbar unter: https://www.nldigitalgovernment.nl/document/childrens-rights-impact-assessment-fill-in-document/.

(31)  Siehe insbesondere Kapitel 14 von CEN-CENELEC (2023), Workshop Agreement 18016 – Age Appropriate Digital Services Framework ; abrufbar unter: https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf.

(32)  Europäische Kommission: Generaldirektion Kommunikationsnetze, Inhalte und Technologien, Center for Law and Digital Technologies (eLaw), LLM, Raiz Shaffique, M., van der Hof, S. (2024), Mapping age assurance typologies and requirements – Research report; abrufbar unter: https://data.europa.eu/doi/10.2759/455338.

(33)  Ebd.; CEN-CENELEC (2023), Workshop Agreement 18016 Age Appropriate Digital Services Framework : https://www.cencenelec.eu/media/CEN-CENELEC/CWAs/ICT/cwa18016_2023.pdf.

(34)  Die in Abschnitt 5 zur Risikobewertung beschriebenen Instrumente für die Risikobewertung und die Folgenabschätzung für Kinderrechte können den Anbietern von Online-Plattformen bei der Durchführung dieser Bewertung helfen.

(35)  Siehe die Erklärung 1/2025 zur Altersfeststellung des EDSA; abrufbar unter: https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_de.

(36)  Diese Risiken können im Rahmen der in Abschnitt 5 dargelegten Risikobewertung ermittelt werden.

(37)  In diesem Zusammenhang erinnert die Kommission an die Verpflichtungen der Mitgliedstaaten gemäß der Richtlinie (EU) 2015/1535 des Europäischen Parlaments und des Rates vom 9. September 2015 über ein Informationsverfahren auf dem Gebiet der technischen Vorschriften und der Vorschriften für die Dienste der Informationsgesellschaft (ABl. L 241 vom 17.9.2015, S. 1, ELI: http://data.europa.eu/eli/dir/2015/1535/oj) und die darin festgelegten einschlägigen Verfahren für Entwürfe technischer Vorschriften.

(38)  Die Kommission erprobt derzeit eine EU-Lösung für die Altersüberprüfung, um die Altersüberprüfung in Übereinstimmung mit dem in diesen Leitlinien geforderten Standard zu erleichtern, bevor die europäische Brieftasche für die digitale Identität zur Verfügung steht. Andere Lösungen, die mit dem in diesen Leitlinien festgelegten Standard vereinbar sind, sind möglicherweise im Handel erhältlich oder in einzelnen, aber nicht allen Mitgliedstaaten verfügbar. Anbieter von Online-Plattformen, die den erwähnten Nachweis erbringen, sollten jedenfalls mit der Erprobung und Anwendung von Methoden zur Altersüberprüfung, die den Kriterien von Abschnitt 6.1.4 entsprechen, beginnen, sobald diese zur Verfügung stehen. Der genannte Übergangszeitraum kann im Lichte der Einführung der EU-Lösung für die Altersüberprüfung angepasst werden.

(39)  Für einen Überblick über die verschiedenen Methoden der Altersschätzung siehe Europäische Kommission, Generaldirektion Kommunikationsnetze, Inhalte und Technologien, Center for Law and Digital Technologies (e Law), LLM, Raiz Shaffique, M., van der Hof, S. (2024), Mapping age assurance typologies and requirements – Research report; abrufbar unter: https://data.europa.eu/doi/10.2759/455338.

(40)  Der Diensteanbieter muss nur wissen, ob der Nutzer eine Altersgrenze über- oder unterschreitet. Dies sollte durch einen tokenisierten Ansatz unter Beteiligung eines Drittanbieters umgesetzt werden, bei dem der Diensteanbieter nur das funktionale Ergebnis des Altersfeststellungsverfahrens sieht (z. B. „über“ oder „unter“ der Altersgrenze). Ein Drittanbieter führt eine Altersüberprüfung durch und stellt dem Nutzer ein „Alterstoken“ zur Verfügung, das der Nutzer dem Diensteanbieter vorlegen kann, ohne sein Alter erneut nachweisen zu müssen. Das Alterstoken kann verschiedene Benutzerattribute sowie Angaben darüber enthalten, wann, wo oder wie die Altersprüfung durchgeführt wurde. Siehe auch die Erklärung 1/2025 zur Altersfeststellung des EDSA; abrufbar unter: https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_de.

(41)  Ein Zero-Knowledge-Proof ist ein Protokoll, in dem eine Partei (der Beweiser) einer anderen Partei (dem Verifizierer) nachweisen kann, dass eine bestimmte Aussage wahr ist, ohne dem Verifizierer Informationen zu übermitteln, die über die bloße Tatsache der Wahrheit dieser Aussage hinausgehen.

(42)  Gemäß Kapitel II Abschnitt 1 der Verordnung (EU) Nr. 910/2014 in der durch die Verordnung (EU) 2024/1183 geänderten Fassung.

(43)  Der EU-Referenzstandard ist abrufbar unter https://ageverification.dev.

(44)  Diese Methoden stehen weitgehend im Einklang mit der Forderung des EDSA in Nummer 34 seiner Erklärung 1/2025 zur Altersfeststellung nach Lösungen, die Verknüpfung und Profiling verhindern. Diese Ansätze zur Wahrung der Privatsphäre werden auch von der wissenschaftlichen Forschung als skalierbar, inklusiv und wirksam zur Minimierung der Risiken für Minderjährige unter Wahrung der Grundrechte befürwortet. Abrufbar unter: https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_de.

(45)  Wird in diesen Fällen eine Altersüberprüfung durchgeführt, so berührt dies nicht etwaige gesonderte Verpflichtungen des Anbieters, beispielsweise die Verpflichtung, zu prüfen, ob der Minderjährige als Verbraucher alt genug ist, um einen Vertrag rechtsgültig abzuschließen. Dies hängt vom geltenden Recht des Mitgliedstaats ab, in dem der Minderjährige seinen Wohnsitz hat.

(46)  In manchen Fällen kann der Anbieter die Möglichkeit haben, zu überprüfen, ob der Minderjährige von seinen Erziehungsberechtigten angemeldet wurde.

(47)  Diese Risiken können im Rahmen der in Abschnitt 5 dargelegten Risikobewertung ermittelt werden.

(48)  Alle Beispiele für bewährte und für schlechte Verfahren in diesen Leitlinien beziehen sich auf fiktive Online-Plattformen.

(49)  Der Anbieter kann dieses Verfahren in sein internes Beschwerdemanagementsystem gemäß Artikel 20 integrieren. Siehe auch Abschnitt 7.1 dieser Leitlinien.

(50)  Eine ungenaue Altersfeststellung kann zum Ausschluss von eigentlich zur Nutzung eines Dienstes berechtigten Nutzern führen oder nicht berechtigten Nutzern trotz der implementierten Maßnahme zur Altersfeststellung den Zugang zu dem Dienst ermöglichen.

(51)  Eine unangemessene Altersfeststellung kann zu unangemessenen Risiken für die Rechte der Nutzer auf Datenschutz und Privatsphäre führen, während eine pauschale Alterssicherung den Zugang zu Diensten über das tatsächlich erforderliche Maß hinaus einschränken könnte.

(52)  Siehe Erwägungsgrund 71 der Verordnung (EU) 2022/2065, in dem hervorgehoben wird, dass Anbieter den Grundsatz der Datenminimierung gemäß Artikel 5 Absatz 1 Buchstabe c der Verordnung (EU) 2016/679 beachten müssen.

(53)  Siehe die Erklärung 1/2025 des EDSA zur Altersfeststellung, Punkte 2.3 und 2.4. Abrufbar unter: https://www.edpb.europa.eu/our-work-tools/our-documents/statements/statement-12025-age-assurance_de.

(54)  Europäische Kommission, Generaldirektion Kommunikationsnetze, Inhalte und Technologien, Center for Law and Digital Technologies (e Law), LLM, Raiz Shaffique, M., van der Hof, S. (2024), Mapping age assurance typologies and requirements – Research report; abrufbar unter: https://data.europa.eu/doi/10.2759/455338.

(55)  Dies gilt unbeschadet zusätzlicher Anforderungen, die sich aus anderen Rechtsvorschriften, wie etwa Artikel 12 der Verordnung (EU) 2016/679, ergeben.

(56)  Wie in Abschnitt 6.1 dargelegt, betrachtet die Kommission die Eigenerklärung nicht als geeignete Methode der Altersfeststellung, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen gemäß Artikel 28 Absatz 1 der Verordnung (EU) 2022/2065 zu sorgen.

(57)  Willis, L. E. (2014), Why not privacy by default?, Berkeley Technology Law Journal, 29(1), S. 61 ff; abrufbar unter: https://www.btlj.org/data/articles2015/vol29/29_1/29-berkeley-tech-l-j-0061-0134.pdf; Cho, H., Roh, S., Park, B. (2019), Of promoting networking and protecting privacy: Effects of defaults and regulatory focus on social media users’ preference settings, Computers in Human Behavior, 101, S. 1-13; abrufbar unter: https://doi.org/10.1016/j.chb.2019.07.001. Beispiele für Einstellungen, die die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen gefährden können, sind unter anderem die Aktivierung der Standortfreigabe, der Wechsel zu einem öffentlichen Profil, die Erlaubnis für andere Nutzer, die eigenen Kontakt- oder Followerlisten einzusehen, die Freigabe von Mediendateien sowie das Hosten eines Live-Streams oder die Teilnahme daran.

(58)  Minderjährige durchlaufen verschiedene Entwicklungsstadien und verfügen in unterschiedlichem Alter über ein unterschiedliches Maß an Reife und Verständnis. Dies wird unter anderem in der Allgemeinen Bemerkung Nr. 25 (2021) des Ausschusses der Vereinten Nationen für die Rechte des Kindes über die Rechte der Kinder im digitalen Umfeld, Rn. 19-21, anerkannt. Eine praktische Tabelle zu Alter und Entwicklungsstadien ist u. a. als Anhang zum niederländischen Kodex der Rechte des Kindes verfügbar; abrufbar unter: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf.

(59)  Die Kommission weist darauf hin, dass die Richtlinie 2005/29/EG unlautere Geschäftspraktiken verbietet, darunter die in ihrem Anhang I Nummer 7 angeführte falsche Behauptung, dass das Produkt nur eine sehr begrenzte Zeit oder nur eine sehr begrenzte Zeit zu bestimmten Bedingungen verfügbar sein werde, um so den Verbraucher zu einer sofortigen Entscheidung zu verleiten, sodass er weder Zeit noch Gelegenheit hat, eine informierte Entscheidung zu treffen.

(60)  Die Kommission weist darauf hin, dass Anbieter von KI-Systemen, die für die direkte Interaktion mit natürlichen Personen bestimmt sind, gemäß Artikel 50 Absatz 1 der Verordnung (EU) 2024/1689 (im Folgenden „KI-Verordnung“) sicherstellen müssen, dass diese so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren. Alle aufgrund dieser Empfehlung ergriffenen Maßnahmen sind im Einklang mit den zur Einhaltung von Artikel 50 Absatz 1 der KI-Verordnung ergriffenen Maßnahmen und unbeschadet dieser Maßnahmen zu verstehen, einschließlich ihrer eigenen Aufsichts- und Durchsetzungsregelung.

(61)  Die Kommission weist auf die Leitlinien zu verbotenen Praktiken im Bereich der künstlichen Intelligenz gemäß der Verordnung (EU) 2024/1689 (KI-Verordnung) hin.

(62)  Für die Zwecke dieses Abschnitts weist die Kommission darauf hin, dass Empfehlungssysteme gemäß Artikel 3 Buchstabe s der Verordnung (EU) 2022/2065 Systeme umfassen, die für Inhaltsempfehlungen, Produktempfehlungen, Werbeempfehlungen, Kontaktempfehlungen, die automatische Vervollständigung von Suchanfragen und Ergebnisse eingesetzt werden.

(63)  Munn, L. (2020), Angry by design: Toxic communication and technical architectures, Humanities and Social Sciences Communications, 7(53); abrufbar unter: https://doi.org/10.1057/s41599-020-00550-7; Milli, S. et al. (2025), Engagement, user satisfaction, and the amplification of divisive content on social media, PNAS Nexus, 4(3) pgaf062; abrufbar unter: https://doi.org/10.1093/pnasnexus/pgaf062; Piccardi, T. et al. (2024), Social Media Algorithms Can Shape Affective Polarization via Exposure to Antidemocratic Attitudes and Partisan Animosity; abrufbar unter: https://arxiv.org/abs/2411.14652; Harriger, J. A., Evans, J. L., Thompson, J. K., Tylka, T. L. (2022), The dangers of the rabbit hole: Reflections on social media as a portal into a distorted world of edited bodies and eating disorder risk and the role of algorithms, Body Image, 41, 292-297. abrufbar unter: https://doi.org/10.1016/j.bodyim.2022.03.007; Amnesty International (2023), Driven into darkness: How TikTok’s „For You“ feed encourages self-harm and suicidal ideation; abrufbar unter: https://www.amnesty.org/en/documents/pol40/7350/2023/en/; Hilbert, M., Ahmed, S., Cho, J., Chen, Y. (2024), #BigTech @Minors: Social media algorithms quickly personalize minors’ content, lacking equally quick protection; abrufbar unter: http://dx.doi.org/10.2139/ssrn.4674573; Sala, A., Porcaro, L., Gómez, E. (2024), Social Media Use and adolescents' mental health and well-being: An umbrella review, Computers in Human Behavior Reports, Volume 14, 100404, ISSN 2451-9588: abrufbar unter: https://doi.org/10.1016/j.chbr.2024.100404.

(64)  Die Kommission weist ferner darauf hin, dass sich andere Rechtsvorschriften der Union oder der Mitgliedstaaten auf die Gestaltung und Funktionsweise von Empfehlungssystemen auswirken können, die zum Ziel haben, den Schutz rechtlicher Interessen in ihrem Anwendungsbereich zu gewährleisten und die zu einem hohen Maß an Privatsphäre, Sicherheit und Schutz der Grundrechte im Internet beitragen.

(65)  So sollten beispielsweise die Rückmeldungen von Minderjährigen zu Inhalten, Aktivitäten, Personen, Konten oder Gruppen, die bei ihnen Unbehagen hervorrufen oder die sie mehr bzw. weniger sehen möchten, bei der Festlegung der Rangordnung der Empfehlungssysteme berücksichtigt werden. Hierzu gehören Rückmeldungen wie „Mehr/weniger anzeigen“, „Möchte ich nicht sehen/Interessiert mich nicht“, „Ich möchte keine Inhalte von diesem Konto sehen“, „Das ruft bei mir Unbehagen hervor“, „Ausblenden“, „Das gefällt mir nicht“ oder „Das ist nichts für mich“. Siehe auch Abschnitt 7.1 der vorliegenden Leitlinien über Nutzermeldungen, Rückmeldungen und Beschwerden.

(66)  Beispiele für solche Begriffe finden sich im Wissenspaket zur Bekämpfung des Online-Drogenhandels, das im Rahmen des EU-Internetforums ausgearbeitet wurde und eine Zusammenstellung von mehr als 3 500 Begriffen, Emojis und Jargonausdrücken enthält, die von Drogenhändlern beim Online-Drogenhandel verwendet werden – siehe den Verweis im EU-Fahrplan zur Bekämpfung des Drogenhandels und der organisierten Kriminalität (COM(2023) 641 final).

(67)  Siehe Artikel 27 Absätze 1 und 3 der Verordnung (EU) 2022/2065.

(68)  Ausschuss der Vereinten Nationen für die Rechte des Kindes, Allgemeine Bemerkung Nr. 25, Rn. 112; UNICEF (2019), Discussion paper: Digital marketing and children’s rights; abrufbar unter: https://www.unicef.org/childrightsandbusiness/media/256/file/Discussion-Paper-Digital-Marketing.pdf.

(69)  Dies erschwert es ihnen beispielsweise, zwischen kommerziellen und nichtkommerziellen Inhalten zu unterscheiden, dem Gruppenzwang zum Kauf von In-Game- oder In-App-Inhalten zu widerstehen, die für Minderjährige attraktiv oder sogar notwendig sind, um in einem Spiel voranzukommen, oder den realen Wert von In-App-Währungen zu verstehen oder auch zu begreifen, dass die begehrtesten Inhalte wie Upgrades, Karten und Avatare bei zufälligen In-App- oder In-Game-Käufen seltener als weniger begehrenswerte Inhalte vorhanden sind.

(70)  M. Ganapini, E. Panai (2023), An Audit Framework for Adopting AI-Nudging on Children; abrufbar unter: https://arxiv.org/pdf/2304.14338.

(71)  Die Kommission weist darauf hin, dass die Verordnung (EU) 2022/2065 gemäß ihrem Artikel 2 Absatz 4 die Richtlinie 2010/13/EU, die Unionsvorschriften auf dem Gebiet des Urheberrechts und der verwandten Schutzrechte, die Verordnung (EU) 2021/784, die Verordnung (EU) 2019/1148, die Verordnung (EU) 2019/1150, die Unionsvorschriften auf dem Gebiet des Verbraucherschutzes und der Produktsicherheit (einschließlich der Richtlinie 2005/29/EG), die Unionsvorschriften zum Schutz personenbezogener Daten, die Unionsvorschriften im Bereich der justiziellen Zusammenarbeit in Zivilsachen, die Unionsvorschriften im Bereich der justiziellen Zusammenarbeit in Strafsachen und eine Richtlinie zur Festlegung einheitlicher Regeln für die Bestellung von Vertretern zu Zwecken der Beweiserhebung in Strafverfahren unberührt lässt. Diese Verordnung hat zudem keine Auswirkungen auf die Anwendung der Richtlinie 2000/31/EG. Gemäß Artikel 91 der Verordnung (EU) 2022/2065 ist die Kommission verpflichtet, bis zum 17. November 2025 die Art und Weise wie diese Verordnung Berührungspunkte mit anderen Rechtsakten, insbesondere den oben genannten Rechtsakten, aufweist, zu bewerten und darüber Bericht zu erstatten.

(72)  UNICEF stellt Ressourcen und Leitlinien für Plattformen im Zusammenhang mit dem digitalen Marketing-Ökosystem bereit, darunter UNICEF (2025), Discussion Paper on digital marketing and children’s rights; abrufbar unter: https://www.unicef.org/childrightsandbusiness/workstreams/responsible-technology/digital-marketing.

(73)  Die Kommission weist darauf hin, dass Gewerbetreibende beispielsweise dem Verbot unlauterer Geschäftspraktiken gemäß Artikel 5 Absatz 1 der Richtlinie 2005/29/EG unterliegen und dass es gemäß Anhang I Nummer 28 dieser Richtlinie verboten ist, in eine Werbung eine direkte Aufforderung an Kinder einzubeziehen, die beworbenen Produkte zu kaufen oder ihre Eltern oder andere Erwachsene zu überreden, die beworbenen Produkte für sie zu kaufen. Ein solches Geschäftsverhalten wird unter allen Umständen als unlauter angesehen.

(74)  Laut der Allgemeinen Bemerkung Nr. 25 (2021) über die Rechte der Kinder im digitalen Umfeld des Ausschusses für die Rechte des Kindes ist „bei der Regulierung von Werbung und Marketing, die sich an Kinder richten und ihnen zugänglich sind, das Kindeswohl vorrangig [zu] berücksichtigen. Sponsoring, Produktplatzierungen und alle weiteren in kommerzieller Absicht verbreiteten Inhalte sollen sich klar von allen anderen Inhalten unterscheiden und keine geschlechtsspezifischen oder ethnische Stereotypen perpetuieren“.

(75)  Die Kommission weist darauf hin, dass derartige KI-Systeme verbotene Praktiken gemäß Artikel 5 Absatz 1 Buchstabe b der Verordnung (EU) 2024/1689 darstellen könnten, wenn sie die Vulnerabilität oder Schutzbedürftigkeit von Kindern in einer Weise ausnutzen, die ihnen erheblichen Schaden zufügt oder mit hinreichender Wahrscheinlichkeit zufügen wird. Alle Maßnahmen, die gemäß dieser Empfehlung ergriffen werden, sollten über die Maßnahmen hinausgehen, die ergriffen werden, um die Anwendung dieses Verbots zu verhindern. Die Überwachung und Durchsetzung der Maßnahmen, die ergriffen werden, um Artikel 50 Absatz 1 der Verordnung (EU) 2024/1689 nachzukommen, obliegt weiterhin den gemäß dieser Verordnung zuständigen Behörden.

(76)  Die Kommission weist darauf hin, dass das kommerzielle Element gemäß den Artikeln 6 und 7 der Richtlinie 2005/29/EG deutlich und in angemessener Weise unter Berücksichtigung des Mediums, in dem das Marketing erfolgt, einschließlich Kontext, Platzierung, Zeitpunkt, Dauer, Sprache oder Zielgruppe, offengelegt werden muss. Siehe auch die Leitlinien zur Auslegung und Anwendung der Richtlinie 2005/29/EG.

(77)  Die Kommission weist darauf hin, dass es gemäß Artikel 7 Absatz 2 und Anhang I Nummer 22 der Richtlinie 2005/29/EG verboten ist, fälschlicherweise geltend zu machen oder den Eindruck zu erwecken, dass der Gewerbetreibende nicht für die Zwecke seines Handels, Geschäfts, Gewerbes oder Berufs handelt, oder fälschlicherweise als Verbraucher aufzutreten. Sie weist auch auf die Richtlinie 2010/13/EU hin, die es untersagt, direkte Aufrufe zum Kaufen oder Mieten von Waren oder Dienstleistungen an Minderjährige zu richten, Minderjährige dazu aufzufordern, ihre Eltern oder Dritte zum Kauf der beworbenen Ware oder Dienstleistung zu bewegen, sowie das besondere Vertrauen auszunutzen, das Minderjährige zu Eltern, Lehrern und anderen Vertrauenspersonen haben. Gemäß Erwägungsgrund 10 der Verordnung (EU) 2022/2065 sollte diese Verordnung das Unionsrecht über den Verbraucherschutz, einschließlich der Richtlinie 2005/29/EG über unlautere Geschäftspraktiken im binnenmarktinternen Geschäftsverkehr zwischen Unternehmen und Verbrauchern, unberührt lassen.

(78)  Die Kommission weist ferner darauf hin, dass die Richtlinie 2010/13/EU vorsieht, dass Video-Sharing-Plattformen eine Funktion bieten müssen, mit der erklärt werden kann, dass hochgeladene Inhalte audiovisuelle kommerzielle Kommunikation enthalten.

(79)  Die Kommission weist darauf hin, dass der Begriff „virtuelle Währung“ in der Richtlinie (EU) 2018/843 zur Bekämpfung von Geldwäsche definiert ist.

(80)  Das in dieser Empfehlung angeführte Beispiel lässt eine rechtliche Einstufung oder Definition von Spielwährungen im bestehenden Unionsrecht und dessen Auslegung im Zusammenhang mit den Folgen der Verwendung solcher Instrumente unberührt.

(81)  Die Kommission weist darauf hin, dass es gemäß Anhang I Nummer 20 der Richtlinie 2005/29/EG verboten ist, ein Produkt als „gratis“, „umsonst“, „kostenfrei“ oder Ähnliches zu beschreiben, obwohl der Verbraucher weitere Kosten als die Kosten zu tragen hat, die im Rahmen des Eingehens auf die Geschäftspraktik und für die Abholung oder Lieferung der Ware unvermeidbar sind.

(82)  Gemäß Artikel 25 der Verordnung (EU) 2022/2065. Die Kommission weist darauf hin, dass gemäß Artikel 25 Absatz 2 das Verbot in Artikel 25 Absatz 1 nicht für Praktiken gilt, die unter die Richtlinie 2005/29/EG oder die Verordnung (EU) 2016/679 fallen.

(83)  Die Kommission weist darauf hin, dass gemäß Anhang I Nummer 7 der Richtlinie 2005/29/EG die falsche Behauptung verboten ist, dass das Produkt nur eine sehr begrenzte Zeit oder nur eine sehr begrenzte Zeit zu bestimmten Bedingungen verfügbar sein werde, um so den Verbraucher zu einer sofortigen Entscheidung zu verleiten, sodass er weder Zeit noch Gelegenheit hat, eine informierte Entscheidung zu treffen. Daher unterliegen Gewerbetreibende dem Verbot der Verwendung von Knappheitstechniken.

(84)  Die Kommission weist darauf hin, dass Gewerbetreibende im Falle von Spielen gemäß den Artikeln 8 und 9 der Richtlinie 2005/29/EG weder verhaltensbezogene Verzerrungen ausnutzen noch manipulative Elemente einsetzen sollten, z. B. in Bezug auf den Zeitpunkt von Angeboten innerhalb des Spiels (Angebot von Kleinstgeschäften während kritischer Momente im Spiel) oder die Verwendung visueller und akustischer Effekte, um den Spieler übermäßig unter Druck zu setzen.

(85)  Vertrauenswürdige Hinweisgeber sind Stellen, die über besondere Sachkenntnis und Kompetenz in Bezug auf die Erkennung bestimmter Arten rechtswidriger Inhalte verfügen, und die Meldungen, die von ihnen in ihrem ausgewiesenen Fachgebiet übermittelt werden, müssen von den Anbietern von Online-Plattformen vorrangig behandelt und unverzüglich bearbeitet werden. Der Status des vertrauenswürdigen Hinweisgebers wird vom Koordinator für digitale Dienste des Mitgliedstaats vergeben, in dem die Stelle niedergelassen ist, sofern die Stelle ihre Sachkenntnis, Kompetenz und Unabhängigkeit von Online-Plattformen sowie ihre Sorgfalt, Genauigkeit und Objektivität bei der Übermittlung von Meldungen nachgewiesen hat.

(86)  Die Kommission weist darauf hin, dass derartige KI-Systeme verbotene Praktiken gemäß Artikel 5 Absatz 1 Buchstabe b der Verordnung (EU) 2024/1689 darstellen könnten, wenn sie die Vulnerabilität oder Schutzbedürftigkeit von Kindern in einer Weise ausnutzen, die ihnen erheblichen Schaden zufügt oder mit hinreichender Wahrscheinlichkeit zufügen wird. Alle Maßnahmen, die gemäß dieser Empfehlung ergriffen werden, sollten über die Maßnahmen hinausgehen, die ergriffen werden, um die Anwendung dieses Verbots zu verhindern. Die Überwachung und Durchsetzung der Maßnahmen, die ergriffen werden, um Artikel 50 Absatz 1 der Verordnung (EU) 2024/1689 nachzukommen, obliegt weiterhin den gemäß dieser Verordnung zuständigen Behörden.

(87)  Siehe Artikel 8 der Verordnung (EU) 2022/2065.

(88)  Informationen darüber, wie sich diese Informationen auf die Empfehlungssysteme des Anbieters auswirken sollten, sind Abschnitt 6.5.2 der vorliegenden Leitlinien zu entnehmen.

(89)  Jeder Verweis auf „Beschwerde“ oder „Beschwerden“ im weiteren Verlauf dieses Abschnitts umfasst alle Beschwerden, die sich gegen die Feststellung des Alters eines Nutzers durch den Anbieter richten, sowie alle Beschwerden, die sich gegen die in Artikel 20 der Verordnung (EU) 2022/2065 genannten Entscheidungen richten. Gemäß Artikel 20 der Verordnung (EU) 2022/2065 sind Anbieter von Online-Plattformen verpflichtet, den Nutzern Zugang zu einem wirksamen internen Beschwerdemanagementsystem für Beschwerden gegen vier Arten von Entscheidungen des Anbieters der Online-Plattform zu gewähren. Dabei handelt es sich um a) Entscheidungen, ob die Information entfernt oder der Zugang dazu gesperrt oder die Anzeige der Information beschränkt wird; b) Entscheidungen, ob die Erbringung des Dienstes gegenüber den Nutzern vollständig oder teilweise ausgesetzt oder beendet wird, c) Entscheidungen, ob das Konto des Nutzers ausgesetzt oder geschlossen wird, d) Entscheidungen, ob Geldzahlungen im Zusammenhang mit von den Nutzern bereitgestellten Informationen ausgesetzt oder beendet werden oder die Fähigkeit der Nutzer zu deren Monetarisierung anderweitig eingeschränkt wird.

(90)  Wie beispielsweise zu Diensten, die zu den nationalen Safer-Internet-Zentren, dem INHOPE-Verbund oder anderen nationalen Beratungsdiensten für Kinder gehören, wie https://childhelplineinternational.org/.

(91)  Im Spotlight-Leitfaden von UNICEF zur Einbeziehung von Kindern durch Interessenträger werden konkrete Maßnahmen in Bezug auf verantwortungsvolle Aktivitäten zur Beteiligung von Kindern vorgeschlagen. UNICEF (2025), Spotlight guidance on best practices for stakeholder engagement with children in D-CRIAs; abrufbar unter: https://www.unicef.org/childrightsandbusiness/media/1541/file/D-CRIA-Spotlight-Guidance-Stakeholder-Engagement.pdf.

(92)  Dieser Ansatz steht im Einklang mit der Strategie für ein besseres Internet für Kinder (BIK+), in der die Bedeutung der Sensibilisierung und Aufklärung für die Förderung der Online-Sicherheit hervorgehoben wird und die die Umsetzung der Verordnung (EU) 2022/2065 in dieser Hinsicht unterstützt. Darüber hinaus belegen die in den einzelnen Mitgliedstaaten eingerichteten Safer-Internet-Zentren den Stellenwert von Sensibilisierungsmaßnahmen bei der Prävention von und Reaktion auf Schäden und Risiken im Online-Umfeld.

(93)  Diese Schulungen könnten sich beispielsweise auf die Rechte des Kindes, auf die Risiken und Schäden im Hinblick auf die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen im Internet sowie auf wirksame Präventions-, Reaktions- und Minderungsverfahren erstrecken.

(94)  An Coimisiún um chosaint Sonraí (2021), Fundamentals for a child-oriented approach to data processing; abrufbar unter: https://www.dataprotection.ie/sites/default/files/uploads/2021-12/Fundamentals%20for%20a%20Child-Oriented%20Approach%20to%20Data%20Processing_FINAL_EN.pdf; Coimisiún na Meán (2024), Online safety code; abrufbar unter: https://www.cnam.ie/app/uploads/2024/11/Coimisiun-na-Mean-Online-Safety-Code.pdf; IMY (schwedische Datenschutzbehörde) (2021), The rights of children and young people on digital platforms; abrufbar unter: https://www.imy.se/en/publications/the-rights-of-children-and-young-people-on-digital-platforms/; Niederländisches Ministerium für Inneres und Königreichsbeziehungen (2022), Kodex der Rechte des Kindes; abrufbar unter: https://codevoorkinderrechten.waag.org/wp-content/uploads/2022/02/Code-voor-Kinderrechten-EN.pdf; CNIL (2021), CNIL publishes 8 recommendations to enhance protection of children online; abrufbar unter: https://www.cnil.fr/en/cnil-publishes-8-recommendations-enhance-protection-children-online; Unabhängiger Beauftragter für Fragen des sexuellen Kindesmissbrauchs (ohne Jahresangabe), Rechtsfragen Digitales; abrufbar unter: https://beauftragte-missbrauch.de/themen/recht/rechtsfragen-digitales.

(95)  CEN-CENELEC (2023), Workshop Agreement 18016 – Age Appropriate Digital Services Framework ; OECD (2021), Children in the digital environment - Revised typology of risks; https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.

(96)  Der Standard P2089.2™ für allgemeine Geschäftsbedingungen für das Online-Engagement von Kindern enthält Verfahren und Praktiken zur Ausarbeitung von allgemeinen Geschäftsbedingungen, die dazu beitragen, die Rechte von Kindern in digitalen Bereichen zu schützen.

(97)  Die Kommission verweist ferner auf die in Artikel 28b der Richtlinie 2010/13/EU festgelegten Anforderungen an Video-Sharing-Plattform-Anbieter in Bezug auf den Schutz Minderjähriger vor Sendungen, nutzergenerierten Videos und audiovisueller kommerzieller Kommunikation, die ihre körperliche, geistige oder sittliche Entwicklung beeinträchtigen können. Diese Anforderungen sind bis zum 19. Dezember 2026 zu bewerten und gegebenenfalls zu überarbeiten.

(98)  Wie in der Einleitung dieser Leitlinien dargelegt, werden Anbietern sehr großer Online-Plattformen durch bestimmte Bestimmungen der Verordnung (EU) 2022/2065, einschließlich Artikel 14 Absätze 5 und 6, zusätzliche Verpflichtungen auferlegt. Soweit sich die darin enthaltenen Verpflichtungen auch auf die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen im Sinne von Artikel 28 Absatz 1 beziehen, bauen die vorliegenden Leitlinien auf diesen Bestimmungen auf.

(99)  Beispielsweise durch ihre Veröffentlichung in der Datenbank der allgemeinen Geschäftsbedingungen von digitalen Diensten: https://platform-contracts.digital-strategy.ec.europa.eu/.

(100)  Wie im Anwendungsbereich dieser Leitlinien (Abschnitt 2) dargelegt, werden Anbietern sehr großer Online-Plattformen und sehr großer Suchmaschinen durch bestimmte Bestimmungen der Verordnung (EU) 2022/2065, einschließlich Kapitel III Abschnitt 5, zusätzliche Verpflichtungen auferlegt. Soweit sich die darin enthaltenen Verpflichtungen auch auf die Privatsphäre, die Sicherheit und den Schutz von Minderjährigen im Sinne von Artikel 28 Absatz 1 beziehen, bauen die vorliegenden Leitlinien auf diesen Bestimmungen auf, und Anbieter von sehr großen Online-Plattformen sollten nicht davon ausgehen, dass die teilweise oder vollständige Umsetzung der in diesen Leitlinien beschriebenen Maßnahmen ausreicht, um die Einhaltung ihrer Verpflichtungen gemäß Kapitel III Abschnitt 5 der Verordnung (EU) 2022/2065 sicherzustellen.


ANHANG

5C-Typologie der Online-Risiken für Kinder

1.   

Die OECD (1) und Forschende (2) haben die Risiken (3) klassifiziert, denen Minderjährige im Internet ausgesetzt sein können, damit Anbieter von Online-Plattformen, die für Minderjährige zugänglich sind, Wissenschaftler und politische Entscheidungsträger, diese besser verstehen und analysieren können. Diese Klassifizierung der Risiken wird als 5C-Typologie der Online-Risiken für Kinder bezeichnet. Sie hilft bei der Ermittlung von Risiken und umfasst fünf Risikokategorien: Inhaltsrisiken (content), Verhaltensrisiken (conduct), Kontaktrisiken (contact), Verbraucherrisiken (consumer) und Querschnittsrisiken (cross cutting risks). Diese Risiken können auftreten, wenn keine geeigneten und verhältnismäßigen Maßnahmen getroffen werden, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen innerhalb des Dienstes zu sorgen, was zu einer Verletzung einer Reihe von Rechten des Kindes führen könnte.

2.   

5C-Typologie der Online-Risiken für Kinder (4)

Risiken für Kinder im digitalen Umfeld

Risikokategorien

Content (Inhalt)

Conduct (Verhalten)

Contact (Kontakt)

Consumer (Verbraucher)

Querschnittsrisiken

Zusätzliche Risiken für Privatsphäre, Sicherheit und Schutz

Risiken fortgeschrittener Technologien

Risiken für Gesundheit und Wohlergehen

Missbrauchsrisiken

Risikomanifestation

Hasserfüllte Inhalte

Hasserfülltes Verhalten

Hasserfüllte Begegnungen

Marketing-Risiken

Schädliche Inhalte

Schädliches Verhalten

Schädliche Begegnungen

Risiken kommerziellen Profilings

Rechtswidrige Inhalte

Rechtswidriges Verhalten

Rechtswidrige Begegnungen

Finanzielle Risiken

Desinformation

Nutzergeneriertes problematisches Verhalten

Andere problematische Begegnungen

Sicherheitsrisiken

3.   

Inhaltsrisiken: Minderjährige können unerwartet und unbeabsichtigt Inhalten ausgesetzt werden, die ihnen potenziell schaden: a) hasserfüllte Inhalte, b) schädliche Inhalte, c) rechtswidrige Inhalte und d) Desinformation. Es wird allgemein davon ausgegangen, dass diese Arten von Inhalten schwerwiegende negative Auswirkungen auf die psychische Gesundheit und das körperliche Wohlbefinden von Minderjährigen haben, z. B. Inhalte, die Selbstverletzung, Selbstmord, Essstörungen oder extreme Gewalt propagieren.

4.   

Verhaltensrisiken: Sie betreffen Verhaltensweisen, die Minderjährige im Internet aktiv an den Tag legen können und die Risiken sowohl für sie selbst als auch für andere bergen können, wie z. B. a) hasserfülltes Verhalten (z. B. Posten/Versenden von hasserfüllten Inhalten/Nachrichten durch Minderjährige), b) schädliches Verhalten (z. B. Posten/Versenden von gewalttätigen oder pornografischen Inhalten durch Minderjährige), c) rechtswidriges Verhalten (z. B. Posten/Versenden von Darstellungen sexuellen Missbrauchs von Kindern oder terroristischen Inhalten durch Minderjährige) und d) nutzergeneriertes problematisches Verhalten (z. B. Teilnahme an gefährlichen Herausforderungen; Sexting).

5.   

Kontaktrisiken: Sie betreffen Situationen, in denen Minderjährige Opfer der Interaktionen sind und nicht die Täter: a) hasserfüllte Begegnungen, b) schädliche Begegnungen (z. B. wenn die Begegnung in der Absicht stattfindet, dem Minderjährigen zu schaden), c) rechtswidrige Begegnungen (z. B. Begegnungen, die strafrechtlich verfolgt werden können) und d) sonstige problematische Begegnungen. Beispiele für Kontaktrisiken sind unter anderem Online-Grooming, sexuelle Nötigung und Erpressung im Internet, sexueller Missbrauch via Webcam, Cybermobbing und Menschenhandel zum Zweck der sexuellen Ausbeutung. Diese Risiken erstrecken sich auch auf Online-Betrugspraktiken wie Phishing, Marktplatzbetrug und Identitätsdiebstahl.

6.   

Verbraucherrisiken: Minderjährige können auch in ihrer Eigenschaft als Verbraucher in der digitalen Wirtschaft Risiken ausgesetzt sein: a) Marketing-Risiken (z. B. Lootboxen, Werbespiele), b) Risiken kommerziellen Profilings (z. B. Produktplatzierung oder Zusendung von Werbung für Erwachsene wie für Dating-Dienste), c) finanzielle Risiken (z. B. Betrug oder die Ausgabe großer Geldbeträge ohne Wissen oder Zustimmung der Erziehungsberechtigten), d) Sicherheitsrisiken und e) Risiken im Zusammenhang mit dem Kauf und Konsum von Drogen, Arzneimitteln, Alkohol und anderen illegalen oder gefährlichen Produkten. Zu den Verbraucherrisiken gehören auch Risiken im Zusammenhang mit Verträgen, z. B. der Verkauf von Nutzerdaten oder missbräuchliche allgemeine Geschäftsbedingungen.

7.   

Querschnittsrisiken: Dabei handelt es sich um Risiken, die sich über alle Risikokategorien erstrecken und als äußerst problematisch angesehen werden, da sie das Leben von Minderjährigen auf vielfältige Weise erheblich beeinträchtigen können. Dies sind:

a)

Risiken fortgeschrittener Technologien, die sich daraus ergeben, dass Minderjährige im Zuge der technologischen Entwicklung auf neue Gefahren treffen, wie z. B. KI-Chatbots, die möglicherweise schädliche Informationen bereitstellen oder durch Ausnutzung von Vulnerabilitäten zum Grooming missbraucht werden können, oder der Einsatz biometrischer Technologien, die zu Missbrauch, Identitätsbetrug und Ausgrenzung führen können.

b)

Risiken für Gesundheit und Wohlergehen, die zu potenziellen Schäden für das geistige, emotionale oder körperliche Wohlbefinden von Minderjährigen führen können. So steht beispielsweise die Zunahme von Fettleibigkeit/Magersucht und psychischen Problemen im Zusammenhang mit der Nutzung bzw. übermäßigen Nutzung von Online-Plattformen, die in manchen Fällen negative Auswirkungen auf die körperliche und geistige Gesundheit und das Wohlbefinden von Minderjährigen haben können, wie etwa Sucht, Depression, Angststörungen, gestörte Schlafmuster und soziale Isolation.

c)

Zusätzliche Risiken für die Privatsphäre und den Datenschutz, die sich aus dem Zugang zu Informationen über Minderjährige und dem Gefahrenpotenzial von Geolokalisierungsfunktionen ergeben, die Täter nutzen könnten, um Minderjährige zu orten und sich ihnen anzunähern.

8.   

Weitere Querschnittsrisiken (5) können außerdem Folgendes umfassen:

a)

Zusätzliche Risiken für Sicherheit und Schutz betreffen die Sicherheit von Minderjährigen, insbesondere die physische Sicherheit, sowie alle Aspekte der Cybersicherheit.

b)

Missbrauchsrisiken beziehen sich auf Risiken oder Schäden für Minderjährige, die sich aus dem Missbrauch der Online-Plattform oder ihrer Funktionen ergeben.


(1)  OECD (2021), Children in the digital environment – Revised typology of risks; https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.

(2)  Livingstone, S., Stoilova, M. (2021), The 4Cs: Classifying Online Risk to Children, (CO:RE Short Report Series on Key Topics); Hamburg: Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI); CO:RE — Children Online: Research and Evidence, https://doi.org/10.21241/ssoar.71817.

(3)  Siehe auch die Risikoanalyse der Bundeszentrale für Kinder- und Jugendmedienschutz (BZKJ) (2022), Gefährdungsatlas. Digitales Aufwachsen. Vom Kind aus denken. Zukunftssicher handeln. Aktualisierte und erweiterte 2. Auflage — Bundeszentrale für Kinder- und Jugendmedienschutz; abrufbar unter: https://www.bzkj.de/resource/blob/197826/5e88ec66e545bcb196b7bf81fc6dd9e3/2-auflage-gefaehrdungsatlas-data.pdf.

(4)  OECD (2021), Children in the digital environment — Revised typology of risks, S. 7; https://www.oecd.org/en/publications/children-in-the-digital-environment_9b8f222e-en.html.

(5)  Livingstone, S., Stoilova, M. (2021), The 4Cs: Classifying Online Risk to Children, (CO:RE Short Report Series on Key Topics); Hamburg: Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI); CO:RE — Children Online: Research and Evidence, https://doi.org/10.21241/ssoar.71817.


ELI: http://data.europa.eu/eli/C/2025/5519/oj

ISSN 1977-088X (electronic edition)