EUR-Lex Access to European Union law

Back to EUR-Lex homepage

This document is an excerpt from the EUR-Lex website

Document 52020IP0273

Entschließung des Europäischen Parlaments vom 20. Oktober 2020 mit Empfehlungen an die Kommission zum Gesetz über digitale Dienste: Anpassung der handels- und zivilrechtlichen Vorschriften für online tätige Unternehmen (2020/2019(INL))

OJ C 404, 6.10.2021, p. 31–52 (BG, ES, CS, DA, DE, ET, EL, EN, FR, HR, IT, LV, LT, HU, MT, NL, PL, PT, RO, SK, SL, FI, SV)

6.10.2021   

DE

Amtsblatt der Europäischen Union

C 404/31


P9_TA(2020)0273

Gesetz über digitale Dienste: Anpassung der handels- und zivilrechtlichen Vorschriften für online tätige Unternehmen

Entschließung des Europäischen Parlaments vom 20. Oktober 2020 mit Empfehlungen an die Kommission zum Gesetz über digitale Dienste: Anpassung der handels- und zivilrechtlichen Vorschriften für online tätige Unternehmen (2020/2019(INL))

(2021/C 404/02)

Das Europäische Parlament,

gestützt auf Artikel 225 des Vertrags über die Arbeitsweise der Europäischen Union,

unter Hinweis auf Artikel 11 der Charta der Grundrechte der Europäischen Union und Artikel 10 der Europäischen Menschenrechtskonvention,

unter Hinweis auf die Verordnung (EU) 2019/1150 des Europäischen Parlaments und des Rates vom 20. Juni 2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten (1),

unter Hinweis auf die Richtlinie (EU) 2019/790 des Europäischen Parlaments und des Rates vom 17. April 2019 über das Urheberrecht und die verwandten Schutzrechte im digitalen Binnenmarkt und zur Änderung der Richtlinien 96/9/EG und 2001/29/EG (2),

unter Hinweis auf die Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung) (3), (im Folgenden Datenschutz-Grundverordnung),

unter Hinweis auf die Richtlinie 2010/13/EU des Europäischen Parlaments und des Rates vom 10. März 2010 zur Koordinierung bestimmter Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Bereitstellung audiovisueller Mediendienste (Richtlinie über audiovisuelle Mediendienste) (4),

unter Hinweis auf die Richtlinie 2008/52/EG des Europäischen Parlaments und des Rates vom 21. Mai 2008 über bestimmte Aspekte der Mediation in Zivil- und Handelssachen (5),

unter Hinweis auf den Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates vom 6. Juni 2018 zur Aufstellung des Programms „Digitales Europa“ für den Zeitraum 2021–2027 (COM(2018)0434),

unter Hinweis auf die Empfehlung (EU) 2018/334 der Kommission vom 1. März 2018 für wirksame Maßnahmen im Umgang mit illegalen Online-Inhalten (6),

unter Hinweis auf das Übereinkommen über die gerichtliche Zuständigkeit und die Anerkennung und Vollstreckung von Entscheidungen in Zivil- und Handelssachen (7) und das am 10. Juni 1958 in New York unterzeichnete Übereinkommen über die Anerkennung und Vollstreckung ausländischer Schiedssprüche,

unter Hinweis auf seine Entschließung vom 3. Oktober 2018 zum Thema „Dezentrale Transaktionsnetzwerke und Blockkettensysteme: mehr Vertrauen durch verringerte Kreditmittlertätigkeit“ (8),

unter Hinweis auf die Mitteilung der Kommission vom 19. Februar 2020 an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen mit dem Titel „Eine europäische Datenstrategie“ (COM(2020)0066),

unter Hinweis auf die Mitteilung der Kommission vom 19. Februar 2020 an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen mit dem Titel „Gestaltung der digitalen Zukunft Europas“ (COM(2020)0067),

unter Hinweis auf die Mitteilung der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen vom 25. Mai 2016 über Online-Plattformen im digitalen Binnenmarkt — Chancen und Herausforderungen für Europa (COM(2016)0288),

unter Hinweis auf die vom Wissenschaftlichen Dienst des Europäischen Parlaments (EPRS) durchgeführte Studie zur Bewertung des europäischen Mehrwerts mit dem Titel „‚Gesetz über digitale Dienste‘: Bewertung des Europäischen Mehrwerts“ (9),

gestützt auf die Artikel 47 und 54 seiner Geschäftsordnung,

unter Hinweis auf die Stellungnahmen des Ausschusses für Binnenmarkt und Verbraucherschutz und des Ausschusses für Kultur und Bildung,

unter Hinweis auf den Bericht des Rechtsausschusses (A9-0177/2020),

A.

in der Erwägung, dass digitale Dienstleistungen als Eckpfeiler der Wirtschaft der Union und als Existenzgrundlage zahlreicher Unionsbürger so reguliert werden müssen, dass die Grundrechte und anderer Bürgerrechte geachtet werden, wobei die Entwicklung und der wirtschaftliche Fortschritt zu unterstützen sind, das Vertrauen im Internet zu fördern ist und die Interessen der Nutzer und aller Marktteilnehmer, insbesondere von Kleinunternehmen, KMU und Start-up-Unternehmen, zu berücksichtigen sind;

B.

in der Erwägung, dass einige Vorschriften über Anbieter von Online-Inhalten und audiovisuelle Mediendienste kürzlich aktualisiert wurden, insbesondere durch die Richtlinie (EU) 2018/1808 und die Richtlinie (EU) 2019/790, dass eine Reihe zentraler zivil- und handelsrechtlicher Aspekte weder im Unionsrecht noch im nationalen Recht zufriedenstellend behandelt wurden, und in der Erwägung, dass die Bedeutung dieses Themas durch die rasche und beschleunigte Entwicklung im Bereich der digitalen Dienste in den letzten Jahrzehnten, insbesondere durch die Entstehung neuer Geschäftsmodelle, Technologien und gesellschaftlicher Gegebenheiten, noch verstärkt wurde; in der Erwägung, dass wichtige zivil- und handelsrechtliche Aspekte, die für im Bereich der digitalen Dienste online tätige Unternehmen gelten, in diesem Zusammenhang umfassend aktualisiert werden müssen;

C.

in der Erwägung, dass einige Unternehmen, die digitale Dienste anbieten, aufgrund starker datengesteuerter Netzeffekte eine beträchtliche Marktmacht genießen und Nutzern ihre Geschäftspraktiken diktieren — ein Aspekt, der es für andere Akteure, insbesondere Start-up-Unternehmen und KMU, immer schwieriger macht, im Wettbewerb zu bestehen oder gar als neues Unternehmen in den Markt einzutreten;

D.

in der Erwägung, dass mit der nachträglichen Durchsetzung des Wettbewerbsrechts allein nicht wirksam gegen die Auswirkungen, auch auf den fairen Wettbewerb im digitalen Binnenmarkt, vorgegangen werden kann, die durch die Marktmacht bestimmter Online-Plattformen verursacht werden;

E.

in der Erwägung, dass die Hosting-Plattformen für Inhalte eine Entwicklung durchlaufen haben und nicht mehr nur Inhalte anzeigen, sondern nunmehr hochentwickelte Organismen und Marktteilnehmer sind, was insbesondere für soziale Netzwerke, die Nutzungsdaten sammeln und verwerten, gilt; in der Erwägung, dass die Nutzer berechtigterweise faire Bedingungen hinsichtlich des Zugangs, der Transparenz, der Preisgestaltung und der Streitbeilegung mit Blick auf die Nutzung solcher Plattformen und die Nutzung der Nutzerdaten durch die Plattformen erwarten; in der Erwägung, dass Transparenz dazu beitragen kann, das Vertrauen in digitale Dienste erheblich zu stärken;

F.

in der Erwägung, dass Hosting-Plattformen für Inhalte bestimmen können, welche Inhalte ihren Nutzern gezeigt werden, und dadurch die Art und Weise, wie Informationen erhalten werden und wie kommuniziert wird, in dem Maße beeinflusst haben, dass diese Plattformen de facto zu öffentlichen Räumen in der digitalen Welt geworden sind; in der Erwägung, dass bei der Verwaltung des öffentlichen Raums, das öffentliche Interesse geschützt werden muss und die Grundrechte und die Rechte der Nutzer aus dem Zivilrecht, insbesondere das Recht auf Freiheit der Meinungsäußerung und Informationsfreiheit, geachtet werden müssen;

G.

in der Erwägung, dass die Wahrung des Rechts in der digitalen Welt nicht nur eine wirksame Durchsetzung der Grundrechte voraussetzt‚ insbesondere der Freiheit der Meinungsäußerung und Informationsfreiheit, der Privatsphäre, der Sicherheit und Gefahrenabwehr, der Nichtdiskriminierung, der Achtung des Eigentums und der Rechte des geistigen Eigentums, sondern auch den Zugang zur Justiz und ordnungsgemäße Gerichtsverfahren; in der Erwägung, dass die Transparenz und ordnungsgemäße Gerichtverfahren beeinträchtigt werden, wenn Entscheidungen über die Rechtmäßigkeit von Inhalten oder Strafverfolgungsbefugnisse auf private Unternehmen übertragen werden, was zu einem fragmentierten Ansatz führen würde; in der Erwägung, dass daher ein beschleunigtes Gerichtsverfahren mit angemessenen Garantien erforderlich ist, damit es wirksame Rechtsbehelfe gibt;

H.

in der Erwägung, dass automatisierte Tools derzeit nicht in der Lage sind, rechtswidrige Inhalte von Inhalten zu unterscheiden, die in einem bestimmten Kontext rechtmäßig sind, und dass daher Verfahren für die automatische Erkennung und Entfernung von Inhalten berechtigterweise rechtliche Bedenken aufwerfen können, insbesondere im Hinblick auf mögliche Einschränkungen der Freiheit der Meinungsäußerung und der Informationsfreiheit, die gemäß Artikel 11 der Charta der Grundrechte der Europäischen Union geschützt sind; in der Erwägung, dass der Einsatz automatisierter Verfahren daher von Verhältnismäßigkeit geprägt sein sollte, wobei nur begründete Fälle erfasst werden und transparente Verfahren Anwendung finden sollten;

I.

in der Erwägung, dass mit Artikel 11 der Charta der Grundrechte der Europäischen Union auch die Freiheit und Pluralität der Medien geschützt werden, die zunehmend auf Online-Plattformen angewiesen sind, um ihr Publikum zu erreichen;

J.

in der Erwägung, dass die meisten Europäer täglich digitale Dienste nutzen, diese aber in der gesamten Union immer mehr Regeln unterworfen sind, was zu einer erheblichen Fragmentierung des Marktes und damit zu Rechtsunsicherheit bei den Nutzern in Europa und den grenzüberschreitend angebotenen Diensten führt; in der Erwägung, dass zivilrechtliche Regelungen, die die Verfahren von Hosting-Plattformen bei der Moderation von Inhalten bestimmen, auf speziellen branchenspezifischen Bestimmungen auf der Ebene der Union und der Mitgliedstaaten beruhen, wobei es erhebliche Unterschiede bei den auferlegten Pflichten und bei den eingesetzten Durchsetzungsverfahren der verschiedenen geltenden zivilrechtlichen Regelungen gibt; in der Erwägung, dass diese Situation zu fragmentierten Regeln für den digitalen Binnenmarkt geführt hat, das eine Reaktion auf der Ebene der Union erfordert;

K.

in der Erwägung, dass das derzeitige Geschäftsmodell bestimmter Hosting-Plattformen für Inhalte darin besteht, Inhalte zu fördern, die die Aufmerksamkeit der Nutzer wecken und daher mehr Profilerstellungsdaten generieren, um effektivere und gezielte Werbung anbieten zu können und damit die Gewinne zu steigern; in der Erwägung, dass diese Profilerstellung in Verbindung mit gezielter Werbung zu einer Hervorhebung von Inhalten führt, die Emotionen ansprechen, was häufig die Sensationslust in Nachrichten-Feeds und Empfehlungssystemen ankurbelt und begünstigt und zur Manipulation der Nutzer führen kann;

L.

in der Erwägung, dass das Angebot kontextbezogener Werbung für Nutzer weniger Nutzerdaten erfordert als gezielte verhaltensorientierte Werbung und daher in geringerem Maße in die Privatsphäre eingreift;

M.

in der Erwägung, dass die Wahl einer Algorithmenlogik, die hinter Empfehlungssystemen, Vergleichsdiensten, dem Kuratieren von Inhalten bzw. Werbeplatzierungen steht, nach wie vor im Ermessen der Hosting-Plattformen für Inhalte liegt, wobei eine öffentliche Aufsicht kaum möglich ist, was Bedenken hinsichtlich der Rechenschaft und der Transparenz aufwirft;

N.

in der Erwägung, dass Hosting-Plattformen für Inhalte mit beträchtlicher Marktmacht ihren Nutzern die Möglichkeit bieten, sich mit ihrem Profil auf den Websites Dritter anzumelden, wodurch sie ihre Tätigkeiten auch außerhalb ihrer eigenen Plattformumgebung verfolgen können, was einen Wettbewerbsvorteil beim Zugang zu Daten für Algorithmen, die für das Kuratieren von Inhalten genutzt werden, darstellt;

O.

in der Erwägung, dass in einer Reihe von Bereichen sogenannte intelligente Verträge (Smart Contracts) ohne einen geeigneten Rechtsrahmen genutzt werden, wobei diese Verträge auf dezentralen Transaktionsnetzwerken (Distributed-Ledger-Technologien), darunter Blockchains, beruhen, die dezentralisierte und vollständig rückverfolgbare Aufzeichnungen und eine Selbstauszuführung ermöglichen; in der Erwägung, dass Unsicherheit hinsichtlich der Rechtmäßigkeit solcher Verträge und ihrer Durchsetzbarkeit bei grenzüberschreitenden Sachverhalten besteht;

P.

in der Erwägung, dass in den nicht verhandelbaren allgemeinen Geschäftsbedingungen von Plattformen häufig sowohl das geltende Recht als auch die zuständigen Gerichte eines Landes außerhalb der Union genannt werden, was den Zugang zur Justiz behindern kann; in der Erwägung, dass mit der Verordnung (EU) Nr. 1215/2012 des Europäischen Parlaments und des Rates vom 12. Dezember 2012 über die gerichtliche Zuständigkeit und die Anerkennung und Vollstreckung von Entscheidungen in Zivil- und Handelssachen (10) Vorschriften über die gerichtliche Zuständigkeit festgelegt werden; in der Erwägung, dass in der Datenschutz-Grundverordnung das Recht der betroffenen Person auf private Durchsetzungsmaßnahmen präzisiert wird, die sich direkt gegen den Verantwortlichen oder den Auftragsverarbeiter richten, unabhängig davon, ob die Verarbeitung in der Union stattfindet und der Verantwortliche in der Union niedergelassen ist; in der Erwägung, dass gemäß Artikel 79 der Datenschutz-Grundverordnung die Gerichte des Mitgliedstaats angerufen werden, in dem der Verantwortliche oder der Auftragsverarbeiter eine Niederlassung hat oder in dem die betroffene Person ihren gewöhnlichen Aufenthalt hat;

Q.

in der Erwägung, dass der Zugang zu nicht personenbezogenen Daten und deren Auswertung ein wichtiger Faktor für das Wachstum der digitalen Wirtschaft ist; in der Erwägung, dass geeignete Rechtsnormen und Datenschutzvorkehrungen mit Blick auf die Interoperabilität der Daten durch die Beseitigung von Lock-in-Effekten eine wichtige Aufgabe bei der Sicherstellung fairer Marktbedingungen übernehmen können;

R.

in der Erwägung, dass die Möglichkeit geprüft werden muss, ob eine europäische Einrichtung beauftragt werden kann, für ein harmonisiertes Konzept für die Umsetzung des Gesetzes über digitale Dienste in der gesamten Union zu sorgen, die Koordinierung auf nationaler Ebene zu erleichtern und die neuen Chancen und Herausforderungen, insbesondere solche grenzübergreifender Art, anzugehen, die sich aus den kontinuierlichen technologischen Entwicklungen ergeben;

Gesetz über digitale Dienste

1.

fordert die Kommission auf, unverzüglich eine Reihe von Gesetzgebungsvorschlägen vorzulegen, die das Gesetz über digitale Dienste bilden und einen angemessenen sachlichen, persönlichen und räumlichen Geltungsbereich aufweisen, Begriffsbestimmungen zu Kernkonzepten enthalten sowie die als Anhang zu dieser Entschließung beigefügten Empfehlungen umfassen; ist der Auffassung, dass unbeschadet detaillierter Aspekte künftiger Gesetzgebungsvorschläge Artikel 114 des Vertrags über die Arbeitsweise der Europäischen Union als Rechtsgrundlage dienen sollte;

2.

schlägt vor, dass das Gesetz über digitale Dienste auch eine Verordnung umfasst, mit der vertragliche Rechte in Bezug auf die Verwaltung von Inhalten sowie transparente, faire, verbindliche und einheitliche Normen und Verfahren für die Moderation von Inhalten festgelegt werden und ein zugänglicher und unabhängiger Rechtsbehelf garantiert wird; betont, dass sich Gesetzgebungsvorschläge auf Erkenntnisse stützen und darauf abzielen sollten, bestehende Hindernisse bei der Bereitstellung digitaler Dienste durch Online-Plattformen zu beseitigen und potenziellen neuen ungerechtfertigten Hindernisse vorzubeugen, wobei zugleich der Schutz der Verbraucher und der Bürger zu verbessern ist; ist der Ansicht, dass die Gesetzgebungsvorschläge darauf ausgerichtet sein sollten, dass nachhaltiges und intelligentes Wachstum erreicht wird, technologische Herausforderungen bewältigt werden und sichergestellt wird, dass der digitale Binnenmarkt für alle fair und sicher ist;

3.

schlägt ferner vor, dass die vorgeschlagenen Maßnahmen für die Moderation von Inhalten nur für illegale Inhalte gelten und nicht für Inhalte, die lediglich schädlich sind; regt zu diesem Zweck an, in die Verordnung allgemeine Kriterien zur Bestimmung der Marktmacht von Plattformen aufzunehmen, um klar zu definieren, was eine Plattform mit beträchtlicher Marktmacht ausmacht, und somit zu festzulegen, ob bestimmte Hosting-Plattformen für Inhalte, die keine beträchtliche Marktmacht besitzen, von bestimmten Bestimmungen ausgenommen werden können; betont, dass der Rahmen, der durch das Gesetz über digitale Dienste geschaffen wird, für kleine Unternehmen, KMU und Start-up-Unternehmen handhabbar sein und daher für alle Branchen von Verhältnismäßigkeit geprägte Pflichten enthalten sollte;

4.

schlägt vor, dass mit dem Gesetz über digitale Dienste die Anbieter digitaler Dienste, die außerhalb der Union niedergelassen sind, verpflichtet werden, einen gesetzlichen Vertreter für die Interessen der Nutzer in der Union zu benennen, an den Anfragen gerichtet werden könnten, um etwa im Falle falscher oder irreführender Werbung für Abhilfe zugunsten der Verbraucher zu sorgen, und die Kontaktdaten dieses Vertreters auf der Website des Anbieters digitaler Dienste zu veröffentlichen und zugänglich zu machen;

Rechte in Bezug auf die Moderation von Inhalten

5.

betont, dass die Verantwortung für die Durchsetzung des Gesetzes bei den Behörden liegen muss; ist der Ansicht, dass die endgültige Entscheidung über die Rechtmäßigkeit von nutzergenerierten Inhalten von einer unabhängigen Justiz getroffen werden muss und nicht von einer privatwirtschaftlichen Einrichtung;

6.

besteht darauf, dass mit der Verordnung Praktiken bei der Moderation von Inhalten verboten werden, die diskriminierend sind oder Ausbeutung und Ausschluss nach sich ziehen, insbesondere, wenn sie sich gegen die schutzbedürftigsten Personen richten, und dass die Grundrechte und -freiheiten der Nutzer und insbesondere ihre Meinungsfreiheit stets geachtet werden müssen;

7.

betont, dass die Verbraucher besser geschützt werden müssen, indem ihnen zuverlässige und transparente Informationen über Beispiele für missbräuchliches Verhalten, wie irreführende Behauptungen und Betrügereien, bereitgestellt werden;

8.

empfiehlt, dass eine europäische Einrichtung die Anwendung der Verordnung genau überwacht und damit beauftragt wird, dafür zu sorgen, dass die Hosting-Plattformen für Inhalte die Bestimmungen der Verordnung befolgen, insbesondere durch die Überwachung der Einhaltung der für die Verwaltung von Inhalten festgelegten Normen, wozu Transparenzberichte und die Überwachung von Algorithmen, die von Hosting-Plattformen für Inhalte zum Zwecke der Verwaltung von Inhalten verwendet werden, genutzt werden; fordert die Kommission auf, die Möglichkeiten der Benennung einer bestehenden oder neuen europäischen Agentur oder europäischen Stelle oder die eigene Koordinierung eines Netzes nationaler Behörden zur Wahrnehmung dieser Aufgaben zu prüfen (im Folgenden „europäische Einrichtung“);

9.

schlägt vor, dass Hosting-Plattformen für Inhalte der europäischen Einrichtung regelmäßig umfassende Transparenzberichte vorlegen, die auf einer einheitlichen Methodik beruhen und auf der Grundlage einschlägiger Leistungsindikatoren bewertet werden, was auch ihre inhaltlichen Strategien und die Übereinstimmung ihrer Geschäftsbedingungen mit den Bestimmungen des Gesetzes über digitale Dienste umfasst; schlägt ferner vor, dass die Hosting-Plattformen für Inhalte diese Berichte und ihre Strategien für den Umgang mit Inhalten in einer leichten und zugänglichen Form veröffentlichen und in einer öffentlich zugänglichen Datenbank zur Verfügung stellen;

10.

fordert, dass die Hosting-Plattformen für Inhalte das Risiko bewerten, das ihre Strategien für den Umgang mit Inhalten für die Gesellschaft darstellen, insbesondere im Hinblick auf ihre Auswirkungen auf die Grundrechte, und dass sie einen halbjährlichen Dialog mit der europäischen Einrichtung und den zuständigen nationalen Behörden auf der Grundlage von Transparenzberichten führen;

11.

empfiehlt, dass die Mitgliedstaaten unabhängige Streitbeilegungsstellen anbieten, die mit der Beilegung von Streitigkeiten bezüglich der Moderation von Inhalten beauftragt sind; ist der Ansicht, dass zum Schutz anonymer Veröffentlichungen und des Gemeinwohls nicht nur der Nutzer, der die strittigen Inhalte hochgeladen hat, sondern auch ein Dritter mit berechtigtem Interesse, etwa eine unabhängige Ombudsperson, Entscheidungen über die Moderation von Inhalten anfechten können sollte; bekräftigt das Recht der Nutzer, weitere Rechtsbehelfe einzulegen;

12.

ist fest davon überzeugt, dass Hosting-Plattformen für Inhalte mit dem Gesetz über digitale Dienste nicht zu vollständig automatisierten Vorabkontrollen von Inhalten, in welcher Form auch immer, verpflichtet werden dürfen, sofern in geltenden Rechtsvorschriften nichts Anderweitiges vorgesehen ist; ist ferner der Auffassung, dass von Plattformen freiwillig eingesetzte Verfahren nicht zu Vorabkontrollen führen dürfen, die sich auf automatisierte Tools oder das Filtern hochgeladener Inhalte stützen, und dass diese Verfahren durch die europäische Einrichtung geprüft werden müssen, um die Konformität mit dem Gesetz über digitale Dienste sicherzustellen;

13.

betont, dass Hosting-Plattformen für Inhalte bei der Verarbeitung von Algorithmen und der zu ihrem Training verwendeten Daten transparent sein müssen;

Rechte in Bezug auf das Kuratieren von Inhalten sowie in Bezug auf Daten und Online-Werbung

14.

ist der Auffassung, dass die auf die Nutzer zugeschnittene Hervorhebung von Inhalten, die sich auf die in den entsprechenden Inhalten vertretenen Ansichten oder Standpunkte stützt, eine der schädlichsten Praktiken in der digitalen Gesellschaft ist, insbesondere wenn derartige Inhalte aufgrund der Interaktion des Nutzers mit anderen hervorgehobenen Inhalten herausgestellt werden und der Zweck verfolgt wird, die Nutzerprofile für gezielte Werbung zu optimieren. ist besorgt darüber, dass solche Praktiken auf einer allgegenwärtigen Nachverfolgung und auf Datenauswertung beruhen; fordert die Kommission auf, die Auswirkungen solcher Praktiken zu analysieren und geeignete legislative Maßnahmen zu ergreifen;

15.

ist der Ansicht, dass der Einsatz gezielter Werbung strenger geregelt werden muss, und zwar zugunsten von Werbung, die in geringerem Maße in das Privatleben eingreift und keine Nachverfolgung der Interaktion der Nutzer mit Inhalten erfordert und dass die Anzeige von verhaltensorientierter Werbung darauf beruhen sollte, dass die Nutzer hierfür ihre freiwillige, unzweideutige Einwilligung für den konkreten Fall und in Kenntnis der Sachlage erteilt haben;

16.

nimmt die geltenden Bestimmungen zur Kenntnis, die mit Blick auf gezielte Werbung in der Datenschutz-Grundverordnung und der Richtlinie 2002/58/EG des Europäischen Parlaments und des Rates vom 12. Juli 2002 über die Verarbeitung personenbezogener Daten und den Schutz der Privatsphäre in der elektronischen Kommunikation (Datenschutzrichtlinie für elektronische Kommunikation) (11);

17.

empfiehlt daher, dass mit dem Gesetz über digitale Dienste klare Grenzen und Transparenzregeln in Bezug auf die Bedingungen für die Akkumulation von Daten zum Zwecke des Angebots gezielter Werbung sowie mit Blick auf ihre Funktionsweise und der mit ihr verbundenen Rechenschaftspflicht, insbesondere wenn Daten auf Websites Dritter nachverfolgt werden, festgelegt werden; beharrt darauf, dass neue Maßnahmen zur Schaffung eines Rahmens für die Beziehungen zwischen Online-Plattformen und Verbrauchern erforderlich sind, der Transparenzvorschriften für Werbung, digitales „Nudging“ und Vorzugsbehandlung enthält; fordert die Kommission auf, Optionen für die Reglementierung der gezielten Werbung zu prüfen, einschließlich einer allmählichen Abschaffung, die in einem Verbot mündet;

18.

betont, dass im Gesetz über digitale Dienste in Übereinstimmung mit dem Grundsatz der Datenminimierung und zur Verhinderung der unbefugten Weitergabe, des Identitätsdiebstahls und anderer Formen der missbräuchlichen Nutzung personenbezogener Daten das Recht auf die anonyme Nutzung digitaler Dienste vorgesehen werden sollte, wann immer dies technisch möglich ist; fordert die Kommission auf, Hosting-Plattformen für Inhalte zu verpflichten, die Identität der Werbetreibenden, zu denen sie geschäftliche Beziehungen unterhalten, zu überprüfen, damit die Werbetreibenden zur Rechenschaft gezogen werden können, falls sich der von ihnen beworbene Inhalt als illegal erweist; empfiehlt daher, dass das Gesetz über digitale Dienste Rechtsvorschriften umfasst, mit denen die Plattformen daran gehindert werden, die Daten Dritter kommerziell zu nutzen, wenn diese Dritten Wettbewerber sind;

19.

bedauert, dass zwischen Hosting-Plattformen für Inhalte und Behörden derzeit eine Informationsasymmetrie besteht, und fordert einen optimierten Austausch der erforderlichen Informationen; betont, dass die Behörden im Einklang mit der Rechtsprechung zu Kommunikationsmetadaten nur dann Zugang zu den Metadaten eines Nutzers erhalten dürfen, um gegen Personen zu ermitteln, die einer schweren Straftat verdächtigt werden, wobei auch eine vorherige richterliche Genehmigung erforderlich ist;

20.

spricht sich dafür aus, dass Anbieter, die einen Single-Sign-On-Dienst unterstützen und über erhebliche Marktmacht innehaben, verpflichtet werden sollten, darüber hinaus mindestens ein offenes und dezentrales Identifizierungssystem zu unterstützen, das auf einem nichtproprietären Rahmen basiert; fordert die Kommission auf, gemeinsame Unionsnormen für die von den Mitgliedstaaten bereitgestellten nationalen Systeme vorzuschlagen, insbesondere in Bezug auf Datenschutznormen und grenzüberschreitende Interoperabilität;

21.

fordert die Kommission auf, eine mögliche Festlegung fairer Vertragsbedingungen zu prüfen, um damit die gemeinsame Nutzung von Daten zu erleichtern und die Transparenz zu verbessern, wodurch ein Ungleichgewicht bei der Marktmacht beseitigt werden soll; schlägt zu diesem Zweck vor, zu prüfen, wie die Interoperabilität, Interkonnektivität und Übertragbarkeit von Daten gefördert werden kann; weist darauf hin, dass der Datenaustausch mit angemessenen und geeigneten Garantien, einschließlich einer wirksamen Anonymisierung personenbezogener Daten, einhergehen sollte;

22.

empfiehlt, dass die Plattformen mit beträchtlicher Marktmacht mit dem Gesetz über digitale Dienste verpflichtet werden, eine Programmierschnittstelle für die Anwendung bereitzustellen, über die Drittplattformen und ihre Nutzer mit den Hauptfunktionen und Nutzern der Plattform, die die Programmierschnittstelle für die Anwendung bereitstellt, interagieren können, was auch Dienstleistungen Dritter einschließt, die darauf ausgelegt sind, die Nutzererfahrung zu verbessern und anzupassen, insbesondere durch Dienste, mit denen Datenschutzeinstellungen und Einstellungen zum Kuratieren von Inhalten individuell festgelegt werden; schlägt vor, dass Plattformen alle von ihnen bereitgestellten Programmierschnittstellen für Anwendungen öffentlich dokumentieren, die sie zum Zwecke der Interoperabilität und Interkonnektivität der Dienste zur Verfügung stellen;

23.

betont nachdrücklich, dass auf der anderen Seite Plattformen mit beträchtlicher Marktmacht, die eine Programmierschnittstelle für Anwendungen bereitstellen, die Daten, die sie von Drittdiensten erhalten, nicht weitergeben, speichern, gewinnbringend oder anderweitig nutzen dürfen;

24.

hebt hervor, dass die Pflichten mit Blick auf Interoperabilität und Interkonnektivität die Hosting-Plattformen für Inhalte nicht einschränken, behindern oder für eine Verzögerung sorgen dürfen, wenn es um die Behebung von Sicherheitsproblemen geht, und dass die notwendige Behebung von Sicherheitsproblemen ebenso wenig zu einer ungebührlichen Aussetzung der Programmierschnittstelle für Anwendungen, die für Interoperabilität und Interkonnektivität sorgt, führen darf;

25.

weist darauf hin, dass bei den Bestimmungen zu Interoperabilität und Interkonnektivität sämtliche einschlägigen Datenschutzgesetze eingehalten werden müssen; empfiehlt in diesem Zusammenhang, dass die Plattformen mit dem Gesetz über digitale Dienste verpflichtet werden, für die technische Durchführbarkeit der in Artikel 20 Absatz 2 der Datenschutz-Grundverordnung festgelegten Bestimmungen über die Datenübertragbarkeit zu sorgen;

26.

fordert, dass die Hosting-Plattformen für Inhalte die Nutzer wirklich darüber entscheiden lassen, ob sie in die Anzeige gezielter Werbung vorab einwilligen, die sich auf die vorherige Interaktion des Nutzers mit Inhalten auf derselben Hosting-Plattform für Inhalte oder auf Websites Dritter stützt; betont, dass diese Option klar und verständlich dargestellt werden muss und dass ihre Ablehnung nicht dazu führen darf, dass der Zugang zu den Funktionen der Plattform deaktiviert wird; betont, dass die Einwilligung in gezielte Werbung nicht als freiwillig und wirksam angesehen werden darf, wenn der Zugang zu dem Dienst von der Datenverarbeitung abhängig gemacht wird; bestätigt erneut, dass gezielte Werbung aufgrund der Richtlinie 2002/58/EG von einer Einwilligung abhängt und andernfalls untersagt ist; stellt fest, dass, die allgemeine und unterschiedslose Sammlung personenbezogener Daten bei jeder Nutzung eines digitalen Dienstes unverhältnismäßig stark in das Recht auf Privatsphäre eingreift, da die Online-Aktivitäten eines Individuums tiefe Einblicke in sein Verhalten erlauben und Manipulation ermöglichen; bestätigt, dass die Nutzer ein Recht darauf haben, bei der Nutzung digitaler Dienste nicht einer allgegenwärtigen Nachverfolgung unterworfen zu werden;

27.

fordert die Kommission auf, in diesem Sinne dafür zu sorgen, dass die Verbraucher ein angeschlossenes Gerät auch dann für alle Funktionen nutzen können, wenn sie ihre Einwilligung in die Weitergabe nicht betriebsbezogener Daten an den Gerätehersteller oder Dritte widerrufen oder verweigern; bekräftigt, dass die allgemeinen Geschäftsbedingungen transparent sein müssen, was die Möglichkeit und den Umfang einer Weitergabe von Daten an Dritte betrifft;

28.

fordert ferner, dass den Nutzern ein angemessenes Maß an Transparenz und Einfluss auf die Kriterien garantiert wird, nach denen die Inhalte kuratiert und für sie angezeigt werden; bekräftigt, dass dies auch die Möglichkeit umfassen sollte, abgesehen von der chronologischen Reihenfolge ganz auf das Kuratieren von Inhalten zu verzichten; weist darauf hin, dass die Programmierungsschnittstellen für Anwendungen, die von Plattformen bereitgestellt werden, den Nutzern die Möglichkeit bieten sollte, Inhalte durch Software oder Dienste ihrer Wahl kuratieren zu lassen;

29.

betont, wie wichtig es ist, dass sich das Gesetz über digitale Dienste als rechtlich solider und wirksamer Schutz von Kindern im Online-Umfeld erweist, wobei jedoch auf allgemeine Überwachungs- bzw. Filteranforderungen zu verzichten ist, für eine umfassende Koordinierung zu sorgen ist und Überschneidungen mit der Datenschutz-Grundverordnung und der Richtlinie über audiovisuelle Mediendienste zu vermeiden sind;

30.

weist darauf hin, dass bezahlte Werbung oder die bezahlte Platzierung von gesponserten Inhalten eindeutig, genau und intelligent gekennzeichnet sein sollten; schlägt vor, dass Plattformen die Herkunft bezahlter Werbung und gesponserter Inhalte offenlegen sollten; schlägt zu diesem Zweck vor, dass Hosting-Plattformen für Inhalte alle gesponserten Inhalte und Werbeanzeigen veröffentlichen und sie für ihre Nutzer in einem öffentlich zugänglichen Werbearchiv klar einsehbar machen, wobei anzugeben ist, wer für sie bezahlt hat und gegebenenfalls in wessen Namen; betont, dass dies sowohl direkte als auch indirekte Zahlungen bzw. jede andere von Dienstleistern erhaltende Vergütung umfasst;

31.

ist der Ansicht, dass es zweckmäßig wäre, weitere Optionen in Betracht zu ziehen, um die Einhaltung der in der Union geltenden Rechtsvorschriften zu verbessern, falls aus einschlägigen Daten hervorgeht, dass bei irreführenden Werbepraktiken und bei der Durchsetzung des Rechts ein erheblicher Unterschied zwischen Plattformen mit Sitz in der Union und Plattformen mit Sitz in Drittstaaten besteht; betont, dass gleiche Wettbewerbsbedingungen für Werbetreibende aus der Union und Werbetreibende aus Drittstaaten bestehen müssen;

Bestimmungen über allgemeine Geschäftsbedingungen, intelligente Verträge und Blockchains sowie internationales Privatrecht

32.

nimmt die Zunahme sogenannter intelligenter Verträge zur Kenntnis, etwa solcher, die auf dezentralen Transaktionsnetzwerken basieren und für die es keinen eindeutigen Rechtsrahmen gibt;

33.

fordert die Kommission auf, die Entwicklung und Nutzung von auf dezentralen Transaktionsnetzwerken basierenden Technologien, einschließlich der Blockchain-Technologie, und insbesondere von intelligenten Verträgen, zu bewerten, Orientierungshilfe, die Unternehmen und Verbrauchern Rechtssicherheit bieten soll, was vor allem Fragen der Rechtmäßigkeit und Durchsetzung intelligenter Verträge in grenzüberschreitenden Sachlagen betrifft, und notarielle Bestätigungsanforderungen, soweit erforderlich, bereitzustellen und Vorschläge für einen geeigneten Rechtsrahmen zu unterbreiten;

34.

betont, dass sichergestellt werden muss, dass die Geschäftsbedingungen, die von Intermediären den Nutzern ihrer Dienste auferlegt werden, hinsichtlich ihrer Ausgewogenheit und Vereinbarkeit mit Grundrechtnormen einer gerichtlichen Kontrolle unterliegen; stellt fest, dass Geschäftsbedingungen, die die Grundrechte der Nutzer, etwa das Recht auf Privatsphäre und das Recht auf freie Meinungsäußerung, in unzulässiger Weise einschränken, nicht verbindlich sein dürfen;

35.

fordert die Kommission auf, die Modalitäten zu prüfen, mit denen sichergestellt werden kann, dass sich die Vertragsparteien intelligenter Verträge in angemessen ausgewogener Position und auf Augenhöhe begegnen, wobei den jeweiligen Interessen der schwächeren Partei bzw. den Bedenken der Öffentlichkeit, beispielsweise im Zusammenhang mit Kartellvereinbarungen, Rechnung zu tragen ist; betont, dass sichergestellt werden muss, dass die Rechte von Gläubigern in Insolvenz- und Restrukturierungsverfahren geachtet werden; empfiehlt nachdrücklich, dass intelligente Verträge Regelungen umfassen, mit denen ihre Ausführung und damit zusammenhängende Zahlungen gestoppt und rückgängig gemacht werden können;

36.

fordert die Kommission insbesondere auf, ihre bestehende Orientierungshilfe zur Richtlinie 2011/83/EU des Europäischen Parlaments und des Rates vom 25. Oktober 2011 über die Rechte der Verbraucher (12) zu aktualisieren, um zu klären, ob und wenn ja, unter welchen Umständen intelligente Verträge ihrer Ansicht nach unter die Ausnahme von Artikel 3 Absatz 3 Buchstabe l der genannten Richtlinie fallen, und um die Frage des Widerrufsrechts zu klären;

37.

betont, dass die Blockchain-Technologien und insbesondere intelligente Verträgen im Einklang mit den Vorschriften und Regelungen im Bereich des Kartellrechts genutzt werden müssen, was auch das Verbot von Kartellvereinbarungen bzw. von abgestimmten Verhaltensweisen einschließt;

38.

ist der Auffassung, dass durch nicht standardmäßige allgemeine Geschäftsbedingungen weder der wirksame Zugang zur Justiz und damit zu Gerichten der Union behindert noch Unionsbürgern oder Unternehmen das Nutzungsrecht entzogen werden darf; fordert die Kommission zur Prüfung der Frage auf, ob der Schutz des Rechts auf Zugang zu Daten nach internationalem Privatrecht ungewiss ist und zu Nachteilen für Unionsbürger und Unternehmen führt;

39.

betont, wie wichtig es ist, dafür zu sorgen, dass die Nutzung digitaler Dienste in der Union voll und ganz dem Unionsrecht unterliegt und in die Zuständigkeit der Gerichte der Union fällt;

40.

kommt ferner zu dem Schluss, dass auf Unionsebene legislative Lösungen für diese Fragen gefunden werden sollten, wenn Maßnahmen auf internationaler Ebene nicht durchführbar erscheinen oder es wahrscheinlich zu lange dauert, bis diese Maßnahmen greifen;

41.

betont, dass in der Union niedergelassene Anbieter von Diensten nicht verpflichtet sein dürfen, Informationen, die in ihrem Herkunftsland rechtmäßig sind, zu entfernen oder den Zugang zu ihnen zu sperren;

o

o o

42.

beauftragt seinen Präsidenten, diese Entschließung und die als Anlage beigefügten ausführlichen Empfehlungen der Kommission und dem Rat zu übermitteln.

(1)  ABl. L 186 vom 11.7.2019, S. 57.

(2)  ABl. L 130 vom 17.5.2019, S. 92.

(3)  ABl. L 119 vom 4.5.2016, S. 1.

(4)  ABl. L 95 vom 15.4.2010, S. 1.

(5)  ABl. L 136 vom 24.5.2008, S. 3.

(6)  ABl. L 63 vom 6.3.2018, S. 50.

(7)  ABl. L 339 vom 21.12.2007, S. 3.

(8)  ABl. C 11 vom 13.1.2020, S. 7.

(9)  https://www.europarl.europa.eu/RegData/etudes/STUD/2020/654180/EPRS_STU (2020)654180_EN.pdf

(10)  ABl. L 351 vom 20.12.2012, S. 1.

(11)  ABl. L 201 vom 31.7.2002, S. 37.

(12)  ABl. L 304 vom 22.11.2011, S. 64.


ANLAGE ZUR ENTSCHLIESSUNG:

EMPFEHLUNGEN ZUM INHALT DES VERLANGTEN VORSCHLAGS

A.   GRUNDSÄTZE UND ZIELE DES ANGEFORDERTEN VORSCHLAGS

GRUNDSÄTZE UND ZIELE DES VORSCHLAGS:

Der Vorschlag umfasst sowohl Rechtsvorschriften, die in das Gesetz über digitale Dienste einfließen sollten, als auch Rechtsvorschriften, die das Gesetz über digitale Dienste ergänzen.

Mit dem Vorschlag sollen zivil- und handelsrechtliche Vorschriften für Unternehmen gestärkt werden, die im Bereich der digitalen Dienste online tätig sind.

Der Vorschlag zielt darauf ab, Klarheit über die vertraglichen Rechte in Bezug auf die Moderation und das Kuratieren von Inhalten zu schaffen und diese zu stärken.

Mit dem Vorschlag soll weiter gegen widerrechtliche oder unfaire allgemeine Geschäftsbedingungen, die bei digitalen Diensten eingesetzt werden, vorgegangen werden.

In dem Vorschlag geht es auch um die Frage, ob Aspekte der Datenerhebung gegen angemessene vertragliche Rechte der Nutzer sowie gegen Datenschutzvorschriften und Vorschriften über die Vertraulichkeit im Internet verstoßen.

In dem Vorschlag wird auf die Bedeutung einer ausgewogenen Umsetzung der Nutzerrechte in Bezug auf Interoperabilität und Übertragbarkeit eingegangen.

In dem Vorschlag wird darauf hingewiesen, dass ein internationales Privatrecht benötigt wird, das Rechtsklarheit in Bezug auf die nicht verhandelbaren allgemeinen Geschäftsbedingungen von Online-Plattformen schafft, und dass das Recht auf den Zugang zu Daten und der Zugang zur Justiz sicherzustellen sind.

Der Vorschlag befasst sich nicht mit Aspekten im Zusammenhang mit der Regulierung von Online-Marktplätzen, die jedoch in dem von der Kommission vorzuschlagenden Paket zum Gesetz über digitale Dienste berücksichtigt werden sollten.

In dem Vorschlag wird auf das Erfordernis eingegangen, die Notwendigkeit einer angemessenen Regulierung zivil- und handelsrechtlicher Aspekte im Bereich der dezentralen Transaktionsnetzwerke, einschließlich Blockchains, zu bewerten; ferner wird insbesondere der Notwendigkeit einer angemessenen Regulierung der zivil- und handelsrechtlichen Aspekte intelligenter Verträge Rechnung getragen.

I.   VORSCHLÄGE, DIE IN DAS GESETZ ÜBER DIGITALE DIENSTE AUFGENOMMEN WERDEN SOLLEN

Folgende Kernelemente der Vorschläge sollten in das Gesetz über digitale Dienste aufgenommen werden:

Eine Verordnung über vertragliche Rechte in Bezug auf den Umgang mit Inhalten, die folgende Elemente umfasst:

Sie sollte für den Umgang mit Inhalten, einschließlich der Moderation und des Kuratierens, in Bezug auf in der Union zugängliche Inhalte gelten.

Mit ihr sollten von Verhältnismäßigkeit geprägte Grundsätze für die Moderation von Inhalten festgelegt werden.

Es sollten offizielle und verfahrensbezogene Normen für ein Beschwerde- und Abhilfeverfahren festgelegt werden, die mit Blick auf die Plattform sowie die Art und die Auswirkungen des Schadens angemessen sowie wirksam und zukunftssicher sind;

In den Mitgliedstaaten sollte ein unabhängiges Verfahren zur Beilegung von Streitigkeiten vorgesehen werden, ohne den Zugang zu gerichtlichen Rechtsbehelfen einzuschränken.

Sie sollte klare Indikatoren zur Bestimmung der Marktmacht von Hosting-Plattformen für Inhalte umfassen, um festzustellen, ob bestimmte Hosting-Plattformen für Inhalte, die keine beträchtliche Marktmacht haben, von bestimmten Bestimmungen ausgenommen werden können. Zu diesen Indikatoren könnten die Größe ihres Netzwerks (Anzahl der Nutzer), ihre Finanzkraft, der Zugang zu Daten, der Grad der vertikalen Integration und etwaige bestehende Lock-in-Effekte gehören.

Es sollten Vorschriften über die Verantwortung von Hosting-Plattformen für Inhalte im Zusammenhang mit den auf diesen Plattformen verkauften oder beworbenen Waren vorgesehen werden, wobei unterstützende Tätigkeiten für KMU zu berücksichtigen sind, um deren Belastung bei der Anpassung an diese Verantwortung zu minimieren.

Bei der Anwendung der geeigneten politischen Optionen sollte eindeutig zwischen illegalen und schädlichen Inhalten unterschieden werden. In diesem Zusammenhang sollten sämtliche Maßnahme im Gesetz über digitale Dienste nur illegale Inhalte betreffen, wie sie im Unionsrecht und im nationalen Recht definiert sind.

Sie sollte sich auf etablierte Grundsätze stützen, wenn es darum geht, die für die Einhaltung des Verwaltungsrechts geltenden Rechtsvorschriften zu bestimmen; angesichts der zunehmenden Konvergenz der Nutzerrechte sollte in der Verordnung deutlich gemacht werden, dass alle Aspekte in ihrem Anwendungsbereich diesen Grundsätzen unterliegen.

In der Verordnung sollten die Charta der Grundrechte der Europäischen Union und die Rechtsvorschriften der Union zum Schutz der Nutzer und ihrer Sicherheit, Privatsphäre und personenbezogenen Daten sowie andere Grundrechte in vollem Umfang geachtet werden.

Es sollte ein Dialog zwischen den Hosting-Plattformen für Inhalte mit beträchtlicher Marktmacht und der europäischen Einrichtung über das Risikomanagement bei dem Umgang mit legalen Inhalten vorgesehen werden.

Die Kommission sollte Optionen für eine europäische Einrichtung prüfen, die mit der Sicherstellung der Einhaltung der Bestimmungen des Vorschlags durch folgende Maßnahmen beauftragt ist:

regelmäßige Überwachung der Algorithmen, die von Hosting-Plattformen für Inhalte zum Zwecke des Umgangs mit Inhalten verwendet werden;

regelmäßige Überprüfung der Einhaltung der Bestimmungen der Verordnungen seitens die Hosting-Plattform für Inhalte auf der Grundlage der Transparenzberichte, die von Hosting-Plattformen für Inhalte zur Verfügung zu stellen sind, und auf der Grundlage der durch das Gesetz über digitale Dienste zu schaffende öffentliche Datenbank für Entscheidungen über die Entfernung von Inhalten;

Zusammenarbeit mit Hosting-Plattformen für Inhalte zu bewährten Verfahren, damit die Anforderungen an Transparenz und Rechenschaftspflicht in Bezug auf allgemeine Geschäftsbedingungen erfüllt werden, sowie zu bewährten Verfahren bei der Moderation von Inhalten und der Umsetzung von Beschwerde- und Abhilfeverfahren;

Zusammenarbeit und Koordinierung mit den nationalen Behörden der Mitgliedstaaten bei der Umsetzung des Gesetzes über digitale Dienste;

Verwaltung eines speziellen Fonds zur Unterstützung der Mitgliedstaaten bei der Finanzierung der Betriebskosten der in der Verordnung beschriebenen unabhängigen Streitbeilegungsstellen, der mit Geldbußen, die gegen Hosting-Plattformen für Inhalte wegen Nichteinhaltung der Bestimmungen des Gesetzes über digitale Dienste verhängt werden, sowie durch Beiträge von Hosting-Plattformen für Inhalte mit beträchtlicher Marktmacht finanziert wird;

Verhängung von Bußgeldern bei Nichteinhaltung des Gesetzes über digitale Dienste. Die Geldbußen sollten für den Sonderfonds genutzt werden, mit dem die Mitgliedstaaten bei der Finanzierung der Betriebskosten der in der Verordnung genannten Streitbeilegungsstellen unterstützt werden. Folgendes sollte als Nichteinhaltung betrachtet werden:

fehlende Umsetzung der Bestimmungen der Verordnung,

Fehlen transparenter, zugänglicher, fairer und diskriminierungsfreier allgemeiner Geschäftsbedingungen,

Versäumnis, der europäischen Einrichtung die Algorithmen, die für den Umgang mit Inhalten genutzt werden, zur Überprüfung zur Verfügung zu stellen,

Versäumnis, der europäischen Einrichtung Transparenzberichte vorzulegen,

Veröffentlichung halbjährlicher Berichte über sämtliche Tätigkeiten und Berichterstattung gegenüber den Organen der Union.

Die Transparenzberichte zum Umgang mit Inhalten sollten wie folgt erstellt werden:

Das Gesetz über digitale Dienste sollte Bestimmungen enthalten, mit denen die Hosting-Plattformen dazu verpflichtet werden, regelmäßig Transparenzberichte zu veröffentlichen und der europäischen Einrichtung vorzulegen. Die Berichte sollten umfassend sein, nach einer einheitlichen Methodik erstellt werden und insbesondere Folgendes enthalten:

Informationen zu Beschwerden, die von der Hosting-Plattform für Inhalte verarbeitet werden, darunter:

die Gesamtzahl der eingegangenen Beschwerden, die jeweilige Art der betroffenen Inhalte und die jeweils ergriffenen Maßnahmen,

die Zahl der eingegangenen Beschwerden je Kategorie der einreichenden Stellen, z. B. Privatpersonen, Behörden oder Privatunternehmen,

die Gesamtzahl der eingegangenen Löschungsaufforderungen und die Gesamtzahl der Befassungen der zuständigen Behörden mit Inhalten,

die Gesamtzahl der eingegangenen Zurückweisungen von Beschwerden bzw. Einsprüche sowie Informationen darüber, wie diese ausgeräumt wurden,

die durchschnittliche Zeitspanne zwischen Bekanntgabe, Beschwerde, Zurückweisung der Beschwerde und Abhilfemaßnahme,

Informationen über die Zahl der Mitarbeiter, die für die Moderation von Inhalten eingesetzt werden, ihren Standort, ihre Ausbildung und ihre Sprachkenntnisse sowie etwaige Algorithmen, die für Entscheidungen verwendet werden,

Informationen über Auskunftsersuchen von Behörden, etwa Strafverfolgungsbehörden, einschließlich der Zahl der umfassend beantworteten Auskunftsersuchen und der Ersuchen, denen nicht oder nur teilweise entsprochen wurde,

Informationen über die Durchsetzung der allgemeinen Geschäftsbedingungen und Informationen über gerichtliche Entscheidungen, mit denen die Nichtigkeit und/oder die Änderung von allgemeinen Geschäftsbedingungen angeordnet wird, die von einem Mitgliedstaat für rechtswidrig erachtet werden.

Die Hosting-Plattformen sollten außerdem ihre Entscheidungen über die Entfernung von Inhalten in einer öffentlich zugänglichen Datenbank veröffentlichen, um die Transparenz gegenüber den Nutzern zu erhöhen.

Die gemäß der Verordnung zu errichtenden unabhängigen Streitbeilegungsstellen sollten Berichte über die Zahl der ihnen überwiesenen Fälle, einschließlich der Zahl der Fälle, die bearbeitet wurden, erstellen.

II.   ERGÄNZENDE VORSCHLÄGE ZU DEM GESETZ ÜBER DIGITALE DIENSTE

Zu den Maßnahmen in Bezug auf das Kuratieren von Inhalten sowie in Bezug auf Daten und Online-Werbung, die gegen angemessene vertragliche Rechte von Nutzern verstoßen, sollten unter anderem gehören:

Maßnahmen zur Beschränkung der Daten auf ein Mindestmaß, die von den Hosting-Plattformen für Inhalte auf der Grundlage der Interaktionen der Nutzer mit auf der Hosting-Plattform für Inhalte bereitgestellten Inhalten erhoben werden, um damit Profile für gezielte Werbung zu erstellen, insbesondere durch strenge Bedingungen für die Verwendung gezielter personalisierter Werbung sowie durch vorherige Einholung der freiwilligen und unzweideutigen Einwilligung des Nutzers für den konkreten Fall und in Kenntnis der Sachlage. Die Einwilligung in gezielte Werbung gilt dann nicht als freiwillig und wirksam, wenn der Zugang zu dem Dienst von der Datenverarbeitung abhängig gemacht wird.

Die Nutzer von Hosting-Plattformen für Inhalte müssen darüber informiert werden, wenn sie Gegenstand gezielter Werbung sind; sie müssen Zugang zu ihrem von Hosting-Plattformen für Inhalte erstellten Profil erhalten und die Möglichkeit haben, es zu ändern; ferner müssen sie sich gegen oder für die Anzeige von gezielter Werbung entscheiden und ihre Einwilligung widerrufen können.

Die Hosting-Plattformen für Inhalte sollten ein Archiv über gesponserte Inhalte und Werbeanzeigen, die den Nutzern gezeigt wurden, zugänglich machen, das folgende Informationen enthält:

Angabe, ob der gesponserte Inhalt bzw. das Sponsoring gegenwärtig geschaltet oder nicht,

Zeitraum, in dem die Werbeanzeige mit gesponserten Inhalten geschaltet war,

Name und Kontaktdaten des Sponsors bzw. des Auftraggebers der Werbeanzeige, und, falls abweichend, in wessen Namen die Anzeige bzw. das Sponsoring geschaltet wurde,

Gesamtzahl der Nutzer, denen die Werbeanzeige angezeigt wurde,

Angaben über die Zielgruppe.

Zu den Maßnahmen für eine angemessene Durchsetzung der Nutzerrechte in Bezug auf Interoperabilität, Interkonnektivität und Übertragbarkeit sollte Folgendes gehören:

eine Prüfung der möglichen Festlegung angemessener Vertragsbedingungen, um so die gemeinsame Nutzung von Daten zu erleichtern und damit insbesondere durch Interoperabilität, Interkonnektivität und Übertragbarkeit von Daten ein Ungleichgewicht bei der Marktmacht zu beseitigen;

eine Anforderung an die Plattformen mit beträchtlicher Marktmacht mit dem Gesetz über digitale Dienste, eine Programmierschnittstelle für die Anwendung bereitzustellen, über die Drittplattformen und ihre Nutzer mit den Hauptfunktionen und Nutzern der Plattform, die die Programmierschnittstelle für die Anwendung bereitstellt, interagieren können, was auch Dienstleistungen Dritter einschließt, die darauf ausgelegt sind, die Nutzererfahrung zu verbessern und anzupassen, insbesondere durch Dienste, mit denen Datenschutzeinstellungen und Einstellungen zum Kuratieren von Inhalten individuelle festgelegt werden;

Bestimmungen, mit denen sichergestellt wird, dass Plattformen mit beträchtlicher Marktmacht, die eine Programmierschnittstelle für die Anwendung bereitstellen, die Daten, die sie von Drittdiensten erhalten, nicht teilen, speichern, gewinnbringend oder anderweitig nutzen dürfen;

Bestimmungen, mit denen sichergestellt wird, dass die Pflichten mit Blick auf Interoperabilität und Interkonnektivität die Hosting-Plattformen für Inhalte nicht einschränken, behindern oder für eine Verzögerung sorgen, wenn es um die Behebung von Sicherheitsproblemen geht, und dass die notwendige Behebung von Sicherheitsproblemen ebenso wenig zu einer ungebührlichen Aussetzung der Programmierschnittstelle für Anwendungen, die für Interoperabilität und Interkonnektivität sorgt, führt;

Bestimmungen, mit denen sichergestellt wird, dass Plattformen nach dem Gesetz über digitale Dienste verpflichtet sind, für die technische Durchführbarkeit der Bestimmungen über die Datenübertragbarkeit gemäß Artikel 20 Absatz 2 der Datenschutz-Grundverordnung zu sorgen;

Bestimmungen, mit denen sichergestellt wird, dass Hosting-Plattformen für Inhalte mit beträchtlicher Marktmacht, die eine Programmierschnittstelle für die Anwendung bereitstellen, alle Schnittstellen öffentlich dokumentieren, die sie zum Zweck der Interoperabilität und Interkonnektivität der Dienste zur Verfügung stellen.

Zu den Maßnahmen für eine angemessene Regulierung zivil- und handelsrechtlicher Aspekte von dezentralen Transaktionsnetzwerken (Distributed-Ledger-Technologie), etwa der Blockchain-Technologie, und insbesondere von intelligenten Verträge (Smart Contracts) sollte Folgendes gehören:

Maßnahmen zur Schaffung eines angemessenen Rechtsrahmens für die Entwicklung und Nutzung von digitalen Diensten, was auch dezentrale Transaktionsnetzwerke, etwa Blockchain-Technologien und intelligente Verträge, einschließt;

Maßnahmen, mit denen dafür gesorgt wird, dass intelligente Verträge Bestimmungen enthalten, mit denen ihre Ausführung unterbrochen und rückgängig gemacht werden kann, um insbesondere den jeweiligen Bedenken der schwächeren Partei bzw. den Bedenken der Öffentlichkeit etwa im Zusammenhang mit der Kartellvereinbarungen Rechnung zu tragen und um sicherzustellen, dass die Rechte der Gläubiger bei Insolvenz- und Restrukturierungsverfahren gewahrt werden;

Maßnahmen, mit denen dafür gesorgt wird, dass sich die Vertragsparteien intelligenter Verträge in angemessen ausgewogener Position und auf Augenhöhe begegnen, wobei insbesondere die Interessen kleiner Unternehmen und KMU, für die die Kommission mögliche Modalitäten prüfen sollte, zu berücksichtigen sind;

Aktualisierung der bestehenden Orientierungshilfe zur Richtlinie 2011/83/EU, um zu klären, ob intelligente Verträge unter die Ausnahme von Artikel 3 Absatz 3 Buchstabe l der genannten Richtlinie fallen, und um Fragen im Zusammenhang mit grenzüberschreitenden Transaktionen, notariellen Bestätigungsanforderungen und dem Widerrufsrecht zu klären;

Zu den Maßnahmen zur Schaffung von gerechten Bestimmungen des internationalen Privatrechts, die die Nutzer nicht daran hindern, Gerichte anzurufen, gehört Folgendes:

Maßnahmen, mit denen sichergestellt wird, dass die standardmäßigen allgemeinen Geschäfts- und Vertragsbedingungen keine Bestimmungen enthalten, die Angelegenheiten des internationalen Privatrechts so regeln, dass es erschwert wird, Gerichte anzurufen, insbesondere durch die wirksame Durchsetzung diesbezüglich geltender Maßnahmen;

Maßnahmen, mit denen die Bestimmungen des internationalen Privatrechts präzisiert werden, die die Aktivitäten der Plattformen im Zusammenhang mit Daten betreffen, damit diese für Unionsbürger nicht von Nachteil sind;

Maßnahmen, mit denen auf den Multilateralismus aufgebaut wird und die möglichst von den zuständigen internationalen Gremien beschlossen werden.

Nur wenn es unmöglich ist, in einem angemessenen Zeitraum eine auf Multilateralismus basierende Lösung zu erreichen, sollten Maßnahmen zur Anwendung innerhalb der Union vorgeschlagen werden, damit die Nutzung digitaler Dienste in der Union umfassend von Unionsrecht geregelt und der Rechtsprechung durch Unionsgerichte unterworfen ist.

B.   WORTLAUT DES GEFORDERTEN GESETZGEBUNGSVORSCHLAGS

Vorschlag für eine

VERORDNUNG DES EUROPÄISCHEN PARLAMENTS UND DES RATES

über vertragliche Rechte in Bezug auf den Umgang mit Inhalten

DAS EUROPÄISCHE PARLAMENT UND DER RAT DER EUROPÄISCHEN UNION —

gestützt auf den Vertrag über die Arbeitsweise der Europäischen Union, insbesondere auf Artikel 114,

auf Vorschlag der Europäischen Kommission,

nach Zuleitung des Entwurfs des Gesetzgebungsakts an die nationalen Parlamente,

nach Stellungnahme des Europäischen Wirtschafts- und Sozialausschusses,

gemäß dem ordentlichen Gesetzgebungsverfahren,

in Erwägung nachstehender Gründe:

(1)

Die von Anbietern von digitalen Diensten in der Beziehung zu ihren Nutzern angewendeten allgemeinen Geschäftsbedingungen sind oft nicht verhandelbar und können von den Anbietern einseitig verändert werden. Legislative Maßnahmen sind erforderlich, mit denen Mindestnormen für diese allgemeinen Geschäftsbedingungen und insbesondere für Normen für die beim Umgang mit Inhalten anzuwendenden Verfahren festgelegt werden.

(2)

Die zivilrechtlichen Regelungen, die die Verfahren von Hosting-Plattformen für Inhalte beim Moderieren von Inhalten bestimmen, beruhen auf branchenbezogenen Bestimmungen auf Unionsebene sowie auf Rechtsvorschriften, die von den Mitgliedstaaten auf nationaler Ebene erlassen werden, wobei es bei den Pflichten, die aufgrund dieser zivilrechtlichen Regelungen für die Hosting-Plattformen für Inhalte bestehen, sowie bei ihren Durchsetzungsverfahren erhebliche Unterschiede gibt.

(3)

Die sich daraus ergebende Zersplitterung in unterschiedliche zivilrechtliche Rechtsordnungen, die jeweils die Moderation von Inhalten regeln, verursacht nicht nur Rechtsunsicherheiten, aufgrund derer Plattformen möglicherweise strenger verfahren als nötig, um das mit der Nutzung ihrer Dienste verbundene Risiko zu minimieren, sondern führt auch zu einer Zersplitterung des digitalen Binnenmarkts, sodass Wachstum und Innovation sowie die Entwicklung der europäischen Unternehmen im digitalen Binnenmarkt behindert werden.

(4)

Angesichts der schädlichen Auswirkungen der Zersplitterung des digitalen Binnenmarkts und der sich daraus ergebenden Rechtsunsicherheit für Unternehmen und Verbraucher, des internationalen Charakters des Hostings von Inhalten, der große Menge an Inhalten, die eine Moderation erfordern, und der beträchtlichen Marktmacht einiger weniger außerhalb der Union ansässiger Hosting-Plattformen für Inhalte muss eine vollständige Harmonisierung der rechtlichen Bestimmungen über das Hosting von Inhalten sichergestellt werden, was nur durch eine Verordnung geschehen kann.

(5)

Mit diese Verordnung sollten Mindestnormen für die in den allgemeinen Geschäftsbedingungen von Hosting-Plattformen für Inhalte festgelegten Bestimmungen mit Blick auf Fairness, Transparenz und Haftung gegenüber den Nutzern vorgegeben werden. Die allgemeinen Geschäftsbedingungen sollten klar zugänglich, verständlich und eindeutig sein und für die Moderation von Inhalten faire, transparente, verbindliche und einheitliche Normen und Verfahren festlegen, mit denen der Zugang zu unabhängigen Rechtsbehelfen sichergestellt ist und die Grundrechte gewahrt werden.

(6)

Die auf die Nutzer zugeschnittene Hervorhebung von Inhalten, die sich auf die in den entsprechenden Inhalten vertretenen Ansichten oder Standpunkte stützt, ist eine der schädlichsten Praktiken in der digitalen Gesellschaft, insbesondere, wenn derartige Inhalte aufgrund der Interaktion des Nutzers mit anderen hervorgehobenen Inhalten herausgestellt werden und der Zweck verfolgt wird, die Nutzerprofile für gezielte Werbung zu optimieren.

(7)

Algorithmen, die über die Rangfolge der Suchergebnisse entscheiden, die individuelle und gesellschaftliche Kommunikation und Interaktion beeinflussen und eine Meinungsbildung bewirken können, insbesondere bei Medieninhalten.

(8)

Damit unter anderem die Nutzer ihre Rechte geltend machen können, sollte den Nutzern ein angemessenes Maß an Transparenz und Einflussnahme auf das Kuratieren der ihnen angezeigten Inhalte eingeräumt werden, wozu auch die Möglichkeit gehört, abgesehen von der chronologischen Reihenfolge vollständig auf jegliches Kuratieren von Inhalten zu verzichten. Insbesondere sollten Nutzern kuratierte Inhalte nur dann angezeigt werden, wenn sie freiwillig, für den konkreten Fall, in Kenntnis der Sachlage und unzweideutig vorab darin einwilligen. Die Einwilligung in gezielte Werbung sollte dann nicht als freiwillig und wirksam gelten, wenn der Zugang zu dem Dienst von der Datenverarbeitung abhängig gemacht wird.

(9)

Die allgemeine Einwilligung eines Nutzers in die allgemeinen Geschäftsbedingungen einer Hosting-Plattform für Inhalte oder in jegliche andere allgemeine Beschreibung der Regelungen zum Umgang mit Inhalten durch Hosting-Plattformen für Inhalte sollte nicht als ausreichende Einwilligung gelten, aufgrund der dem Nutzer automatisch kuratierte Inhalte angezeigt werden.

(10)

Die Hosting-Plattformen werden mit dieser Verordnung nicht dazu verpflichtet, vollständig automatisierten Vorabkontrollen, in welcher Form auch immer durchzuführen, sofern in geltenden Rechtsvorschriften nichts Anderweitiges vorgesehen ist; ferner sollte sie vorsehen, dass von Plattformen freiwillig verwendete Verfahren zur Moderation von Inhalten nicht zu Vorabkontrollen führen, die sich auf automatisierte Tools oder das Filtern hochgeladener Inhalte stützen;

(11)

Diese Verordnung sollte für die Zwecke der der Moderation von Inhalten zudem Bestimmungen gegen diskriminierende Praktiken bei der Moderation von Inhalten sowie gegen Ausbeutung oder Ausschluss umfassen, insbesondere mit Blick auf die Entfernung von nutzergenerierten Inhalte aufgrund von Aussehen, ethnischer Herkunft, Geschlecht, sexueller Orientierung, Religion oder Weltanschauung, Behinderung, Alter, Schwangerschaft oder Kindererziehung, Sprache oder Zugehörigkeit zu einer bestimmten Gesellschaftsschicht.

(12)

Jede natürliche oder juristische Person, darunter öffentliche Einrichtungen, denen über eine Website oder Anwendung Inhalte angezeigt werden, sollte das Recht haben, eine Beschwerde gemäß dieser Verordnung einzureichen.

(13)

Wurde eine Beschwerde eingereicht, sollte die für das Hochladen von Inhalten verantwortliche Person von der Hosting-Plattform für Inhalte darüber und insbesondere über den Grund für die Beschwerde und die ergriffenen Maßnahmen in Kenntnis gesetzt und über das Verfahren informiert werden, unter anderem über die Möglichkeit, Einspruch zu erheben und sich an eine unabhängige Streitbeilegungsstelle zu wenden, sowie über die bei nicht den Tatsachen entsprechenden Beschwerden zur Verfügung stehenden Rechtsbehelfe. Diese Informationen sollten jedoch nicht übermittelt werden, wenn die Hosting-Plattform für Inhalte von einer staatlichen Behörde darüber in Kenntnis gesetzt wurde, dass strafrechtliche Ermittlungen stattfinden. In einem derartigen Fall sollten die zuständigen Behörden die für das Hochladen von Inhalten verantwortliche Person gemäß den geltenden Bestimmungen über den Eingang einer Beschwerde in Kenntnis setzen.

(14)

Alle betroffenen Parteien sollten über alle Entscheidungen in Bezug auf eine Beschwerde in Kenntnis gesetzt werden. Zu den Informationen, die den betroffenen Parteien übermittelt werden, sollten neben der Entscheidung zumindest der Grund für diese sowie Angaben darüber, ob die Entscheidung allein von einem Menschen getroffen wurde, und einschlägige Informationen über eine mögliche Überprüfung und zur Verfügung stehende Rechtsbehelfe gehören.

(15)

Inhalte sollten als offenkundig rechtswidrig angesehen werden, wenn sie unverkennbar und ohne dass eingehende Prüfung erforderlich ist, gegen rechtliche Bestimmungen verstoßen, die die Rechtmäßigkeit von Inhalten im Internet regeln.

(16)

Da Hosting von Inhalten von Unmittelbarkeit gekennzeichnet ist und mit dem Hochladen von Inhalten oftmals kurzlebige Zwecke verfolgt werden, müssen, um für schnelle und effiziente außergerichtliche Rechtsbehelfe zu sorgen, unabhängige Streitbeilegungsstellen vorgesehen werden. Diese Stellen sollten für die Entscheidung über Streitigkeiten betreffend die Rechtmäßigkeit von Inhalten, die von Nutzern hochgeladen wurden, und über die Anwendung der allgemeinen Geschäftsbedingungen zuständig sein. Dieses Verfahren sollte jedoch den Nutzer nicht daran hindern, das Recht auf Zugang zur Justiz und auf weitere gerichtliche Rechtsbehelfe auszuüben.

(17)

Mit der Einrichtung von unabhängigen Streitbeilegungsstellen könnten die Gerichte entlastet werden, indem sie unbeschadet des Rechts auf gerichtlichen Rechtsbehelfe für eine rasche Beilegung von Streitigkeiten bezüglich des Umgangs mit Inhalten sorgen. Da insbesondere Hosting-Plattformen für Inhalte, die eine beträchtliche Marktmacht haben, von der Einführung von unabhängigen Streitbeilegungsstellen profitieren können, sollten sie zur Finanzierung dieser Stellen beitragen. Die europäische Einrichtung sollte den entsprechenden Fonds unabhängig verwalten und damit die Mitgliedstaaten bei der Finanzierung der laufenden Kosten der unabhängigen Streitbeilegungsstellen zu unterstützen. Die Mitgliedstaaten sollten sicherstellen, dass diesen Stellen Mittel in ausreichender Höhe bereitgestellt werden, um ihre Zuständigkeit und Unabhängigkeit sicherzustellen.

(18)

Die Nutzer sollten das Recht haben, eine faire und unabhängige Streitbeilegungsstelle als alternative Streitbeilegungsverfahren heranzuziehen, um die auf eine Beschwerde hin erfolgte Entscheidung einer Hosting-Plattform für Inhalte über von ihnen hochgeladene Inhalte anzufechten. Die Beschwerdeführer sollten ebenfalls dieses Recht haben, sofern sie in einem Zivilverfahren über den betreffenden Inhalt klagebefugt wären.

(19)

Zuständig sollte die unabhängige Streitbeilegungsstelle in dem Mitgliedstaat sein, in dem der Inhalt, der Gegenstand der Streitigkeit ist, hochgeladen wurde. Natürliche Personen sollten stets die Möglichkeit haben, bei der unabhängigen Streitbeilegungsstelle ihres Wohnsitzmitgliedstaates Beschwerde einzulegen.

(20)

Die Meldung von Missständen trägt dazu bei, Gesetzesverstößen vorzubeugen, und sie legt Bedrohungen oder Schädigungen des Gemeinwohls offen, die sonst nicht erkannt geworden wären. Der Schutz von Hinweisgebern ist daher wichtig, um die Meinungsfreiheit, die Freiheit der Medien und das Recht der Öffentlichkeit auf den Zugang zu Informationen zu schützen. Für einschlägige Verstöße gegen diese Verordnung sollte daher die Richtlinie (EU) 2019/1937 des Europäischen Parlaments und des Rates (1) gelten. Die genannte Richtlinie sollte daher entsprechend geändert werden.

(21)

Diese Verordnung sollte die Bestimmung enthalten, dass über ihre Umsetzung Bericht erstattet und sie innerhalb einer angemessenen Frist überarbeitet werden muss. Zu diesem Zweck sollten die gemäß der Verordnung von den Mitgliedstaaten zur Verfügung gestellten unabhängigen Streitbeilegungsstellen Berichte über die Zahl der an sie überwiesenen Fälle, die jeweils gefassten Beschlüsse — mit erforderlichenfalls anonymisierten personenbezogenen Daten –, einschließlich der Zahl der Fälle, die bearbeitet wurden, der Daten über systembedingte Probleme, der Tendenzen und der Identifizierung der Plattformen, die die Beschlüsse der unabhängigen Streitbeilegungsstellen nicht befolgen, erstellen.

(22)

Da das Ziel dieser Verordnung, nämlich die Schaffung eines Rechtsrahmens für vertragliche Rechte in Bezug auf den Umgang mit Inhalten in der Union, von den Mitgliedstaaten nicht ausreichend verwirklicht werden kann, sondern vielmehr wegen ihres Umfangs und ihrer Wirkungen auf Unionsebene besser zu verwirklichen ist, kann die Union im Einklang mit dem in Artikel 5 des Vertrags über die Europäische Union verankerten Subsidiaritätsprinzip tätig werden. Entsprechend dem in demselben Artikel genannten Grundsatz der Verhältnismäßigkeit geht diese Verordnung nicht über das für die Verwirklichung dieses Ziels erforderliche Maß hinaus.

(23)

Die in der Verordnung beschriebenen Maßnahmen auf Unionsebene würden maßgeblich unterstützt, wenn eine europäische Einrichtung mit einer angemessenen Überwachung und Sicherstellung der Einhaltung der Bestimmungen dieser Verordnung durch die Hosting-Plattformen für Inhalte beauftragt wird. Zu diesem Zweck sollte die Kommission die Möglichkeiten prüfen, eine bestehende oder neue europäische Agentur oder europäische Stelle zu benennen oder ein Netz oder nationale Behörden zu koordinieren, wenn es darum geht, die Einhaltung der für den Umgang mit Inhalten auf der Grundlage von Transparenzberichten festgelegten Normen und die Überwachung der Algorithmen zu überprüfen, die von Hosting-Plattformen für Inhalte für die Zwecke des Umgangs mit Inhalten verwendet werden (im Folgenden „europäische Einrichtung“).

(24)

Damit die mit der Hervorhebung von Inhalten verbundenen Risiken bewertet werden, sollte ein halbjährlicher Dialog zwischen den Hosting-Plattformen für Inhalte mit beträchtlicher Marktmacht und der europäischen Einrichtung darüber eingerichtet werden, wie sich die Strategien für den Umgang mit Inhalten rechtlichen Charakters auf die Grundrechte auswirken.

(25)

Diese Verordnung steht im Einklang mit allen Grundrechten und achtet alle Freiheiten und Grundsätze, die mit der Charta der Grundrechte der Europäischen Union anerkannt wurden und in den Europäischen Verträgen verankert sind, insbesondere die Meinungs- und Informationsfreiheit sowie das Recht auf einen wirksamen Rechtsbehelf und auf ein faires Gerichtsverfahren —

HABEN FOLGENDE VERORDNUNG ERLASSEN:

Artikel 1

Zweck

Mit dieser Verordnung soll das reibungslose Funktionieren des Binnenmarkts gefördert werden, indem Bestimmungen zur Schaffung von angemessenen vertraglichen Rechten im Hinblick auf den Umgang mit Inhalten festgelegt und unabhängige Verfahren zur Beilegung von Streitigkeiten im Bereich des Umgangs mit Inhalten geschaffen werden.

Artikel 2

Geltungsbereich

1.   Diese Verordnung gilt für Hosting-Plattform für Inhalte, die Inhalte hosten und handhaben, die in der Union auf Websites oder über Anwendungen für die Öffentlichkeit zugänglich sind, unabhängig davon, wo die Hosting-Plattform für Inhalte niedergelassen oder registriert ist bzw. wo sich ihr Hauptgeschäftssitz befindet.

2.   Diese Verordnung gilt nicht für Hosting-Plattformen für Inhalte, die

a)

Art sind oder

b)

weniger als [100 000] (2) Nutzer haben.

Artikel 3

Begriffsbestimmungen

Für die Zwecke dieser Verordnung bezeichnet der Ausdruck

(1)

„Hosting-Plattform für Inhalte“ eine Dienstleistung der Informationsgesellschaft gemäß Artikel 1 Absatz 1 Buchstabe b der Richtlinie (EU) 2015/1535 des Europäischen Parlaments und des Rates (3), deren wichtigster Zweck es ausschließlich oder unter anderem ist, angemeldeten oder nicht angemeldeten Nutzern das Hochladen von Inhalten zu ermöglichen, die auf einer öffentlich zugänglichen Website oder Anwendung angezeigt werden sollen;

(2)

„Hosting-Plattform für Inhalte mit beträchtlicher Marktmacht“ eine Hosting-Plattform für Inhalte, die mindestens zwei der folgenden Merkmale aufweist:

a)

die Kapazität zur Entwicklung oder Aufrechterhaltung ihrer Nutzerbasis aufgrund von Netzeffekten, durch die ein erheblicher Anteil der Nutzer gebunden wird, oder die Tatsache, dass ihre Stellung auf dem nachgelagerten Markt es ihnen erlaubt, eine wirtschaftliche Abhängigkeit zu erzeugen;

b)

eine beträchtliche Größe innerhalb des Marktes, die entweder anhand der Anzahl aktiver Nutzer oder anhand des weltweiten Jahresumsatzes der Plattform gemessen wird;

c)

eine Eingliederung in ein Geschäftsumfeld bzw. in eine Netzwerkumgebung, das bzw. die vom jeweiligen Konzern oder von der Muttergesellschaft kontrolliert wird, was die Übertragung der Marktmacht auf einen benachbarten Markt ermöglicht;

d)

die Rolle eines Gatekeepers für eine ganze Kategorie von Inhalten oder Informationen;

e)

den Zugang zu großen Mengen hochwertiger personenbezogener Daten, die entweder von Nutzern bereitgestellt oder auf der Grundlage der Überwachung des Verhaltens der Nutzer im Internet abgeleitet werden, wobei diese Daten für die Bereitstellung und Verbesserung eines vergleichbaren Dienstes unerlässlich und für potenzielle Wettbewerber schwer zu erhalten oder zu reproduzieren sind;

(3)

„Inhalte“ Konzepte, Gedanken, Ausdrucksformen oder Informationen in jedem Format, etwa als Text, Bild sowie als Audio- oder Videoaufnahme;

(4)

„illegale Inhalte“ alle Inhalte, die nicht mit dem Unionsrecht oder dem Recht des Mitgliedstaats, in dem das Hosting erfolgt, im Einklang stehen;

(5)

„Umgang mit Inhalten“ die Moderation und das Kuratieren von Inhalten auf Hosting-Plattformen für Inhalte;

(6)

„Moderation von Inhalten“ ein automatisiertes oder durch menschliche Betreiber vorgenommenes Vorgehen, bei dem von den Nutzern erzeugte, veröffentlichte oder geteilte Inhalte überwacht und festgelegte Bestimmungen und Leitlinien auf die Inhalte angewendet werden, damit diese Inhalte den Rechts- und Verwaltungsvorschriften, den Regeln der Nutzergemeinschaft und den allgemeinen Geschäftsbedingungen entsprechen, sowie die zu diesem Zweck ergriffenen Maßnahmen der Plattform, etwa die Entfernung von Inhalten oder die Löschung oder Sperrung eines Nutzerkontos;

(7)

„Kuratieren von Inhalten“ das auf der Grundlage individueller Nutzerprofile erfolgende Auswählen, Optimieren, Priorisieren und Empfehlen von Inhalten, die auf einer Website oder Anwendung angezeigt werden sollen;

(8)

„allgemeine Geschäftsbedingungen“ alle Bedingungen oder Bestimmungen, die unabhängig von ihrer Bezeichnung oder Form das Vertragsverhältnis zwischen der Hosting-Plattform für Inhalte und ihren Nutzern regeln und einseitig von der Hosting-Plattform für Inhalte festgelegt werden;

(9)

„Nutzer“ jede natürliche oder juristische Person, die die Dienste einer Hosting-Plattform für Inhalte in Anspruch nimmt oder mit Inhalten, die auf einer derartigen Plattform bereitgestellt werden, interagiert;

(10)

„für das Hochladen von Inhalten verantwortliche Person“ eine natürliche oder juristische Person, die einer Hosting-Plattform für Inhalte Inhalte hinzufügt, unabhängig davon, ob diese für andere Nutzer sichtbar sind oder nicht;

(11)

„Beschwerde“ eine formelle Benachrichtigung, in der darauf hingewiesen wird, dass bestimmte Inhalte den Rechts- und Verwaltungsvorschriften, den Regeln der Nutzergemeinschaft oder den allgemeinen Geschäftsbedingungen nicht entsprechen.

Artikel 4

Grundsätze für den Umgang mit Inhalten

1.   Der Umgang mit Inhalten erfolgt in angemessener, rechtmäßiger und transparenter Weise. Der Umgang mit Inhalten erfolgt in zweckdienlicher und sachgerechter Weise, steht in einem angemessenen Verhältnis zu Art und Umfang der Inhalte und beschränkt sich auf die Maßnahmen, die für den jeweiligen Zweck des Umgangs mit Inhalten erforderlich sind. Die Hosting-Plattformen für Inhalte sind dafür verantwortlich, dass ihr Umgang mit Inhalten fair, transparent und verhältnismäßig ist.

2.   Beim Umgang mit Inhalten durch die Hosting-Plattformen für Inhalte dürfen Nutzer keinen diskriminierenden Praktiken, ausbeuterischem oder ausschließendem Verhalten ausgesetzt werden, etwa der Entfernung von nutzergenerierten Inhalten aufgrund von Aussehen, ethnischer Herkunft, Geschlecht, sexueller Ausrichtung, Religion oder Weltanschauung, Behinderung, Alter, Schwangerschaft oder Kindererziehung, Sprache oder Zugehörigkeit zu einer bestimmten Gesellschaftsschicht.

3.   Die Hosting-Plattformen für Inhalte informieren die Nutzer in ausreichender Weise über ihre Profile mit Blick auf das Kuratieren von Inhalten und die individuellen Kriterien, nach denen Hosting-Plattformen für Inhalte Inhalte für ihre Nutzer kuratieren, sowie darüber, ob und zu welchem Zweck Algorithmen verwendet werden.

4.   Die Hosting-Plattformen für Inhalte räumen den Nutzern in angemessenem Umfang Einfluss auf das Kuratieren der ihnen angezeigten Inhalte ein, wozu auch die Möglichkeit gehört, vollständig auf jegliches Kuratieren von Inhalten zu verzichten. Insbesondere dürfen Nutzern kuratierte Inhalte nur dann angezeigt werden, wenn sie aus freier Entscheidung, für den konkreten Fall, in Kenntnis der Sachlage und unzweideutig vorab darin einwilligen.

Artikel 5

Strukturierter Dialog über die Risiken im Zusammenhang mit dem Umgang mit Inhalten

Im Rahmen eines strukturierten Dialogs über die Risiken mit der europäischen Einrichtung zusammen mit den zuständigen nationalen Behörden legen die Hosting-Plattformen für Inhalte mit beträchtlicher Marktmacht der europäischen Einrichtung einen halbjährlichen Bericht über die Auswirkungen auf die Grundrechte, über ihr jeweiliges Risikomanagement im Zusammenhang mit dem Umgang von Inhalten sowie über die Art und Weise, wie sie diese Risiken mindern, vor.

Artikel 6

Transparenzpflichten

1.   Die Anbieter digitaler Dienste ergreifen die erforderlichen Maßnahmen, um die Offenlegung der Finanzierung von Interessengruppen, zu denen die Nutzer der digitalen Dienste des Anbieters eine Verbindung aufweisen, und der Einzelheiten der Art der Beziehung zwischen diesen Interessengruppen und Nutzern zu ermöglichen. Mithilfe dieser Offenlegung muss die rechtlich verantwortliche Person identifiziert werden können.

2.   Die kommerziellen Anbieter digitaler Dienste mit Niederlassung in Drittstaaten benennen einen gesetzlichen Vertreter, der mit den Interessen der Nutzer in der Europäischen Union befasst ist, und veröffentlichen die Kontaktdaten dieses Vertreters auf ihrer jeweiligen Website bzw. machen sie zugänglich.

Artikel 7

Beschwerderecht

1.   Jede natürliche oder juristische Person oder öffentliche Einrichtung, der über eine Website, Anwendung oder eine sonstige Form von Software Inhalte angezeigt werden, hat das Recht, eine Beschwerde gemäß dieser Verordnung einzureichen.

2.   Die Mitgliedstaaten sehen Sanktionen für Fälle vor, in denen Personen, die für die Zwecke ihrer gewerblichen, geschäftlichen, handwerklichen oder beruflichen Tätigkeit tätig sind, systematisch und wiederholt nicht den Tatsachen entsprechende Beschwerden einreichen. Diese Sanktionen müssen wirksam, verhältnismäßig und abschreckend sein.

Artikel 8

Beschwerdeverfahren

Die allgemeinen Geschäftsbedingungen von Hosting-Plattformen für Inhalte enthalten klare, zugängliche, verständliche und eindeutige Angaben zum Beschwerdeverfahren, insbesondere

a)

die Frist, innerhalb derer die für das Hochladen der fraglichen Inhalte verantwortliche Person über ein Beschwerdeverfahren in Kenntnis gesetzt werden muss,

b)

die Frist, innerhalb derer die für das Hochladen der fraglichen Inhalte verantwortliche Person Einspruch erheben kann,

c)

die Frist, innerhalb derer die Hosting-Plattform für Inhalte eine Beschwerde zügig behandeln und eine Entscheidung fällen muss,

d)

die Frist, innerhalb derer die Hosting-Plattform für Inhalte beide Seiten des Verfahrens über die Entscheidung, einschließlich einer Begründung für die ergriffenen Maßnahmen, in Kenntnis setzen muss.

Artikel 9

Inhalt von Beschwerden

1.   Eine Beschwerde über Inhalte muss mindestens folgende Informationen enthalten:

a)

einen Link zu den fraglichen Inhalten und gegebenenfalls — etwa im Fall von Videoinhalten — einen Zeitstempel,

b)

den Grund der Beschwerde,

c)

Belege für die in der Beschwerde gemachte Behauptung,

d)

eine Erklärung des Beschwerdeführers, nach bestem Wissen und Gewissen zu handeln,

e)

die Identität des Beschwerdeführers, sofern es sich um eine Verletzung von Persönlichkeitsrechten handelt.

2.   Handelt es sich um eine Zuwiderhandlung gemäß Absatz 1 Buchstabe e, ist die Beschwerde durch die von der Verletzung der Persönlichkeitsrechte betroffene Person oder den Inhaber der verletzten Urheberrechte oder eine Person, die im Namen dieser Person handelt, einzureichen.

Artikel 10

Mitteilungen an die für das Hochladen der Inhalte verantwortliche Person

1.   Wenn eine Beschwerde eingereicht wurde und noch bevor eine Entscheidung in Bezug auf die fraglichen Inhalte erfolgt, wird die für das Hochladen der Inhalte verantwortliche Person über Folgendes in Kenntnis gesetzt:

a)

den Grund der Beschwerde und der Maßnahmen, die die Hosting-Plattform für Inhalte eventuell ergreift,

b)

die erforderlichen Informationen über den Verfahrensablauf,

c)

Informationen über das in Absatz 3 vorgesehene Recht auf Gegendarstellung,

d)

zur Verfügung stehende Rechtsmittel bei einer nicht den Tatsachen entsprechenden Beschwerde.

2.   Die in Absatz 1 aufgeführten Informationen werden nicht übermittelt, wenn die Hosting-Plattform für Inhalte von einer staatlichen Behörde darüber in Kenntnis gesetzt wurde, dass strafrechtliche Ermittlungen stattfinden.

3.   Die für das Hochladen der Inhalte verantwortliche Person hat das Recht, der Hosting-Plattform für Inhalte mit einer Zurückweisung der Beschwerde zu antworten. Die Hosting-Plattform für Inhalte berücksichtigt die Antwort der für das Hochladen der Inhalte verantwortlichen Person bei der Entscheidung über die zu ergreifenden Maßnahmen.

Artikel 11

Entscheidungen über Beschwerden

1.   Die Hosting-Plattformen für Inhalte stellen sicher, dass Entscheidungen über Beschwerden von qualifiziertem Personal und unverzüglich nach Abschluss der erforderlichen Untersuchungen gefällt werden.

2.   Nach einer Beschwerde entscheidet die Hosting-Plattform für Inhalte unverzüglich darüber, ob der fragliche Inhalt zu löschen, zu entfernen oder zu sperren ist, wenn er den Rechtsvorschriften nicht entspricht. Unbeschadet des Artikel 14 Absatz 2 darf die Tatsache, dass eine Hosting-Plattform für Inhalte einen bestimmten Inhalt als nicht konform eingestuft hat, in keinem Fall automatisch dazu führen, dass Inhalte eines anderen Nutzers entfernt, gelöscht oder unzugänglich gemacht werden.

Artikel 12

Inkenntnissetzung über Entscheidungen

Sobald eine Hosting-Plattformen für Inhalte eine Entscheidung getroffen hat, setzt sie alle am Beschwerdeverfahren beteiligten Parteien vom Ergebnis der Entscheidung in Kenntnis und stellt auf klare und einfache Weise folgende Angaben zur Verfügung:

a)

die Gründe der Entscheidung,

b)

ob die Entscheidung von allein einem Menschen oder unter Heranziehung eines Algorithmus getroffen wurde;

c)

Informationen über die Möglichkeit einer Überprüfung gemäß Artikel 13 und eines gerichtlichen Rechtsbehelfs für die Parteien.

Artikel 13

Überprüfung von Entscheidungen

1.   Die Hosting-Plattformen für Inhalte können ein Verfahren anbieten, über das die Nutzer eine Überprüfung ihrer Entscheidungen verlangen können.

2.   Die Hosting-Plattformen für Inhalte mit beträchtlicher Marktmacht sind verpflichtet, das Überprüfungsverfahren nach Absatz 1 anzubieten.

3.   Die endgültige Entscheidung über die Überprüfung wird in jedem Fall von einem Menschen getroffen.

Artikel 14

Entfernung von Inhalten

1.   Unbeschadet gerichtlicher oder verwaltungsrechtlicher Anordnungen in Bezug auf Online-Inhalte werden Inhalte, die Gegenstand einer Beschwerde sind, weiterhin angezeigt, solange die Bewertung ihrer Rechtmäßigkeit aussteht.

2.   Die Hosting-Plattformen für Inhalte handeln zügig, um offensichtlich illegale Inhalte unzugänglich zu machen bzw. zu entfernen.

Artikel 15

Unabhängige Streitbeilegung

1.   Die Mitgliedstaaten stellen unabhängige Streitbeilegungsstellen zur Verfügung, um für schnelle und effiziente außergerichtliche Rechtsbehelfe zu sorgen, wenn Entscheidungen über die Moderation von Inhalten angefochten werden.

2.   Die unabhängigen Streitbeilegungsstellen setzen sich aus unabhängigen Rechtssachverständigen zusammen, die den Auftrag haben, über Streitigkeiten zwischen Hosting-Plattformen für Inhalte und Nutzern zu entscheiden, bei denen es um die Frage geht, ob die betreffenden Inhalte den Rechts- und Verwaltungsvorschriften, den Leitlinien der Gemeinschaft und den allgemeinen Geschäftsbedingungen entsprechen.

3.   Die Überweisung eines Streitfalls, der die Moderation von Inhalten betrifft, an eine unabhängige Streitbeilegungsstelle schließt nicht aus, dass ein Nutzer weitere Rechtsmittel vor Gericht einlegen kann, es sei denn, die Streitigkeit wurde einvernehmlich beigelegt.

4.   Die Hosting-Plattformen für Inhalte mit beträchtlicher Marktmacht leisten über einen Sonderfonds, der von der europäischen Einrichtung verwaltet wird, einen finanziellen Beitrag zu den Betriebskosten der unabhängigen Streitbeilegungsstellen, um die Mitgliedstaaten bei der Finanzierung dieser Stellen zu unterstützen. Die Mitgliedstaaten stellen sicher, dass die unabhängigen Streitbeilegungsstellen mit angemessenen Ressourcen ausgestattet werden, um ihre Kompetenz und Unabhängigkeit sicherzustellen.

Artikel 16

Verfahrensvorschriften für die unabhängige Streitbeilegung

1.   Die für das Hochladen der Inhalte verantwortliche Person und Dritte, wie eine Ombudsperson mit einem berechtigten Interesse am Schutz der Meinungs- und Informationsfreiheit, haben das Recht, die zuständige unabhängige Streitbeilegungsstelle mit einem Fall der Moderation von Inhalten zu befassen, wenn die Hosting-Plattform für Inhalte entschieden hat, Inhalte zu löschen, zu entfernen oder zu sperren, oder anderweitig in einer Weise tätig wird, die der Maßnahme zuwiderläuft, die die für das Hochladen der Inhalte verantwortliche Person ihren eigenen Äußerungen zufolge bevorzugt hätte, oder die die Meinungs- und Informationsfreiheit beeinträchtigt.

2.   Hat die Hosting-Plattform für Inhalte entschieden, Inhalte, die Gegenstand einer Beschwerde sind, nicht zu entfernen, so hat der Beschwerdeführer das Recht, die zuständige unabhängige Streitbeilegungsstelle mit der Angelegenheit zu befassen, sofern der Beschwerdeführer in einem Zivilverfahren in Bezug auf den betreffenden Inhalt klagebefugt wäre.

3.   Gerichtlich zuständig ist die unabhängige Streitbeilegungsstelle, die sich in dem Mitgliedstaat befindet, in dem der Inhalt, der Gegenstand der Streitigkeit ist, hochgeladen wurde. Natürliche Personen sollten stets die Möglichkeit haben, bei der unabhängigen Streitbeilegungsstelle ihres Wohnsitzmitgliedstaates Beschwerde einzulegen.

4.   Hat der Beschwerdeführer das Recht, einen Fall der Moderation von Inhalten gemäß Absatz 2 an eine unabhängige Streitbeilegungsstelle zu überweisen, so kann er den Fall an die unabhängige Streitbeilegungsstelle in dem Mitgliedstaat überweisen, in dem er bzw. die Person, die die Inhalte hochgeladen hat, sofern diese den Dienst für nichtkommerzielle Zwecke nutzt, seinen bzw. ihren gewöhnlichen Aufenthalt hat.

5.   Ist ein Fall der Moderation von Inhalten zu derselben Frage Gegenstand einer Befassung einer anderen unabhängigen Streitbeilegungsstelle, so kann die unabhängige Streitbeilegungsstelle das Verfahren in Bezug auf eine Befassung aussetzen. Wenn eine Frage der Moderation von Inhalten Gegenstand von Empfehlungen einer unabhängigen Streitbeilegungsstelle war, kann die unabhängige Streitbeilegungsstelle eine Befassung ablehnen.

6.   Die Mitgliedstaaten legen alle sonstigen erforderlichen Vorschriften und Verfahren für die in ihre Zuständigkeit fallenden unabhängigen Streitbeilegungsstellen fest.

Artikel 17

Personenbezogene Daten

Die Verarbeitung personenbezogener Daten nach dieser Verordnung muss im Einklang mit der Verordnung (EU) Nr. 2016/679 des Europäischen Parlaments und des Rates (4) und mit der Richtlinie 2002/58/EG des Europäischen Parlaments und des Rates (5) erfolgen.

Artikel 18

Meldung von Verstößen und Schutz von Hinweisgebern

Für die Meldung von Verstößen gegen diese Verordnung und für die Personen, die solche Verstöße melden, gilt die Richtlinie (EU) 2019/1937.

Artikel 19

Änderung der Richtlinie (EU) 2019/1937

Die Richtlinie (EU) 2019/1937 wird wie folgt geändert:

(1)

In Artikel 2 Absatz 1 Buchstabe a wird folgende Ziffer angefügt:

„xi)

Umgang mit Online-Inhalten;“;

(2)

In Teil I des Anhangs wird folgender Buchstabe angefügt:

„K.

Artikel 2 Absatz 1 Buchstabe a Ziffer xi — Umgang mit Online-Inhalten.

Verordnung [XXX] des Europäischen Parlaments und des Rates über vertragliche Rechte in Bezug auf den Umgang mit Inhalten.“.

Artikel 20

Berichterstattung, Bewertung und Überprüfung

1.   Die Mitgliedstaaten stellen der Kommission alle relevanten Informationen betreffend die Umsetzung und Anwendung dieser Verordnung zur Verfügung. Auf der Grundlage der vorgelegten Informationen und einer öffentlichen Konsultation wird die Kommission bis zum … [drei Jahre nach Inkrafttreten dieser Verordnung] dem Europäischen Parlament und dem Rat einen Bericht über die Durchführung und Anwendung dieser Verordnung vorlegen und prüfen, ob zusätzliche Maßnahmen, gegebenenfalls einschließlich Änderungen dieser Verordnung, erforderlich sind.

2.   Unbeschadet der in anderen Rechtsakten der Union festgelegten Berichterstattungspflichten übermitteln die Mitgliedstaaten der Kommission jährlich die folgenden Statistiken:

a)

die Zahl der Streitigkeiten, mit denen unabhängige Streitbeilegungsstellen befasst wurden, und die Art der Inhalte, die Gegenstand der Streitigkeiten waren;

b)

die Zahl der von den unabhängigen Streitbeilegungsstellen beigelegten Fälle, aufgeschlüsselt nach Ergebnissen.

Artikel 21

Inkrafttreten

Diese Verordnung tritt am zwanzigsten Tag nach ihrer Veröffentlichung im Amtsblatt der Europäischen Union in Kraft.

Sie gilt ab dem [XX].

Diese Verordnung ist in allen ihren Teilen verbindlich und gilt unmittelbar in jedem Mitgliedstaat.

Geschehen zu … am …

Im Namen des Europäischen Parlaments

Der Präsident

Im Namen des Rates

Der Präsident


(1)  Richtlinie (EU) 2019/1937 des Europäischen Parlaments und des Rates vom 23. Oktober 2019 zum Schutz von Personen, die Verstöße gegen das Unionsrecht melden (ABl. L 305 vom 26.11.2019, S. 17).

(2)  Bei der Festlegung der Nutzerzahl sollte die Kommission die Lage von KMU und Start-up-Unternehmen berücksichtigen.

(3)  Richtlinie (EU) 2015/1535 des Europäischen Parlaments und des Rates vom 9. September 2015 über ein Informationsverfahren auf dem Gebiet der technischen Vorschriften und der Vorschriften für die Dienste der Informationsgesellschaft (ABl. L 241 vom 17.9.2015, S. 1).

(4)  Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung) (ABl. L 119 vom 4.5.2016, S. 1).

(5)  Richtlinie 2002/58/EG des Europäischen Parlaments und des Rates vom 12. Juli 2002 über die Verarbeitung personenbezogener Daten und den Schutz der Privatsphäre in der elektronischen Kommunikation (Datenschutzrichtlinie für elektronische Kommunikation) (ABl. L 201 vom 31.7.2002, S. 37).


Top