SCHLUSSANTRÄGE DES GENERALANWALTS

HENRIK SAUGMANDSGAARD ØE

vom 15. Juli 2021 ( 1 ) ( i )

Rechtssache C‑401/19

Republik Polen

gegen

Europäisches Parlament,

Rat der Europäischen Union

„Nichtigkeitsklage – Richtlinie (EU) 2019/790 – Urheberrecht und verwandte Schutzrechte – Nutzung geschützter Inhalte durch Diensteanbieter für das Teilen von Online‑Inhalten – Öffentliche Wiedergabe – Haftung dieser Anbieter – Art. 17 – Haftungsbefreiung – Abs. 4 Buchst. b und Buchst. c letzter Satzteil – Filterung der von Nutzern hochgeladenen Inhalte – Freiheit der Meinungsäußerung und Informationsfreiheit – Charta der Grundrechte der Europäischen Union – Art. 11 Abs. 1 – Vereinbarkeit – Schutzvorkehrungen zur Begrenzung dieser Filterung“

I. Einleitung

1.

Mit der vorliegenden Klage beantragt die Republik Polen gemäß Art. 263 AEUV, Art. 17 Abs. 4 Buchst. b und Buchst. c letzter Satzteil der Richtlinie (EU) 2019/790 des Europäischen Parlaments und des Rates vom 17. April 2019 über das Urheberrecht und die verwandten Schutzrechte im digitalen Binnenmarkt und zur Änderung der Richtlinien 96/9/EG und 2001/29/EG ( 2 ) für nichtig zu erklären, hilfsweise, diesen Art. 17 in vollem Umfang für nichtig zu erklären.

2.

Mit dieser Klage wird der Gerichtshof ersucht, zu prüfen, inwieweit die Diensteanbieter für das Teilen von Online‑Inhalten haften, wenn Nutzer dieser Dienste Inhalte hochladen ( 3 ), die durch das Urheberrecht oder durch verwandte Schutzrechte geschützt sind.

3.

Mit dieser Problematik hat sich der Gerichtshof bereits in den verbundenen Rechtssachen C‑682/18, YouTube, und C‑683/18, Cyando, befasst, und zwar im Hinblick auf den rechtlichen Rahmen, der durch die Richtlinie 2000/31/EG über bestimmte rechtliche Aspekte der Dienste der Informationsgesellschaft, insbesondere des elektronischen Geschäftsverkehrs, im Binnenmarkt („Richtlinie über den elektronischen Geschäftsverkehr“) ( 4 ) und durch die Richtlinie 2001/29/EG zur Harmonisierung bestimmter Aspekte des Urheberrechts und der verwandten Schutzrechte in der Informationsgesellschaft ( 5 ) vorgegeben ist. Diesmal bezieht sich die Prüfung auf Art. 17 der Richtlinie 2019/790, der die Haftung von Diensteanbietern für das Teilen von Online‑Inhalten neu regelt.

4.

Wie ich in den vorliegenden Schlussanträgen erläutern werde, erlegt diese Bestimmung den betreffenden Anbietern die Verpflichtung auf, die von den Nutzern ihrer Dienste online gestellten Inhalte zu überwachen, damit das Hochladen von Werken und Schutzgegenständen verhindert wird, die die Rechteinhaber nicht auf diesen Diensten zugänglich machen wollen. Diese vorbeugende Überwachung wird normalerweise in Form einer Filterung solcher Inhalte erfolgen, die mit Hilfe von Software-Tools durchgeführt wird.

5.

Eine solche Filterung wirft aber komplexe Fragen auf, die die Klägerin im Hinblick auf die durch Art. 11 der Charta der Grundrechte der Europäischen Union (im Folgenden: Charta) garantierte Meinungs- und Informationsfreiheit der Nutzer von Sharing-Diensten aufwirft. Der Gerichtshof wird im Anschluss an seine Urteile Scarlet Extended ( 6 ), SABAM ( 7 ) und Glawischnig-Piesczek ( 8 ) zu klären haben, ob und, wenn ja, unter welchen Voraussetzungen eine solche Filterung mit dieser Freiheit vereinbar ist. Dabei wird er die Vorteile, aber auch die Risiken einer solchen Filterung berücksichtigen und in diesem Zusammenhang sicherstellen müssen, dass ein „ausgewogenes Verhältnis“ zwischen dem Interesse der Rechteinhaber an einem wirksamen Schutz ihres geistigen Eigentums einerseits und dem Interesse dieser Nutzer sowie der breiten Öffentlichkeit an einem freien Informationsfluss im Internet andererseits gewahrt bleibt.

6.

In den vorliegenden Schlussanträgen werde ich darlegen, dass der Unionsgesetzgeber aus meiner Sicht bestimmten Online-Vermittlern gewisse Überwachungs- und Filterungspflichten unter Wahrung des Rechts auf freie Meinungsäußerung auferlegen darf, sofern diese Pflichten allerdings mit ausreichenden Schutzvorkehrungen einhergehen, damit die Auswirkungen einer solchen Filterung auf die Meinungsfreiheit so gering wie möglich gehalten werden. Da Art. 17 der Richtlinie 2019/790 nach meiner Meinung solche Vorkehrungen enthält, werde ich dem Gerichtshof vorschlagen, diese Bestimmung für gültig zu erklären und dementsprechend die Klage der Republik Polen abzuweisen ( 9 ).

II. Rechtlicher Rahmen

A. Richtlinie 2000/31

7.

Art. 14 („Hosting“) Abs. 1 der Richtlinie 2000/31 bestimmt:

„Die Mitgliedstaaten stellen sicher, dass im Fall eines Dienstes der Informationsgesellschaft, der in der Speicherung von durch einen Nutzer eingegebenen Informationen besteht, der Diensteanbieter nicht für die im Auftrag eines Nutzers gespeicherten Informationen verantwortlich ist, sofern folgende Voraussetzungen erfüllt sind:

a)

Der Anbieter hat keine tatsächliche Kenntnis von der rechtswidrigen Tätigkeit oder Information, und, in Bezug auf Schadenersatzansprüche, ist er sich auch keiner Tatsachen oder Umstände bewusst, aus denen die rechtswidrige Tätigkeit oder Information offensichtlich wird,

oder

b)

der Anbieter wird, sobald er diese Kenntnis oder dieses Bewusstsein erlangt, unverzüglich tätig, um die Information zu entfernen oder den Zugang zu ihr zu sperren.“

8.

Art. 15 („Keine allgemeine Überwachungspflicht“) Abs. 1 dieser Richtlinie sieht vor:

„Die Mitgliedstaaten erlegen Anbietern von Diensten im Sinne der Artikel 12, 13 und 14 keine allgemeine Verpflichtung auf, die von ihnen übermittelten oder gespeicherten Informationen zu überwachen oder aktiv nach Umständen zu forschen, die auf eine rechtswidrige Tätigkeit hinweisen.“

B. Richtlinie 2001/29

9.

Art. 3 („Recht der öffentlichen Wiedergabe von Werken und Recht der öffentlichen Zugänglichmachung sonstiger Schutzgegenstände“) Abs. 1 und 2 der Richtlinie 2001/29 lautet:

„(1)   Die Mitgliedstaaten sehen vor, dass den Urhebern das ausschließliche Recht zusteht, die drahtgebundene oder drahtlose öffentliche Wiedergabe ihrer Werke einschließlich der öffentlichen Zugänglichmachung der Werke in der Weise, dass sie Mitgliedern der Öffentlichkeit von Orten und zu Zeiten ihrer Wahl zugänglich sind, zu erlauben oder zu verbieten.

(2)   Die Mitgliedstaaten sehen für folgende Personen das ausschließliche Recht vor, zu erlauben oder zu verbieten, dass die nachstehend genannten Schutzgegenstände drahtgebunden oder drahtlos in einer Weise der Öffentlichkeit zugänglich gemacht werden, dass sie Mitgliedern der Öffentlichkeit von Orten und zu Zeiten ihrer Wahl zugänglich sind:

a)

für die ausübenden Künstler in Bezug auf die Aufzeichnungen ihrer Darbietungen;

b)

für die Tonträgerhersteller in Bezug auf ihre Tonträger;

c)

für die Hersteller der erstmaligen Aufzeichnungen von Filmen in Bezug auf das Original und auf Vervielfältigungsstücke ihrer Filme;

d)

für die Sendeunternehmen in Bezug auf die Aufzeichnungen ihrer Sendungen, unabhängig davon, ob diese Sendungen drahtgebunden oder drahtlos, über Kabel oder Satellit übertragen werden.“

10.

In Art. 5 („Ausnahmen und Beschränkungen“) Abs. 3 dieser Richtlinie heißt es:

„Die Mitgliedstaaten können in den folgenden Fällen Ausnahmen oder Beschränkungen in Bezug auf die in den Artikeln 2 und 3 vorgesehenen Rechte vorsehen:

d)

für Zitate zu Zwecken wie Kritik oder Rezensionen …

k)

für die Nutzung zum Zwecke von Karikaturen, Parodien oder Pastiches;

…“

C. Richtlinie 2019/790

11.

Art. 17 („Nutzung geschützter Inhalte durch Diensteanbieter für das Teilen von Online‑Inhalten“) der Richtlinie 2019/790 lautet:

„(1)   Die Mitgliedstaaten sehen vor, dass ein Diensteanbieter für das Teilen von Online‑Inhalten eine Handlung der öffentlichen Wiedergabe oder eine Handlung der öffentlichen Zugänglichmachung für die Zwecke dieser Richtlinie vornimmt, wenn er der Öffentlichkeit Zugang zu von seinen Nutzern hochgeladenen urheberrechtlich geschützten Werken oder sonstigen Schutzgegenständen verschafft.

Ein Diensteanbieter für das Teilen von Online‑Inhalten muss deshalb die Erlaubnis von den in Artikel 3 Absatz 1 und 2 der Richtlinie 2001/29… genannten Rechteinhabern einholen, etwa durch den Abschluss einer Lizenzvereinbarung, damit er Werke oder sonstige Schutzgegenstände öffentlich wiedergeben oder öffentlich zugänglich machen darf.

(2)   Die Mitgliedstaaten sehen vor, dass eine von einem Diensteanbieter für das Teilen von Online‑Inhalten – zum Beispiel durch Abschluss einer Lizenzvereinbarung – eingeholte Erlaubnis auch für Handlungen gilt, die von Nutzern von Diensten ausgeführt werden und die in den Geltungsbereich des Artikels 3 der Richtlinie 2001/29… fallen, sofern diese Nutzer nicht auf der Grundlage einer gewerblichen Tätigkeit handeln oder mit ihrer Tätigkeit keine erheblichen Einnahmen erzielen.

(3)   Nimmt ein Diensteanbieter für das Teilen von Online‑Inhalten eine Handlung der öffentlichen Wiedergabe oder der öffentlichen Zugänglichmachung unter den in diesem Artikel festgelegten Bedingungen vor, so findet die Beschränkung der Verantwortlichkeit nach Artikel 14 Absatz 1 der Richtlinie 2000/31… auf die in diesem Artikel beschriebenen Situationen keine Anwendung.

Unterabsatz 1 des vorliegenden Absatzes lässt die mögliche Anwendung von Artikel 14 Absatz 1 der Richtlinie 2000/31… auf die Anbieter derartiger Dienste für Zwecke außerhalb des Geltungsbereichs dieser Richtlinie unberührt.

(4)   Wird die Erlaubnis nicht erteilt, so ist der Diensteanbieter für das Teilen von Online‑Inhalten für nicht erlaubte Handlungen der öffentlichen Wiedergabe, einschließlich der öffentlichen Zugänglichmachung, urheberrechtlich geschützter Werke oder sonstiger Schutzgegenstände verantwortlich, es sei denn, der Anbieter dieser Dienste erbringt den Nachweis, dass er

a)

alle Anstrengungen unternommen hat, um die Erlaubnis einzuholen; und

b)

nach Maßgabe hoher branchenüblicher Standards für die berufliche Sorgfalt alle Anstrengungen unternommen hat, um sicherzustellen, dass bestimmte Werke und sonstige Schutzgegenstände, zu denen die Rechteinhaber den Anbietern dieser Dienste einschlägige und notwendige Informationen bereitgestellt haben, nicht verfügbar sind; und in jedem Fall

c)

nach Erhalt eines hinreichend begründeten Hinweises von den Rechteinhabern unverzüglich gehandelt hat, um den Zugang zu den entsprechenden Werken oder sonstigen Schutzgegenständen zu sperren bzw. die entsprechenden Werke oder sonstigen Schutzgegenstände von seinen Internetseiten zu entfernen, und alle Anstrengungen unternommen hat, um gemäß Buchstabe b das künftige Hochladen dieser Werke oder sonstigen Schutzgegenstände zu verhindern.

(5)   Bei der Feststellung, ob der Diensteanbieter den in Absatz 4 festgelegten Verpflichtungen nachgekommen ist, wird im Lichte des Grundsatzes der Verhältnismäßigkeit unter anderem Folgendes berücksichtigt:

a)

die Art, das Publikum und der Umfang der Dienste sowie die Art der von den Nutzern des Dienstes hochgeladenen Werke oder sonstigen Schutzgegenstände; und

b)

die Verfügbarkeit geeigneter und wirksamer Mittel und die Kosten, die den Anbietern dieser Dienste hierfür entstehen.

(7)   Die Zusammenarbeit zwischen den Diensteanbietern für das Teilen von Online‑Inhalten und den Rechteinhabern darf nicht bewirken, dass von Nutzern hochgeladene Werke oder sonstige Schutzgegenstände, bei denen kein Verstoß gegen das Urheberrecht oder verwandte Schutzrechte vorliegt, nicht verfügbar sind, und zwar auch dann, wenn die Nutzung eines Werkes oder sonstigen Schutzgegenstandes im Rahmen einer Ausnahme oder Beschränkung erlaubt ist.

Die Mitgliedstaaten stellen sicher, dass sich alle Nutzer, die nutzergenerierte Inhalte auf Diensten für das Teilen von Online‑Inhalten hochladen oder auf Diensten für das Teilen von Online‑Inhalten zugänglich machen, in jedem Mitgliedstaat auf jede der folgenden Ausnahmen oder Beschränkungen stützen können:

a)

Zitate, Kritik und Rezensionen;

b)

Nutzung zum Zweck von Karikaturen, Parodien oder Pastiches.

(8)   Die Anwendung dieses Artikels darf nicht zu einer Pflicht zur allgemeinen Überwachung führen.

Die Mitgliedstaaten sehen vor, dass Diensteanbieter für das Teilen von Online‑Inhalten den Rechteinhabern auf deren Ersuchen angemessene Informationen über die Funktionsweise ihrer Verfahren im Hinblick auf die Zusammenarbeit nach Absatz 4 und – im Fall von Lizenzvereinbarungen zwischen den Anbietern dieser Dienste und den Rechteinhabern – Informationen über die Nutzung der unter diese Vereinbarungen fallenden Inhalte bereitstellen.

(9)   Die Mitgliedstaaten sehen vor, dass Diensteanbieter für das Teilen von Online‑Inhalten den Nutzern ihrer Dienste im Fall von Streitigkeiten über die Sperrung des Zugangs zu den von diesen hochgeladenen Werken oder sonstigen Schutzgegenständen bzw. über die Entfernung der von diesen hochgeladenen Werke oder sonstigen Schutzgegenstände wirksame und zügige Beschwerde- und Rechtsbehelfsverfahren zur Verfügung stellen.

Verlangen Rechteinhaber die Sperrung des Zugangs zu ihren Werken oder sonstigen Schutzgegenständen oder die Entfernung dieser Werke oder sonstigen Schutzgegenstände, so begründen sie ihr Ersuchen in angemessener Weise. Im Rahmen des in Unterabsatz 1 vorgesehenen Verfahrens eingereichte Beschwerden sind unverzüglich zu bearbeiten, und Entscheidungen über die Sperrung des Zugangs zu hochgeladenen Inhalten bzw. über die Entfernung hochgeladener Inhalte sind einer von Menschen durchgeführten Überprüfung zu unterziehen. Die Mitgliedstaaten gewährleisten zudem, dass zur Beilegung von Streitigkeiten außergerichtliche Rechtsbehelfsverfahren zur Verfügung stehen. Unbeschadet der Rechte der Nutzer auf wirksamen gerichtlichen Rechtsbehelf müssen derartige Verfahren die unparteiische Beilegung von Streitigkeiten ermöglichen und dürfen den Nutzern den Rechtsschutz nach nationalem Recht nicht vorenthalten. Insbesondere müssen die Mitgliedstaaten gewährleisten, dass die Nutzer Zugang zu einem Gericht oder einem anderen einschlägigen Organ der Rechtspflege haben, um die Inanspruchnahme einer Ausnahme oder Beschränkung für das Urheberrecht und verwandte Schutzrechte geltend machen zu können.

Diese Richtlinie beeinträchtigt in keiner Weise die berechtigte Nutzung, etwa die Nutzung im Rahmen der im Unionsrecht festgelegten Ausnahmen oder Beschränkungen …

Die Diensteanbieter für das Teilen von Online‑Inhalten informieren ihre Nutzer in ihren Geschäftsbedingungen, dass sie Werke und sonstige Schutzgegenstände im Rahmen der im Unionsrecht festgelegten Ausnahmen und Beschränkungen für das Urheberrecht und verwandte Schutzrechte nutzen können.

(10)   Ab dem 6. Juni 2019 veranstaltet die Kommission in Zusammenarbeit mit den Mitgliedstaaten Dialoge zwischen den Interessenträgern, in deren Rahmen bewährte Verfahren für die Zusammenarbeit zwischen den Diensteanbietern für das Teilen von Online‑Inhalten und Rechteinhabern erörtert werden. Die Kommission gibt in Absprache mit den Diensteanbietern für das Teilen von Online‑Inhalten, Rechteinhabern, Nutzerorganisationen und anderen einschlägigen Interessenträgern und unter Berücksichtigung der Ergebnisse der Dialoge zwischen den Interessenträgern Leitlinien zur Anwendung dieses Artikels heraus, insbesondere im Hinblick auf die Zusammenarbeit nach Absatz 4. Bei der Erörterung bewährter Verfahren wird unter anderem die notwendige Ausgewogenheit zwischen den Grundrechten und die Inanspruchnahme von Ausnahmen und Beschränkungen besonders berücksichtigt. Für die Zwecke des Dialogs zwischen den Interessenträgern haben die Nutzerorganisationen Zugang zu angemessenen, von den Diensteanbietern für das Teilen von Online‑Inhalten bereitgestellten Informationen über die Funktionsweise ihrer Verfahren im Hinblick auf Absatz 4.“

III. Dem Rechtsstreit zugrunde liegender Sachverhalt

A. Vorschlag für eine Richtlinie über das Urheberrecht im digitalen Binnenmarkt

12.

Am 14. September 2016 legte die Europäische Kommission einen Richtlinienvorschlag zum Urheberrecht im digitalen Binnenmarkt vor ( 10 ). Mit dem Vorschlag sollten die unionsrechtlichen Vorschriften im Bereich des literarischen und künstlerischen Eigentums – Urheberrecht und verwandte Schutzrechte – und insbesondere die Richtlinie 2001/29 an die Entwicklung der digitalen Technologien angepasst werden ( 11 ). Außerdem sollte die Harmonisierung in diesem Bereich so betrieben werden, dass zwar weiterhin ein hohes Maß an Schutz des geistigen Eigentums gewährleistet war, aber eine breite Verfügbarkeit kreativer Inhalte in der gesamten Union garantiert und ein „ausgewogenes Verhältnis“ zu anderen öffentlichen Interessen im digitalen Umfeld hergestellt wurde.

13.

Hierbei zielte Art. 13 dieses Vorschlags speziell darauf ab, den „Value Gap“, d. h. die Lücke, zu schließen, die zwischen dem von den Anbietern der Online-Sharing-Dienste aus Werken und Schutzgegenständen erschlossenen Wert und den von ihnen an die Rechteinhaber abgeführten Erlösen besteht ( 12 ).

14.

In diesem Zusammenhang sei daran erinnert, dass diese Dienste, die charakteristisch für das interaktive „Web 2.0“ sind und für die YouTube ( 13 ), Soundcloud oder auch Pinterest die bekanntesten Beispiele sind, es jedem ermöglichen, die gewünschten Inhalte automatisch und ohne vorherige Auswahl durch ihre Anbieter online ins Netz zu stellen. Die von den Nutzern dieser Dienste hochgeladenen Inhalte – gemeinhin als „user-generated content“ oder „user-uploaded content“ bezeichnet – können dann per Streaming von den mit diesen Diensten verbundenen Internetseiten oder Anwendungen für intelligente Wiedergabegeräte abgerufen werden – was durch die dort allgemein angebotenen Index‑, Such- und Empfehlungsfunktionen erleichtert wird – und dies meist kostenlos, weil sich die Anbieter dieser Dienste in der Regel durch den Verkauf von Werbeflächen finanzieren. Auf diese Weise wird eine riesige Menge an Inhalten ( 14 ) im Internet der Öffentlichkeit zugänglich gemacht, darunter auch ein erheblicher Anteil an Werken und Schutzgegenständen.

15.

Doch seit 2015 machten die Rechteinhaber vor allem aus der Musikbranche geltend, dass diese Sharing-Dienste zwar tatsächlich einen wichtigen Platz bei der Online-Verbreitung von Werken und sonstigen Schutzgegenständen einnähmen und ihre Diensteanbieter daraus beträchtliche Werbeeinnahmen erzielten, dass Letztere die Rechteinhaber aber nicht fair entlohnten. Die von diesen Anbietern an sie abgeführten Erlöse seien insbesondere im Vergleich zu dem von Musik-Streaming-Diensten – wie Spotify – an sie gezahlten Entgelt unbedeutend, obwohl die Verbraucher diese beiden Arten von Dienstleistungen häufig als gleichwertige Möglichkeiten des Zugangs zu diesen Gütern wahrnähmen. Dies habe auch einen unlauteren Wettbewerb zwischen diesen Diensten zur Folge ( 15 ).

16.

Um das Argument des „Value Gap“ besser zu verstehen, muss man sich noch einmal das geltende Recht vor Erlass der Richtlinie 2019/790 und die Unsicherheiten vergegenwärtigen, durch die es gekennzeichnet war.

17.

Zum einen erkennt Art. 3 Abs. 1 der Richtlinie 2001/29 den Urhebern das ausschließliche Recht zu, die „öffentliche Wiedergabe“ ihrer Werke einschließlich deren „öffentliche Zugänglichmachung“ in der Weise, dass sie Mitgliedern der Öffentlichkeit von Orten und zu Zeiten ihrer Wahl zugänglich sind, zu erlauben oder zu verbieten ( 16 ). Ähnliche Rechte stehen den Inhabern verwandter Schutzrechte an deren Schutzgegenständen ( 17 ) nach Art. 3 Abs. 2 dieser Richtlinie zu ( 18 ). Grundsätzlich ( 19 ) darf ein Dritter daher ein Werk oder einen Schutzgegenstand nicht „öffentlich wiedergeben“, wenn ihm der/die Inhaber der Rechte an diesem Werk bzw. Gegenstand nicht zuvor eine Erlaubnis normalerweise in Form eines entgeltlichen Lizenzvertrags erteilt hat/haben ( 20 ). Während seit jeher feststand, dass das Hochladen eines Werks oder Schutzgegenstands durch einen Nutzer auf einem Sharing-Dienst einen Akt der „öffentlichen Wiedergabe“ darstellt, der einer solchen vorherigen Erlaubnis bedarf, wurde die Frage, ob die Anbieter eines solchen Dienstes selbst Lizenzverträge abschließen und die Rechteinhaber vergüten mussten, kontrovers zwischen diesen Anbietern und Rechteinhabern diskutiert ( 21 ).

18.

Zum anderen enthält Art. 14 der Richtlinie 2000/31 einen „sicheren Hafen“ (safe harbour) für die Anbieter eines Dienstes der Informationsgesellschaft, der in der Speicherung von durch Dritte eingegebenen Inhalten besteht. Diese Bestimmung sieht im Wesentlichen vor, dass der Anbieter eines solchen Dienstes von jeglicher Verantwortung befreit ist, die sich aus rechtswidrigen Inhalten ergeben kann ( 22 ), die er im Auftrag der Nutzer dieses Dienstes gespeichert hat, sofern er von der Rechtswidrigkeit keine Kenntnis hatte oder die Inhalte gegebenenfalls unverzüglich entfernt. Auch hier gab es eine Kontroverse darüber, ob Diensteanbieter für das Teilen von Online‑Inhalten diese urheberrechtliche Haftungsfreistellung in Anspruch nehmen können ( 23 ).

19.

Diese Kontroversen waren umso heftiger, als der Gerichtshof bisher keine Gelegenheit hatte, darüber zu befinden ( 24 ).

20.

In diesem Zusammenhang hatten sich einige Anbieter von Sharing-Diensten schlicht geweigert, Lizenzvereinbarungen mit Rechteinhabern für die von Nutzern ihrer Dienste hochgeladenen Werke und Schutzgegenstände zu schließen, weil sie nach ihrer Ansicht hierzu nicht verpflichtet waren. Andere Anbieter hatten sich zu solchen Vereinbarungen bereit erklärt, aber deren Bedingungen waren nach Auffassung der Rechteinhaber nicht fair, weil sie mit den Anbietern nicht auf Augenhöhe hätten verhandeln können ( 25 ).

21.

Mit dem Richtlinienvorschlag sollte daher zum einen den Rechteinhabern eine bessere Vergütung für die Nutzung ihrer Werke und sonstigen Schutzgegenstände auf Online-Sharing-Diensten dadurch verschafft werden, dass die Verpflichtung der Diensteanbieter bekräftigt wurde, Lizenzvereinbarungen mit den Rechteinhabern zu schließen ( 26 ).

22.

Zum anderen sollte es den Rechteinhabern mit diesem Vorschlag erleichtert werden, zu kontrollieren, wie ihre Werke und Schutzgegenstände auf solchen Diensten genutzt werden. Insoweit gab Art. 13 des Vorschlags den Anbietern solcher Dienste im Wesentlichen auf, die von einigen von ihnen bereits eingerichteten Instrumente zur automatischen Erkennung von Inhalten, d. h. EDV-Tools, deren Funktionsweise nachstehend beschrieben wird ( 27 ), einzusetzen, die insbesondere dann verwendet werden können, wenn ein Nutzer Inhalte hochlädt – daher die gängige Bezeichnung dieser Tools als „Upload-Filter“ –, um in einem automatisierten Verfahren zu prüfen, ob dieser Inhalt ein Werk oder einen sonstigen Schutzgegenstand enthält, und um dessen Verbreitung gegebenenfalls zu blockieren ( 28 ).

23.

Der Richtlinienvorschlag, insbesondere dessen Art. 13, löste im Rahmen des Gesetzgebungsverfahrens zahlreiche Debatten innerhalb des Parlaments und des Rates aus. Dieses Verfahren war auch von intensiven Lobbykampagnen der betroffenen Wirtschaftsteilnehmer und von Protestbekundungen aus der Zivilgesellschaft, aus akademischen Kreisen und von Sachwaltern der freien Meinungsäußerung geprägt, die argumentierten, dass sich ihrer Ansicht nach die Verpflichtung der Sharing-Diensteanbieter zur Einrichtung von „Upload-Filtern“ schädlich auf die Meinungsfreiheit auswirken könnte ( 29 ).

24.

Der Richtlinienvorschlag wurde schließlich am 26. März 2019 vom Parlament und am 16. April 2019 vom Rat verabschiedet ( 30 ). Der Vorschlag wurde am 17. April 2019 als Richtlinie 2019/790 formell angenommen. Diese musste von den Mitgliedstaaten bis zum 7. Juni 2021 umgesetzt werden ( 31 ).

B. Art. 17 der Richtlinie 2019/790

25.

Im Laufe dieses Gesetzgebungsverfahrens wurde Art. 13 des Richtlinienvorschlags mehrfach geändert. Er wurde in einem erheblich veränderten Wortlaut als Art. 17 der Richtlinie 2019/790 verabschiedet. Ich halte es für angebracht, schon jetzt einige grundlegende Aspekte dieser Bestimmung aufzuzeigen.

26.

Erstens richtet sich Art. 17 der Richtlinie 2019/790, wie seine Überschrift sagt, an „Diensteanbieter für das Teilen von Online‑Inhalten“ ( 32 ). Dieser Ausdruck bezeichnet nach der Begriffsbestimmung in Art. 2 Nr. 6 Abs. 1 dieser Richtlinie den „Anbieter eines Dienstes der Informationsgesellschaft, bei dem der Hauptzweck bzw. einer der Hauptzwecke darin besteht, eine große Menge an von seinen Nutzern hochgeladenen, urheberrechtlich geschützten Werken oder sonstigen Schutzgegenständen zu speichern und der Öffentlichkeit Zugang hierzu zu verschaffen, wobei dieser Anbieter diese Inhalte organisiert und zum Zwecke der Gewinnerzielung bewirbt“. Abgesehen davon, dass die verwendeten Begriffe offen formuliert sind, ergibt sich daraus eindeutig, dass es in Art. 17 um die „großen“ Anbieter von Sharing-Diensten geht, die mit dem „Value Gap“ ( 33 ) in Verbindung gebracht werden und deren Funktionsweise diese Definition offensichtlich widerspiegeln soll ( 34 ).

27.

Zweitens besagt Art. 17 Abs. 1 Unterabs. 1 der Richtlinie 2019/790, dass ein Anbieter von Sharing-Diensten „eine Handlung der öffentlichen Wiedergabe oder eine Handlung der öffentlichen Zugänglichmachung für die Zwecke dieser Richtlinie vornimmt, wenn er der Öffentlichkeit Zugang zu von seinen Nutzern hochgeladenen urheberrechtlich geschützten Werken oder sonstigen Schutzgegenständen verschafft“. Wie aus Unterabs. 2 dieses Absatzes hervorgeht, müssen solche Anbieter daher grundsätzlich die Erlaubnis der Rechteinhaber, etwa durch Abschluss eines Lizenzvertrags, einholen, um von Nutzern hochgeladene geschützte Inhalte auf ihren Diensten nutzen zu können ( 35 ). Der Unionsgesetzgeber hat damit die in Nr. 17 der vorliegenden Schlussanträge erwähnte Kontroverse gesetzlich zugunsten der Rechteinhaber entschieden ( 36 ).

28.

Diese Verpflichtung hängt unmittelbar mit dem mit Art. 17 der Richtlinie 2019/790 verfolgten allgemeinen Ziel zusammen, nämlich „einen gut funktionierenden und fairen Urheberrechtsmarkt“ dadurch zu verwirklichen ( 37 ), dass „die Entwicklung des Markts für die Vergabe von Lizenzen zwischen Rechteinhabern und Diensteanbietern für das Teilen von Online‑Inhalten gefördert“ wird. Dies soll die Stellung der Rechteinhaber bei der Verhandlung (oder Neuverhandlung) von Lizenzverträgen mit diesen Anbietern stärken, damit sichergestellt wird, dass diese Verträge „gerecht“ sind und ein „ausgewogenes Gleichgewicht zwischen beiden Parteien“ wahren ( 38 ) – wodurch der „Value Gap“ beseitigt wird. Die Verhandlungsposition der Rechteinhaber wird auch noch dadurch gestärkt, dass sie grundsätzlich nicht verpflichtet sind, solche Vereinbarungen mit diesen Anbietern zu schließen ( 39 ).

29.

Drittens bestimmt Art. 17 Abs. 3 der Richtlinie 2019/790, dass die in Art. 14 der Richtlinie 2000/31 vorgesehene Freistellung von der Verantwortlichkeit keine Anwendung findet, wenn ein Anbieter von Sharing-Diensten eine Handlung der „öffentlichen Wiedergabe“ oder der „öffentlichen Zugänglichmachung“ unter den in Abs. 1 dieses Artikels festgelegten Bedingungen vornimmt ( 40 ).

30.

Viertens sieht Art. 17 Abs. 4 der Richtlinie 2019/790 vor, dass Anbieter von Sharing-Diensten, wenn sie keine Erlaubnis von den Rechteinhabern eingeholt haben, für „nicht erlaubte“ ( 41 ) Handlungen der öffentlichen Wiedergabe verantwortlich sind, die über ihre Dienste vorgenommen werden. Das ist eine logische Konsequenz aus dem Vorstehenden: Da bei diesen Anbietern nunmehr angenommen wird, dass sie Handlungen der „öffentlichen Wiedergabe“ vornehmen, wenn sie die von den Nutzern ihrer Dienste hochgeladenen Werke und sonstigen Schutzgegenstände „zugänglich machen“, sind sie im Fall einer unzulässigen „Wiedergabe“unmittelbar (oder primär) verantwortlich.

31.

Grundsätzlich ist die unmittelbare Haftung der Person, die eine unzulässige Handlung der „öffentlichen Wiedergabe“ vornimmt, objektiver Natur ( 42 ). Anbieter von Sharing-Diensten dürften daher automatisch immer dann haften, wenn ein Werk oder Schutzgegenstand rechtswidrig auf ihren Diensten hochgeladen wird. Sie könnten daher insbesondere zu womöglich erheblichem Schadensersatz an die betroffenen Rechteinhaber verurteilt werden ( 43 ).

32.

Da es aber zum einen die Nutzer der Sharing-Dienste sind, welche die dort eingestellten Inhalte hochladen, ohne dass ihre Diensteanbieter insoweit eine vorherige Auswahl treffen ( 44 ), und da diese Anbieter zum anderen wahrscheinlich nicht in der Lage sein werden, von sämtlichen Rechteinhabern die Erlaubnis für alle gegenwärtigen und zukünftigen Werke und sonstigen Schutzgegenstände zu erhalten, die auf diese Weise bei ihnen hochgeladen werden könnten ( 45 ), hätte eine solche objektive Haftung die Diensteanbieter gezwungen, ihr Geschäftsmodell komplett zu ändern – und damit auch das Modell des interaktiven „Web 2.0“ aufzugeben.

33.

Der Unionsgesetzgeber hielt es daher für angebracht, ein spezielles Haftungsverfahren für einen solchen Anbieter vorzusehen ( 46 ). Dieser kann sich nach Art. 17 Abs. 4 der Richtlinie 2019/790, wenn eine rechtswidrige „öffentliche Wiedergabe“ über seinen Dienst erfolgt, jeder Verantwortung entledigen, sofern er nachweist, dass er

„a)

alle Anstrengungen unternommen hat, um die Erlaubnis einzuholen; und

b)

nach Maßgabe hoher branchenüblicher Standards für die berufliche Sorgfalt alle Anstrengungen unternommen hat, um sicherzustellen, dass bestimmte Werke und sonstige Schutzgegenstände, zu denen die Rechteinhaber den Anbietern dieser Dienste einschlägige und notwendige Informationen bereitgestellt haben, nicht verfügbar sind; und in jedem Fall

c)

nach Erhalt eines hinreichend begründeten Hinweises von den Rechteinhabern unverzüglich gehandelt hat, um den Zugang zu den entsprechenden Werken oder sonstigen Schutzgegenständen zu sperren bzw. die entsprechenden Werke oder sonstigen Schutzgegenstände von seinen Internetseiten zu entfernen, und alle Anstrengungen unternommen hat, um gemäß Buchstabe b das künftige Hochladen dieser Werke oder sonstigen Schutzgegenstände zu verhindern“.

34.

Zwei dieser kumulativen Voraussetzungen stehen im Zentrum der vorliegenden Klage. Die übrigen Absätze von Art. 17 der Richtlinie 2019/790 werde ich im Zuge der Prüfung dieser Klage erörtern ( 47 ).

IV. Verfahren vor dem Gerichtshof und Anträge der Parteien

35.

Mit Klageschrift, die am 24. Mai 2019 bei der Kanzlei des Gerichtshofs eingegangen ist, hat die Republik Polen die vorliegende Klage erhoben.

36.

Die Republik Polen beantragt,

Art. 17 Abs. 4 Buchst. b und Buchst. c letzter Satzteil, d. h. den Teil mit der Wendung „und alle Anstrengungen unternommen hat, um gemäß Buchstabe b das künftige Hochladen dieser Werke oder sonstigen Schutzgegenstände zu verhindern“, der Richtlinie 2019/790 für nichtig zu erklären;

hilfsweise, für den Fall, dass sich die angefochtenen Bestimmungen nach Ansicht des Gerichtshofs vom Rest des Art. 17 dieser Richtlinie nicht trennen lassen, ohne dass dessen Wesensgehalt verändert würde, diesen Art. 17 insgesamt für nichtig zu erklären;

dem Parlament und dem Rat die Kosten aufzuerlegen.

37.

Das Parlament beantragt,

die Klage als unbegründet abzuweisen;

der Republik Polen die Kosten aufzuerlegen.

38.

Der Rat beantragt,

den Hauptantrag der Klage als unzulässig zurückzuweisen;

hilfsweise, die Klage in vollem Umfang als unbegründet abzuweisen;

der Republik Polen die Kosten aufzuerlegen.

39.

Mit Beschluss des Präsidenten des Gerichtshofs vom 17. Oktober 2019 sind das Königreich Spanien, die Französische Republik, die Portugiesische Republik und die Europäische Kommission als Streithelfer zur Unterstützung der Anträge des Parlaments und des Rates zugelassen worden. Alle Streithelfer mit Ausnahme der Portugiesischen Republik haben Streithilfeschriftsätze eingereicht.

40.

Die Parteien und die Streithelfer haben mit Ausnahme der portugiesischen Regierung in der Sitzung vom 10. November 2020 mündlich verhandelt.

V. Würdigung

41.

Die Republik Polen stützt ihre Klage auf einen einzigen Klagegrund, mit dem sie einen Verstoß gegen das in Art. 11 Abs. 1 der Charta verankerte Recht auf freie Meinungsäußerung und Informationsfreiheit ( 48 ) rügt. Bevor ich diesen Klagegrund in der Sache prüfe (Abschnitt B), werde ich mich kurz mit der Zulässigkeit der Klage befassen (Abschnitt A).

A. Zur Zulässigkeit

42.

Das Parlament, der Rat, die französische Regierung und die Kommission halten den Hauptantrag der Klage für unzulässig, soweit er nur auf die Nichtigerklärung von Art. 17 Abs. 4 Buchst. b und c letzter Satzteil der Richtlinie 2019/790 gerichtet ist. Dem stimme ich zu.

43.

Nach ständiger Rechtsprechung des Gerichtshofs ist die teilweise Nichtigerklärung eines Unionsrechtsakts nämlich nur möglich, soweit sich die Teile, deren Nichtigerklärung beantragt wird, vom Rest des Rechtsakts trennen lassen. Dieses Erfordernis ist nicht erfüllt, wenn eine solche Teilnichtigerklärung zur Folge hätte, dass der Wesensgehalt des Rechtsakts geändert würde ( 49 ).

44.

Eine Nichtigerklärung allein der Buchst. b und c letzter Satzteil in Art. 17 Abs. 4 der Richtlinie 2019/790 würde eindeutig den Wesensgehalt dieses Artikels verändern. Wie das Parlament, der Rat, die französische Regierung und die Kommission geltend machen, stellen die verschiedenen Bestimmungen des Art. 17 in ihrer Gesamtheit eine „komplexe“ Haftungsregelung dar, die das vom Unionsgesetzgeber angestrebte Gleichgewicht zwischen den Rechten und Interessen der Anbieter von Sharing-Diensten, der Nutzer dieser Dienste und der Rechteinhaber zum Ausdruck bringt. Eine Nichtigerklärung allein der angefochtenen Bestimmungen hätte zur Folge, dass diese Haftungsregelung durch eine sowohl wesentlich andere als auch für diese Anbieter deutlich günstigere Regelung ersetzt würde. Mit anderen Worten: Mit einer solchen Teilnichtigerklärung würde der Gerichtshof in der Sache Art. 17 abändern, was ihm im Rahmen eines Nichtigkeitsverfahrens nach Art. 263 AEUV aber versagt ist.

45.

Hingegen sind sich die Parteien einig, dass der Hilfsantrag zulässig ist, mit dem die Klägerin begehrt, Art. 17 der Richtlinie 2019/790 insgesamt für nichtig zu erklären. In der Tat würde eine Nichtigerklärung dieses Artikels, so wichtig er auch sein mag, nichts am Wesensgehalt der Richtlinie ändern. Die zahlreichen Artikel der Richtlinie haben unterschiedliche Zielsetzungen und sind auf verschiedene Titel und Kapitel aufgeteilt. Art. 17 der Richtlinie lässt sich somit von den anderen Richtlinienbestimmungen abtrennen, die durchaus ihre Gültigkeit behalten könnten, falls Art. 17 für nichtig erklärt werden sollte ( 50 ).

B. Zur Begründetheit

46.

Der einzige von der Republik Polen vorgebrachte Klagegrund lässt sich in wenigen Worten zusammenfassen. Die Republik Polen macht im Wesentlichen geltend, nach Art. 17 Abs. 4 Buchst. b und c letzter Satzteil der Richtlinie 2019/790 müssten die Anbieter von Sharing-Diensten, um von der Verantwortung für die rechtswidrige „öffentliche Wiedergabe“ von Werken oder sonstigen Schutzgegenständen auf ihren Diensten befreit zu sein, eine vorbeugende Überwachung der Inhalte vornehmen, die die Nutzer hochzuladen beabsichtigten. Dazu müssten sie EDV-Tools verwenden, die eine automatische Filterung solcher Inhalte ermöglichten. Diese vorbeugende Überwachung würde jedoch in die Ausübung des in Art. 11 der Charta verankerten Rechts auf freie Meinungsäußerung eingreifen. Eine solche Einschränkung dieses Grundrechts sei unzulässig, da sie dessen „Wesensgehalt“ aushöhle, zumindest aber den Grundsatz der Verhältnismäßigkeit verletze.

47.

Das Parlament und der Rat wenden sich mit Unterstützung der spanischen und der französischen Regierung sowie der Kommission zu ihrer Verteidigung gegen jeden einzelnen dieser Punkte. Ich werde diese also in den folgenden Abschnitten der Reihe nach untersuchen. Zunächst werde ich auf den Anwendungsbereich der angefochtenen Bestimmungen eingehen (Teil 1). Sodann werde ich mich mit der Einschränkung des Rechts auf freie Meinungsäußerung und Informationsfreiheit befassen (Teil 2) und schließlich prüfen, inwieweit diese Einschränkung mit der Charta vereinbar ist (Teil 3).

1.   Zum Anwendungsbereich der angefochtenen Bestimmungen

48.

Um die Tragweite der in Art. 17 Abs. 4 Buchst. b und Buchst. c letzter Satzteil der Richtlinie 2019/790 vorgesehenen Voraussetzungen für die Haftungsbefreiung zu verstehen, ist es zweckmäßig, die in Art. 14 der Richtlinie 2000/31 genannten Voraussetzungen zum Vergleich heranzuziehen. Nach dieser Bestimmung ist ein Diensteanbieter im Wesentlichen von jeder Haftung wegen einer von ihm im Auftrag eines Nutzers seines Dienstes gespeicherten rechtswidrigen Information befreit, sofern er 1. von der Rechtswidrigkeit keine Kenntnis hatte oder 2. diese Information gegebenenfalls unverzüglich entfernt oder den Zugang zu ihr gesperrt hat. In der Praxis wird von einem solchen Anbieter nicht erwartet, dass er die auf seinen Servern eingegebenen Informationen überwacht und aktiv danach forscht, ob sich dort rechtswidrige Informationen befinden ( 51 ). Wird dieser Anbieter jedoch – in der Regel von dritter Seite – darauf hingewiesen, dass sich dort eine solche rechtswidrige Information befinde, so muss er reagieren, indem er die fragliche Information – nach einem Verfahren der „Meldung und Entfernung“ (notice-and-take-down) – entfernt oder den Zugang zu ihr sperrt ( 52 ).

49.

Dagegen müssen, wie die Klägerin geltend macht, die Anbieter von Sharing-Diensten, um den Anforderungen der angefochtenen Bestimmungen zu genügen, die von den Nutzern dieser Dienste hochgeladenen Informationen präventiv überwachen (Abschnitt a). Um eine solche Überwachung durchführen zu können, werden diese Anbieter in vielen Fällen EDV-Tools einsetzen müssen, die eine automatische Filterung dieser Inhalte ermöglichen (Abschnitt b).

a)   Eine präventive Überwachung der von den Nutzern hochgeladenen Inhalte …

50.

Erstens müssen die Anbieter von Sharing-Diensten zum einen gemäß Art. 17 Abs. 4 Buchst. b der Richtlinie 2019/790 „nach Maßgabe hoher branchenüblicher Standards für die berufliche Sorgfalt alle Anstrengungen“ unternehmen, um „sicherzustellen“, dass bestimmte Werke und sonstige Schutzgegenstände, zu denen die Rechteinhaber den Diensteanbietern einschlägige und notwendige Informationen bereitgestellt haben, „nicht verfügbar sind“.

51.

Zum anderen müssen diese Anbieter gemäß Art. 17 Abs. 4 Buchst. c nach Erhalt eines hinreichend begründeten Hinweises von den Rechteinhabern, dass sich entsprechende Werke oder Schutzgegenstände auf ihren Diensten befänden, nicht nur unverzüglich handeln, um den Zugang zu den betreffenden Werken zu sperren bzw. diese von ihren Internetseiten zu entfernen ( 53 ), sondern auch „alle Anstrengungen“ unternehmen, um „das künftige Hochladen dieser Werke … zu verhindern“ – diesmal nach einer Logik der „Meldung und dauerhaften Sperrung“ (notice-and-stay-down).

52.

Zusammenfassend lässt sich sagen, dass die angefochtenen Bestimmungen den Anbietern von Sharing-Diensten Sorgfaltspflichten – oder, anders ausgedrückt, Handlungspflichten ( 54 ) – zur Überwachung ihrer Dienste auferlegen. Um „sicherzustellen“, dass die von den Rechteinhabern benannten Werke und sonstigen Schutzgegenstände „nicht verfügbar sind“, und um deren „künftige[s] Hochladen … zu verhindern“, werden diese Anbieter „alle Maßnahmen [treffen müssen], die ein sorgfältiger Betreiber ergreifen würde“ ( 55 ), um aus der Masse der von den Nutzern hochgeladenen Inhalte diejenigen zu erkennen und aktiv zu sperren oder zu entfernen, die die fraglichen Werke oder Gegenstände vervielfältigen ( 56 ).

53.

Diese Auslegung wird durch das mit Art. 17 der Richtlinie 2019/790 verfolgte Ziel bestätigt. Denn nach Maßgabe von Art. 14 der Richtlinie 2000/31 mussten die Rechteinhaber die Sharing-Dienste überwachen und deren Anbieter durch Meldung der dort gefundenen rechtsverletzenden Inhalte informieren, damit diese sie entfernen konnten. Wie der Rat bemerkt hat, war der Unionsgesetzgeber bei Erlass dieses Art. 17 jedoch der Auffassung, dass eine solche Regelung die Rechteinhaber zu stark belaste und nicht in die Lage versetze, die Nutzung ihrer Werke und sonstigen Schutzgegenstände auf diesen Diensten wirksam zu überwachen ( 57 ). Insbesondere wurden Inhalte kurz nach ihrer Entfernung erneut hochgeladen, so dass die Rechteinhaber gezwungen waren, ihre Meldungen zu vervielfachen ( 58 ). Um das Problem zu lösen, wird durch die angefochtenen Bestimmungen den Diensteanbietern die Verantwortung für die Überwachung ihrer Dienste übertragen ( 59 ).

54.

Zweitens müssen, wie die Republik Polen vorträgt, die Anbieter von Sharing-Diensten, um die Ziele der angefochtenen Bestimmungen zu erreichen, bemüht sein, das Hochladen rechtsverletzender Inhalte – ex ante – zu verhindern und derartige Inhalte nicht mehr nur – ex post – zu entfernen.

55.

Insoweit ergibt sich aus dem 66. Erwägungsgrund der Richtlinie 2019/790, dass die Anbieter von Sharing-Diensten gemäß Art. 17 Abs. 4 Buchst. b dieser Richtlinie bestrebt sein müssen, „zu verhindern“, dass auf ihren Diensten die von den Rechteinhabern benannten Werke und sonstigen Schutzgegenstände „verfügbar werden“. Buchst. c dieses Absatzes ist noch deutlicher, was die Art der zu treffenden Maßnahmen angeht, da er besagt, dass diese Anbieter dafür Sorge tragen müssen, „das künftige Hochladen“ von Werken oder sonstigen Schutzgegenständen „zu verhindern“, die ihnen von den Rechteinhabern gemeldet wurden. Der Einschub „gemäß Buchstabe b“ unterstreicht zudem, dass von den Diensteanbietern in beiden Fällen das Gleiche verlangt wird: Sie müssen versuchen, zu verhindern, dass auf ihren Diensten bestimmte unzulässige Inhalte hochgeladen – bzw. bei einem „stay-down“ erneut hochgeladen – werden.

56.

Diese Auslegung wird wiederum durch das mit Art. 17 der Richtlinie 2019/790 verfolgte Ziel bestätigt, das darin besteht, dass die Rechteinhaber leichter kontrollieren können sollen, wie ihre Werke auf Sharing-Diensten genutzt werden. Wie der Rat geltend gemacht hat, zielt diese Bestimmung darauf ab, den ausschließlichen Charakter des Rechts auf „öffentliche Wiedergabe“ im digitalen Umfeld zu bekräftigen. Die Sorgfaltspflichten, die den Anbietern von Sharing-Diensten aufgrund der angefochtenen Bestimmungen obliegen, sollen es den Rechteinhabern erlauben, „sich bei Nutzern ihrer Werke vor der öffentlichen Wiedergabe, die diese Nutzer [auf diesen Diensten] durchzuführen beabsichtigen, [wirksam] einzuschalten“ ( 60 ). Wie das Parlament und der Rat hervorgehoben haben, müssen sich die Anbieter daher bemühen, bereits vor dem Hochladen der Inhalte einzugreifen, d. h., bevor die möglicherweise reproduzierten Werke oder Schutzgegenstände unter Verletzung dieses ausschließlichen Rechts tatsächlich „öffentlich wiedergegeben“ werden.

b)   … die in zahlreichen Fällen den Einsatz von Filtermechanismen erfordern wird

57.

An dieser Stelle meiner Schlussanträge halte ich es für sinnvoll, zu erläutern, dass mit Hilfe einer Reihe von EDV-Tools automatisch entdeckt werden kann, ob bestimmte Informationen auf einen Server hochgeladen wurden oder dort gespeichert sind. Hierfür gibt es insbesondere Tools zur automatischen Inhaltserkennung (Automatic Content Recognition oder „ACR“), die auf verschiedenen Technologien beruhen, nämlich – vom einfachsten zum aufwändigsten – der „Streuspeicherung“ (Hashing), dem „digitalen Wasserzeichen“ (Watermarking) und dem „digitalen Fingerabdruck“ (Fingerprinting) ( 61 ).

58.

Seit der zweiten Hälfte der 2000er Jahre setzen einige Anbieter von Sharing-Diensten solche Tools, vor allem unter Verwendung der letztgenannten Technik ( 62 ), freiwillig ein, um ihre Dienste insbesondere ( 63 ) nach rechtsverletzenden Inhalten aktiv zu durchsuchen ( 64 ). Die Tools zur Erkennung des „digitalen Fingerabdrucks“ können nämlich Werke und sonstige Schutzgegenstände von Rechteinhabern aus den auf diesen Diensten hochgeladenen Inhaltenautomatisch herausfiltern, indem sie diese Inhalte zum Zeitpunkt des Hochladevorgangs oder nach dessen Abschluss mit den von den Rechteinhabern übermittelten Referenzdaten vergleichen ( 65 ). Ergibt dieser Vergleich eine Übereinstimmung („match“), geben die besagten Tools den betroffenen Rechteinhabern in der Regel die Möglichkeit, den betreffenden Inhalt wahlweise manuell oder automatisch zu sperren, sein Hochladen zu erlauben und seine Verbreitung mit Hilfe von Publikumsstatistiken zu überwachen oder ihn sogar durch das Einblenden von Werbung zu „monetarisieren“ ( 66 ).

59.

Der Richtlinienvorschlag griff diese technologischen Entwicklungen auf. In der Folgenabschätzung wurde betont, dass auf „digitale Fingerabdrücke“ gestützte EDV-Tools zur Erkennung von Fälschungen wirksam und auf dem Markt zunehmend verfügbar seien. So sollte mit diesem Vorschlag, wie schon gesagt ( 67 ), den Anbietern von Sharing-Diensten die Einrichtung solcher Tools vorgeschrieben werden, damit jene, die dies noch nicht getan hatten, zum „Nachrüsten“ gezwungen und die anderen verpflichtet wurden, den Rechteinhabern einen transparenten Zugang zu ihren Erkennungs-Tools zu gewähren ( 68 ).

60.

Wie das Parlament, der Rat und die spanische Regierung hervorgehoben haben, enthält die endgültige Fassung der Richtlinie 2019/790 keine ausdrücklichen Hinweise auf EDV-Tools zur automatischen Inhaltserkennung mehr. Art. 17 Abs. 4 Buchst. b und c der Richtlinie ist allgemein formuliert. Diese Bestimmungen verpflichten die Anbieter von Sharing-Diensten nicht förmlich dazu, bestimmte Maßnahmen oder Techniken anzuwenden, um die Zielvorgaben der Richtlinie zu erreichen ( 69 ).

61.

Nach Ansicht der Beklagten und der Streithelfer sind diese Diensteanbieter nach den angefochtenen Bestimmungen nicht verpflichtet, solche Tools zu verwenden. Ihnen stehe ein „Handlungsspielraum“ hinsichtlich der Maßnahmen und Techniken zur Verfügung, mit denen sie die Ziele dieser Bestimmungen erreichen wollten. Innerhalb dieses Rahmens hätten diese Anbieter „die Wahl“, solche Tools zu verwenden – bzw. für diejenigen, die dies bereits täten, damit fortzufahren – oder sogar „innovative Lösungen“ zu entwickeln ( 70 ). Jedenfalls sei gemäß Art. 17 Abs. 5 der Richtlinie 2019/790 unter Beachtung des Grundsatzes der Verhältnismäßigkeit im Einzelfall zu prüfen, welche Maßnahmen diesen Anbietern zumutbar seien.

62.

In Anbetracht dessen scheinen mir die angefochtenen Bestimmungen, wie die Republik Polen vorträgt, die Anbieter von Sharing-Diensten in vielen Fällen tatsächlich zu verpflichten, diese Tools zur Erkennung von Inhalten einzusetzen ( 71 ). Meines Erachtens hat der Unionsgesetzgeber zwischen dem Richtlinienvorschlag und dessen Verabschiedung als Richtlinie 2019/790 einfach die Methode geändert. Statt den Einsatz solcher Tools direkt vorzuschreiben, hat er sie durch die in der Richtlinie festgelegten Voraussetzungen für eine Haftungsfreistellung indirekt vorgegeben.

63.

Zum einen ist, wie die Klägerin zutreffend ausgeführt hat, die faktische Dimension der angefochtenen Bestimmungen zu berücksichtigen. Art. 17 der Richtlinie 2019/790 bezieht sich auf Diensteanbieter, die „eine große Menge an … urheberrechtlich geschützten Werken oder sonstigen Schutzgegenständen“ speichern und der Öffentlichkeit Zugang hierzu verschaffen. Mit anderen Worten: Es handelt sich um Wirtschaftsteilnehmer, die eine große, ja gigantische Menge an Inhalten verwalten. Außerdem werden diese Sharing-Dienste ununterbrochen angeboten und stehen einer beträchtlichen Zahl von Nutzern zur Verfügung, so dass jederzeit große Mengen an neuen Inhalten ins Netz hochgeladen werden können.

64.

In einem solchen Kontext ist es meines Erachtens offensichtlich, dass die Anbieter von Sharing-Diensten, wie die Klägerin darlegt, nicht alle und nicht einmal die meisten der hochgeladenen Inhalte von ihren Mitarbeitern überprüfen lassen könnten ( 72 ) – was das Parlament im Übrigen einräumt. Ich kann mir daher nur schwer vorstellen, mit welchen anderen Mitteln als dem Einsatz eines Tools zur automatischen Erkennung, das ihnen eine Filterung der auf ihren Diensten hochgeladenen Inhalte erlaubt, diese Anbieter vernünftigerweise dafür sorgen könnten, entsprechend den Zielsetzungen der angefochtenen Bestimmungen „sicherzustellen“, dass die von den Rechteinhabern benannten Werke und Schutzgegenstände „nicht verfügbar sind“, und deren „künftige[s] Hochladen [auf ihren Diensten] zu verhindern“ ( 73 ) – wobei der Hinweis des Parlaments und des Rates auf etwaige diesbezügliche „innovative Lösungen“ insoweit nur wenig hilft ( 74 ). Im Übrigen haben die Beklagten und die Streithelfer in der mündlichen Verhandlung auf Fragen des Gerichtshofs widerstrebend eingeräumt, dass diese Tools hierfür de facto sehr oft unverzichtbar sein werden ( 75 ).

65.

Zum anderen erinnere ich daran, dass die Anbieter von Sharing-Diensten zur Erfüllung der ihnen obliegenden Sorgfaltspflichten nach dem Wortlaut von Art. 17 Abs. 4 Buchst. b der Richtlinie 2019/790 Maßnahmen „nach Maßgabe hoher branchenüblicher Standards für die berufliche Sorgfalt“ ergreifen müssen. Dabei sind laut zweitem Absatz des 66. Erwägungsgrundes dieser Richtlinie „bewährte Verfahren in der Branche“ und der „Stand der Technik“ zu berücksichtigen.

66.

Wie in Nr. 58 der vorliegenden Schlussanträge dargelegt, werden Tools zur Erkennung „digitaler Fingerabdrücke“ aber bereits von verschiedenen Anbietern von Sharing-Diensten für mehrere Arten von Inhalten verwendet ( 76 ). Andere Anbieter, die solche Inhalte im Rahmen ihrer Dienste akzeptieren, dürften daher, um den aus den angefochtenen Bestimmungen resultierenden Sorgfaltspflichten nachzukommen, grundsätzlich die „in der Branche bewährten Verfahren“ und den „Stand der Technik“ in der Weise einhalten müssen, dass sie solche Tools zum Filtern derartiger Inhalte einsetzen.

67.

Zwar müssen, wie die Beklagten und die Streithelfer bemerkt haben, die von den Anbietern von Sharing-Diensten verlangten Maßnahmen gemäß Art. 17 Abs. 5 der Richtlinie 2019/790 im Einzelfall dem Grundsatz der Verhältnismäßigkeit genügen. Hierbei sind namentlich 1. „die Art, das Publikum und der Umfang der Dienste sowie die Art der von den Nutzern des Dienstes hochgeladenen Werke oder sonstigen Schutzgegenstände“ und 2. „die Verfügbarkeit geeigneter und wirksamer Mittel und die Kosten, die den Anbietern dieser Dienste hierfür entstehen“, zu berücksichtigen ( 77 ). In diesem Zusammenhang lässt sich nicht ausschließen, dass es in bestimmten Sonderfällen gegen diesen Grundsatz verstößt, von bestimmten Anbietern die Verwendung eines Inhaltserkennungs-Tools zu verlangen. Auch scheinen solche Tools nach dem aktuellen Stand der Technik für bestimmte Arten von Werken und Schutzgegenständen weder geeignet noch wirksam zu sein ( 78 ).

68.

Abgesehen von diesen Sonderfällen steht für mich jedoch fest, dass die Anbieter von Sharing-Diensten immer dann, wenn verschiedene geeignete und wirksame Tools auf dem Markt verfügbar und nicht unangemessen teuer sind, diese grundsätzlich einsetzen müssen, um nachzuweisen, dass sie „alle Anstrengungen“ unternommen haben, um das Hochladen unzulässiger Inhalte zu verhindern und so den angefochtenen Bestimmungen zu genügen ( 79 ). Gegebenenfalls werden sie nach dem Grundsatz der Verhältnismäßigkeit unter den verfügbaren Tools diejenigen auswählen können, die ihren Verhältnissen und Ressourcen am besten entsprechen ( 80 ) – wobei die finanziell besser Gestellten unter ihnen ein solches Tool sogar in Eigenregie werden entwickeln können.

69.

Zusammenfassend lässt sich sagen, dass die Anbieter von Sharing-Diensten – um gemäß den angefochtenen Bestimmungen nachzuweisen, dass sie „nach Maßgabe hoher branchenüblicher Standards für die berufliche Sorgfalt alle Anstrengungen unternommen“ haben, um „sicherzustellen“, dass die von den Rechteinhabern benannten Werke und sonstigen Schutzgegenstände „nicht verfügbar sind“, und um deren „künftige[s] Hochladen [auf ihren Diensten] zu verhindern“ – in vielen Fällen verpflichtet sein werden, Tools zur automatischen Erkennung von Inhalten einzusetzen, um die von den Nutzern online gestellten Inhalte zu filtern und gegebenenfalls einige davon vor ihrem Hochladen zu sperren ( 81 ).

2.   Zur Frage, ob das Recht auf freie Meinungsäußerung und Informationsfreiheit eingeschränkt wird

70.

Nachdem der Anwendungsbereich der angefochtenen Bestimmungen geklärt ist, sind diese nun unter dem Aspekt des Rechts auf freie Meinungsäußerung und Informationsfreiheit zu prüfen.

71.

Das in Art. 11 der Charta garantierte Recht, das „die Meinungsfreiheit und die Freiheit ein[schließt], Informationen und Ideen ohne behördliche Eingriffe und ohne Rücksicht auf Staatsgrenzen zu empfangen und weiterzugeben“, entspricht dem Recht, das in Art. 10 der am 4. November 1950 in Rom unterzeichneten Europäischen Konvention zum Schutz der Menschenrechte und Grundfreiheiten (im Folgenden: EMRK) vorgesehen ist ( 82 ). Nach Art. 52 Abs. 3 der Charta haben diese beiden Rechte somit die gleiche Bedeutung oder zumindest die gleiche Tragweite. Folglich ist Art. 11 der Charta unter Berücksichtigung von Art. 10 der EMRK und der dazu ergangenen Rechtsprechung des Europäischen Gerichtshofs für Menschenrechte (im Folgenden: EGMR) auszulegen.

72.

Dieses Grundrecht ist für den vorliegenden Fall unbestreitbar relevant. Wie die Republik Polen und die Kommission jeweils ausgeführt haben, sind nämlich die in Art. 17 der Richtlinie 2019/790 genannten Sharing-Dienste von besonderer Bedeutung für die Freiheit, Informationen oder Ideen zu empfangen oder weiterzugeben.

73.

Wie die Klägerin vorträgt, fällt das Hochladen von Inhalten auf diesen Diensten – seien es Videos, Fotos, Texte usw. – somit unter das Recht auf freie Meinungsäußerung und Informationsfreiheit ( 83 ). Ein solches Hochladen dürfte auch andere damit verwandte Freiheiten berühren. Vor allem wenn die fraglichen Inhalte den künstlerischen Ausdruck der sie hochladenden Nutzer darstellen, fällt dieser Vorgang unter die Ausübung der durch Art. 13 der Charta und Art. 10 der EMRK geschützten Kunstfreiheit ( 84 ).

74.

Das gilt unabhängig davon, ob diese Inhalte das Urheberrecht verletzen. Das Gegenargument des Parlaments ist meines Erachtens juristisch unscharf. Dass eine Information urheberrechtlich geschützt ist, schließt sie nämlich nicht von vornherein vom Geltungsbereich der Meinungsfreiheit aus ( 85 ). Zwar ist es im Allgemeinen gerechtfertigt, die Verbreitung einer solchen Information zu beschränken; dies spielt aber nur für die Prüfung eine Rolle, ob eine solche Einschränkung der Meinungsfreiheit zulässig ist ( 86 ).

75.

Die Klägerin macht geltend, die Filtermaßnahmen, die die Anbieter von Sharing-Diensten ergreifen müssten, um Art. 17 Abs. 4 Buchst. b und Buchst. c letzter Satzteil der Richtlinie 2019/790 zu genügen, stellten ihrem Wesen nach „vorbeugende Maßnahmen“ zur Überwachung der Informationen von Nutzern dar. Bei diesen Maßnahmen handle es sich um „präventive Einschränkungen“ im Sinne der Rechtsprechung des EGMR zu Art. 10 EMRK. Die angefochtenen Bestimmungen seien daher mit der Einführung einer „allgemeinen automatisierten vorbeugenden Zensur“ im Rahmen der Sharing-Dienste verbunden, die von den Anbietern dieser Dienste vorgenommen werde. Diese Bestimmungen bedeuteten somit einen besonders gravierenden „Eingriff“ des Unionsgesetzgebers in die Meinungs- und Informationsfreiheit dieser Nutzer.

76.

Nach Ansicht der Beklagten und der Streithelfer beinhalten die angefochtenen Bestimmungen hingegen weder eine solche „Zensur“ noch irgendeinen „Eingriff“ in diese Freiheit. Insbesondere sollten dem Rat zufolge mit diesen Bestimmungen – oder mit Art. 17 der Richtlinie 2019/790 generell – nicht die Informationen ex ante beschränkt werden, die über diese Dienste verbreitet werden könnten. Die Nutzer könnten Inhalte darüber weiterhin nach Belieben hochladen. Die Diensteanbieter müssten nur, wenn die hochgeladenen Inhalte urheberrechtlich geschützt seien, eine Erlaubnis der betroffenen Rechteinhaber einholen oder andernfalls ex post haften.

77.

Wie die Klägerin bin ich der Meinung, dass die angefochtenen Bestimmungen tatsächlich in die Meinungsfreiheit der Nutzer von Sharing-Diensten „eingreifen“. Ich möchte jedoch von vornherein eine terminologische Klarstellung vornehmen. Der Begriff „Zensur“ ist zwar vieldeutig. Aus dem Vorbringen der Klägerin geht aber klar hervor, dass diese eine präventive Kontrolle von Informationen vor deren Verbreitung meint. In diesem Zusammenhang sind die Ausführungen des Parlaments, des Rates und der spanischen Regierung, wonach der Begriff „Zensur“ im vorliegenden Fall irrelevant sei, weil Art. 17 der Richtlinie 2019/790 keine „politische oder moralische“ Kontrolle der auf Sharing-Diensten hochgeladenen Informationen bezwecke, meiner Ansicht nach nicht stichhaltig. Um weitere Verwirrung zu vermeiden, werde ich in diesem Abschnitt allein die Wendungen „vorbeugende Maßnahmen“ und „präventive Einschränkungen“ verwenden.

78.

Allerdings besagt Art. 17 der Richtlinie 2019/790 nicht nur, wie der Rat argumentiert, dass Anbieter von Sharing-Diensten eine Erlaubnis für von Nutzern ihrer Dienste hochgeladene geschützte Inhalte einholen müssen und andernfalls unmittelbar dafür haften. Wie im vorherigen Abschnitt erläutert, sehen die angefochtenen Bestimmungen auch vor, dass die Anbieter von dieser Haftung befreit sind, wenn sie „alle Anstrengungen“ unternehmen, um zuverhindern, dass diese Nutzer Inhalte hochladen, die von Rechteinhabern benannte Werke und sonstige Schutzgegenstände vervielfältigen. Die Anbieter sind daher verpflichtet, die betreffenden Inhalte vorbeugend zu filtern und zu sperren.

79.

Die Filterung ist, wie die Klägerin geltend macht, ihrem Wesen nach eine „vorbeugende Maßnahme“ zur Kontrolle der über diese Dienste verbreiteten Informationen, und die daraus resultierenden Sperrmaßnahmen stellen „präventive Einschränkungen“ im Sinne der Rechtsprechung des EGMR zu Art. 10 der EMRK dar ( 87 ): Um etwaige Urheberrechtsverletzungen nicht zu ahnden, sondern zu verhindern, werden Informationen, die Nutzer hochladen wollen, kontrolliert, wobei solche, die wahrscheinlich eine derartige Verletzung zur Folge haben, vor ihrer Verbreitung beschränkt werden ( 88 ).

80.

In diesen Fällen sind die Nutzer also entgegen dem Vorbringen des Rates nicht „frei“, die von ihnen gewünschten Inhalte auf den Sharing-Diensten hochzuladen. Die von den Diensteanbietern ergriffenen Filter- und Sperrmaßnahmen schränken die Inhalte ein, die die Nutzer hochladen können. Dies führt zu einem „Eingriff“ in die Ausübung der Kommunikationsfreiheit der Nutzer. Das Filtern und Sperren von Inhalten, bevor diese verbreitet werden, stellt auch einen „Eingriff“ in die Freiheit der Öffentlichkeit dar, Informationen zu empfangen ( 89 ).

81.

Das Parlament und der Rat entgegnen, die Anbieter von Sharing-Diensten könnten als private Unternehmen frei darüber entscheiden, welche Informationen sie über ihre Dienste verbreiten wollten, und somit beschließen, Inhalte zu filtern und zu sperren. Selbst wenn dies einen „Eingriff“ in die Meinungsfreiheit der Nutzer darstellen sollte, wäre dieser jedenfalls nicht dem Unionsgesetzgeber zuzurechnen.

82.

Dieses Argument vermischt meines Erachtens zwei Situationen. Es trifft zu, dass Anbieter von Sharing-Diensten im Rahmen der ihnen in Art. 16 der Charta garantierten Unternehmens- und Vertragsfreiheit in den Nutzungsbedingungen ihrer Dienste oder in den „gemeinsamen Standards“ eine Politik in Bezug auf Inhalte festlegen und aus eigener Initiative eine Art „Selbstregulierung“ praktizieren können, indem sie Inhalte filtern und sperren, die ihrer Ansicht nach gegen diese Regeln verstoßen. In diesem Fall liegt kein „behördlicher Eingriff“ im Sinne von Art. 10 der EMRK und Art. 11 der Charta in die Meinungsfreiheit der Nutzer vor ( 90 ).

83.

Im vorliegenden Fall handelt es sich nach meinem Dafürhalten aber um keine „Selbstregulierung“ der Anbieter von Sharing-Diensten. Ungeachtet dessen, ob das Verbot des Hochladens rechtsverletzender Inhalte in ihren allgemeinen Nutzungsbedingungen oder in ihren „gemeinsamen Standards“ vorgesehen ist, filtern und sperren sie die Inhalte, um den angefochtenen Bestimmungen Genüge zu tun ( 91 ).

84.

Daher ist aus meiner Sicht der „Eingriff“ in die Meinungsfreiheit der Nutzer in der Tat dem Unionsgesetzgeber zuzurechnen. Denn dieser hat ihn ausgelöst. Zudem räumen das Parlament und der Rat selbst ein, dass die angefochtenen Bestimmungen im Wesentlichen darauf abzielen, die Anbieter von Sharing-Diensten mit der Überwachung der auf diesen Diensten begangenen Urheberrechtsverletzungen zu betrauen. Diese Anbieter sind vom Gesetzgeber gewissermaßen damit beauftragt worden, die ordnungsgemäße Anwendung des Urheberrechts im digitalen Umfeld zu überwachen. Der Gesetzgeber kann jedoch nicht gleichzeitig eine solche Aufgabe delegieren und die gesamte Verantwortung für die damit verbundenen Eingriffe in die Grundrechte der Nutzer auf diese Anbieter abwälzen ( 92 ).

85.

An meiner dahin gehenden Ansicht ändert auch das Vorbringen des Rates nichts, dem zufolge die angefochtenen Bestimmungen die Anbieter von Sharing-Diensten nicht „verpflichteten“, die von den Nutzern ihrer Dienste hochgeladenen Inhalte zu filtern und zu sperren, weil Art. 17 Abs. 4 der Richtlinie 2019/790 diesen Anbietern streng genommen keine „Verpflichtung“ auferlege, sondern nur einen Mechanismus der Haftungsbefreiung vorsehe, wobei sie die „Möglichkeit“ hätten, darauf zurückzugreifen, wenn ihnen von den Rechteinhabern keine Erlaubnis erteilt worden sei.

86.

Um die Vereinbarkeit von Art. 17 der Richtlinie 2019/790 mit Art. 11 der Charta zu beurteilen, ist meines Erachtens nämlich nicht nur auf den Wortlaut der Richtlinie, sondern auch auf deren praktische Auswirkungen abzustellen. Da aber zum einen die Anbieter von Sharing-Diensten für eine ganze Reihe von Werken und sonstigen Schutzgegenständen keine Erlaubnis seitens der Rechteinhaber erlangen werden ( 93 ), während zum anderen die Nutzer potenziell doch zahlreiche Inhalte hochladen könnten, die die fraglichen Werke und Gegenstände reproduzieren, wird der Rückgriff auf den in Art. 17 Abs. 4 der Richtlinie 2019/790 vorgesehenen Freistellungsmechanismus für diese Anbieter eher eine Notwendigkeit als eine „Möglichkeit“ sein, wenn sie ein unverhältnismäßiges Haftungsrisiko vermeiden wollen. Somit werden die in den angefochtenen Bestimmungen vorgesehenen Freistellungsvoraussetzungen in vielen Fällen für diese Diensteanbieter in der Praxis die Bedeutung echter Verpflichtungen haben. Im Übrigen verweist Art. 17 Abs. 5 selbst auf die den „Diensteanbieter[n] … in Absatz 4 festgelegten Verpflichtungen“ (Hervorhebung nur hier).

87.

Für mich stellt ein solcher Haftungs-/Freistellungsmechanismus ein ebenso wirksames Mittel wie eine direkte Verpflichtung dar, um die betroffenen Wirtschaftsteilnehmer zu einer präventiven Filterung der Inhalte ihrer Nutzer zu zwingen. Wie in Nr. 62 der vorliegenden Schlussanträge dargelegt, hat der Unionsgesetzgeber dabei lediglich die Methode geändert. Diese unterschiedlichen Methoden haben jedoch die gleichen Wirkungen und müssen daher im Hinblick auf die Grundrechte auch gleich behandelt werden ( 94 ).

3.   Zur Vereinbarkeit dieser Einschränkung mit der Charta

88.

Aus dem vorherigen Abschnitt ergibt sich, dass die angefochtenen Bestimmungen, wie die Republik Polen vorträgt, dazu führen, dass die Ausübung des in Art. 11 der Charta garantierten Rechts auf freie Meinungsäußerung eingeschränkt wird.

89.

Die Meinungsfreiheit gilt aber nicht uneingeschränkt. Nach Art. 52 Abs. 1 der Charta sind Einschränkungen der Ausübung dieser Freiheit zulässig, sofern sie 1. „gesetzlich vorgesehen“ sind, 2. den „Wesensgehalt“ dieser Freiheit achten und 3. den Grundsatz der Verhältnismäßigkeit wahren.

90.

Ebenso ist nach Art. 10 Abs. 2 der EMRK und der dazu ergangenen Rechtsprechung des EGMR ein Eingriff in das Recht auf freie Meinungsäußerung zulässig, sofern er 1. „gesetzlich vorgesehen“ ist, 2. einen oder mehrere der in diesem Abs. 2 aufgeführten legitimen Zwecke verfolgt und 3. „in einer demokratischen Gesellschaft notwendig“ ist ( 95 ). Diese Voraussetzungen weichen zwar teilweise von der Formulierung der entsprechenden Kriterien in Art. 52 Abs. 1 der Charta ab; es muss aber auch hier davon ausgegangen werden, dass sie die gleiche Bedeutung oder zumindest die gleiche Tragweite haben ( 96 ).

91.

In den folgenden Abschnitten werde ich daher prüfen, ob die drei in Art. 52 Abs. 1 der Charta genannten Voraussetzungen erfüllt sind, und diese anhand der einschlägigen Rechtsprechung des EGMR auslegen. Dabei werde ich darlegen, warum die streitige Einschränkung „gesetzlich vorgeschrieben“ ist (Abschnitt a), warum sie den „Wesensgehalt“ des Rechts auf freie Meinungsäußerung achtet (Abschnitt b) und warum sie bei richtiger Auslegung von Art. 17 der Richtlinie 2019/790 den Grundsatz der Verhältnismäßigkeit wahrt (Abschnitt c).

a)   Die streitige Einschränkung ist „gesetzlich vorgeschrieben“

92.

Nach ständiger Rechtsprechung des Gerichtshofs bedeutet das Erfordernis, dass jeder Eingriff in die Ausübung von Grundrechten gemäß Art. 52 Abs. 1 der Charta – im Licht der Rechtsprechung des EGMR zu dem entsprechenden Kriterium in Art. 10 Abs. 2 der EMRK – „gesetzlich vorgesehen“ sein muss, nicht nur, dass diese Einschränkung eine gesetzliche Grundlage („Existenz des Gesetzes“) haben muss, sondern auch, dass die Rechtsgrundlage bestimmte Voraussetzungen hinsichtlich Zugänglichkeit und Vorhersehbarkeit erfüllen muss („Qualität des Gesetzes“) ( 97 ).

93.

Im vorliegenden Fall beruht die fragliche Einschränkung zum einen eindeutig auf einer gesetzlichen Grundlage, denn sie ergibt sich aus vom Unionsgesetzgeber erlassenen Bestimmungen.

94.

Was zum anderen die „Qualität“ der Rechtsgrundlage angeht, muss die gesetzliche Grundlage, die eine Einschränkung der Ausübung eines Grundrechts mit sich bringt, nach der Rechtsprechung des Gerichtshofs ( 98 ) und des EGMR ( 99 ) hinreichend zugänglich und in ihren Wirkungen vorhersehbar, d. h., so klar und genau formuliert sein, dass die Betroffenen ihr Verhalten erforderlichenfalls mit Hilfe sachkundiger Beratung darauf einstellen können.

95.

Meines Erachtens sind die angefochtenen Bestimmungen so klar und präzise, dass sie diesem Standard genügen. Zwar ist in dem Ausdruck „Diensteanbieter für das Teilen von Online‑Inhalten“ gemäß Art. 2 Nr. 6 der Richtlinie 2019/790 sowie in den angefochtenen Bestimmungen eine Reihe unbestimmter Rechtsbegriffe enthalten – „große Menge an … urheberrechtlich geschützten Werken oder sonstigen Schutzgegenständen“, „alle Anstrengungen“, „hohe branchenübliche Standards für die berufliche Sorgfalt“ usw. –, die eine gewisse Unsicherheit hinsichtlich der betroffenen Wirtschaftsteilnehmer und der ihnen im Einzelfall auferlegten Verpflichtungen begründen. Laut Parlament und Rat soll mit der Verwendung solcher Begriffe jedoch sichergestellt werden, dass diese Bestimmungen sich an unterschiedliche Arten von Wirtschaftsteilnehmern und Situationen sowie an die Entwicklung der Praxis und an den technologischen Fortschritt anpassen können, um so jeweils den neuen Anforderungen zu entsprechen. Nach der Rechtsprechung des EGMR darf der Unionsgesetzgeber aber die von ihm erlassenen Regelungen mit einer gewissen Flexibilität anstatt absoluter Rechtssicherheit versehen, ohne das Erfordernis der „Vorhersehbarkeit“ zu missachten ( 100 ). Außerdem werden die Erläuterungen in den vorliegenden Schlussanträgen und im anstehenden Urteil sowie in künftigen Entscheidungen des Gerichtshofs dazu beitragen, diese Begriffe zu klären und die diesbezüglichen Zweifel zu beseitigen – womit wiederum dem Erfordernis der „Vorhersehbarkeit“ Genüge getan ist ( 101 ).

96.

Der Gerichtshof ( 102 ) und der EGMR ( 103 ) prüfen im Zusammenhang mit dem Erfordernis der „Vorhersehbarkeit“ aber auch, ob die Rechtsgrundlage für den Eingriff hinreichende Garantien gegen etwaige willkürliche oder missbräuchliche Grundrechtsverletzungen bietet (nach dem Grundsatz der „Rechtsstaatlichkeit“). Nach Ansicht der Klägerin ist dies vorliegend nicht der Fall.

97.

Die Frage, ob die angefochtenen Bestimmungen ausreichende Garantien zum Schutz der Freiheit der Meinungsäußerung der Nutzer von Sharing-Diensten vor übermäßigen oder willkürlichen Filter- und Sperrmaßnahmen bieten, berührt aber auch die Verhältnismäßigkeit der aus diesen Bestimmungen resultierenden Einschränkung ( 104 ). Zur Vermeidung von Wiederholungen werde ich diese Frage deshalb im Rahmen der Prüfung, ob der Verhältnismäßigkeitsgrundsatz gewahrt wurde, behandeln ( 105 ).

b)   Die streitige Einschränkung achtet den „Wesensgehalt“ des Rechts auf freie Meinungsäußerung

98.

Das in Art. 52 Abs. 1 der Charta aufgestellte Erfordernis, dass jede Einschränkung der Ausübung der in der Charta garantierten Rechte und Freiheiten „den Wesensgehalt dieser garantierten Rechte und Freiheiten achten [muss]“, bedeutet, dass eine Maßnahme, wenn sie diesen „Wesensgehalt“ beeinträchtigt, nicht gerechtfertigt werden kann. Diese Maßnahme wird dann als eine Verletzung der Charta betrachtet und muss, sofern es sich um einen Unionsrechtsakt handelt, für nichtig oder ungültig erklärt werden, ohne dass zu prüfen wäre, ob sie im Einklang mit dem Grundsatz der Verhältnismäßigkeit steht ( 106 ).

99.

In der Tat kann der Unionsgesetzgeber die Ausübung bestimmter Grundrechte im Allgemeininteresse einschränken, um andere Rechte und Interessen zu schützen. Er kann dies insbesondere zum Schutz eines anderen Grundrechts tun. Hierbei verfügt er über einen gewissen Ermessensspielraum, um die verschiedenen involvierten Rechte und Interessen gegeneinander abzuwägen und um einen „gerechten Ausgleich“ zwischen ihnen herzustellen ( 107 ). Dieser Spielraum hat jedoch eine absolute Grenze. Der „Wesensgehalt“ eines Grundrechts ist ein „unantastbarer Kern“, der frei von jeglichen Eingriffen bleiben muss. Daher rechtfertigt kein noch so legitimes Ziel, bestimmte – außergewöhnlich gravierende – Eingriffe in die Grundrechte vorzunehmen. Anders gesagt: Der Zweck heiligt nicht jedes Mittel.

100.

Im vorliegenden Fall verletzen die angefochtenen Bestimmungen nach Ansicht der Republik Polen den „Wesensgehalt“ des Rechts auf freie Meinungsäußerung. Die vorbeugende Überwachung, der die Anbieter von Sharing-Diensten die von ihren Nutzern hochgeladenen Inhalte aufgrund dieser Bestimmungen unterziehen müssten, untergrabe nämlich dieses Recht als solches, da sie einen Eingriff in diese Inhalte und ihre mögliche Sperrung noch vor ihrer Verbreitung bewirke.

101.

Ebenso wie die Beklagten und die Streithelfer teile ich diese Ansicht nicht.

102.

Vorbeugende Maßnahmen zur Informationskontrolle gelten im Allgemeinen zwar als besonders gravierende Eingriffe in das Recht auf freie Meinungsäußerung ( 108 ), da sie ausufern können. In einer demokratischen Gesellschaft werden solche vorbeugenden Maßnahmen grundsätzlich abgelehnt, weil sie durch die Einschränkung bestimmter Informationen schon vor deren Verbreitung jede öffentliche Debatte über den Inhalt verhindern und damit die Meinungsfreiheit ihrer eigentlichen Funktion als Motor des Pluralismus berauben ( 109 ). Aus diesen Gründen verbieten viele Mitgliedstaaten, wie die Klägerin betont, in ihren jeweiligen Verfassungen eine pauschale präventive Kontrolle von Informationen.

103.

Diese Überlegungen treffen auf das Internet in vollem Umfang zu. Wie die Klägerin vorträgt, ist dieses Netz von besonderer Bedeutung für die Freiheit, Informationen oder Ideen zu empfangen oder weiterzugeben ( 110 ). Dies gilt insbesondere für die großen sozialen Plattformen und Netzwerke, die es jedem ermöglichen, beliebige Inhalte online zu veröffentlichen und der Öffentlichkeit zugänglich zu machen, und die somit „beispiellose“ Instrumente zur Ausübung dieser Freiheit darstellen ( 111 ). Diese Plattformen tragen so zu einer Art „Demokratisierung“ der Informationserzeugung bei und sind, obwohl sie von privaten Betreibern verwaltet werden, de facto zu wesentlichen Infrastrukturen für die Meinungsäußerung im Internet geworden ( 112 ). Das Recht auf freie Meinungsäußerung umfasst daher beim derzeitigen Stand der Kommunikationsmittel insbesondere die Freiheit, auf diese Plattformen zuzugreifen und sich auf ihnen grundsätzlich ohne Einmischung seitens des Staates zu äußern ( 113 ).

104.

Würden die Vermittler, die diese Meinungsäußerungs‑Infrastrukturen kontrollieren, von staatlicher Seite unmittelbar oder mittelbar ( 114 ) dazu verpflichtet, die Inhalte der Nutzer ihrer Dienste generell präventiv zu überwachen und nach rechtswidrigen oder sogar bloß unerwünschten Informationen jeglicher Art zu durchforsten, wäre diese Kommunikationsfreiheit als solche in Frage gestellt. Dann wäre meines Erachtens der „Wesensgehalt“ des in Art. 11 der Charta vorgesehenen Rechts auf freie Meinungsäußerung angetastet.

105.

In diesem Zusammenhang kommt Art. 15 der Richtlinie 2000/31 in meinen Augen fundamentale Bedeutung zu. Indem diese Bestimmung vorsieht, dass Vermittlern von Diensten keine „allgemeine Verpflichtung“ auferlegt werden darf, „die von ihnen übermittelten oder gespeicherten Informationen zu überwachen“, verhindert sie, dass Online-Daten einer an diese Vermittler delegierten generellen präventiven Überwachung unterworfen werden. Auf diese Weise stellt sie sicher, dass das Internet ein freier und offener Raum bleibt ( 115 ).

106.

Deshalb neige ich dazu, das in diesem Art. 15 vorgesehene Verbot als einen allgemeinen Grundsatz des Internetrechts zu betrachten, da es die grundlegende Kommunikationsfreiheit im digitalen Umfeld konkretisiert ( 116 ). Im Übrigen hat der Gerichtshof in seiner Rechtsprechung die Achtung dieser Freiheit und das betreffende Verbot bereits miteinander in Verbindung gebracht ( 117 ). In der Tat ist das eine ohne das andere nicht denkbar. Folglich geht das Verbot nach meiner Meinung über den Geltungsbereich dieses Art. 15 hinaus und gilt nicht nur für die Mitgliedstaaten, sondern auch für den Unionsgesetzgeber.

107.

Entgegen dem Vorbringen der Klägerin schließt das Grundrecht auf freie Meinungsäußerung, wie es im Verbot „allgemeiner Überwachungspflichten“ verankert ist, jedoch nicht alle Arten von Überwachungspflichten aus.

108.

Wie die Kommission ausführt, hat der Gerichtshof in seiner Rechtsprechung zu Anordnungen gegen Online-Vermittler ( 118 ) nämlich anerkannt, dass solche Vermittler angewiesen werden können, bestimmte Rechtsverletzungen zu „verhindern“, indem sie ihre Dienste gezielt überwachen ( 119 ). Er hat also zwischen „allgemeinen“ Überwachungspflichten und solchen in „spezifischen“ Fällen unterschieden ( 120 ). Auch der EGMR hält präventive Maßnahmen der Informationskontrolle, einschließlich Verpflichtungen zur Sperrung, nicht per se für mit Art. 10 der EMRK unvereinbar, sofern sie in einem spezifischen Rahmen erfolgen ( 121 ). Der EGMR hat in seinem Urteil Delfi AS/Estland sogar entschieden, dass von bestimmten Vermittlern erwartet werden könne, ihre Dienste aktiv auf bestimmte Arten von unzulässigen Informationen zu überwachen ( 122 ).

109.

Die Klägerin entgegnet, die den Anbietern von Sharing-Diensten mit den angefochtenen Bestimmungen auferlegte Überwachungspflicht sei gerade „allgemeiner“ Natur. Um sicherzustellen, dass die von den Rechteinhabern benannten Werke und sonstigen Schutzgegenstände „nicht verfügbar“ seien, und um deren „künftige[s] Hochladen [auf ihren Diensten] zu verhindern“, seien diese Diensteanbieter nämlich de facto gezwungen, alle Inhalte zu filtern, die von allen Nutzern hochgeladen würden.

110.

Ich bin jedoch mit den Beklagten und den Streithelfern der Meinung, dass mit diesen Bestimmungen in Wirklichkeit eine „spezifische“ Überwachungspflicht auferlegt wird ( 123 ). Allerdings muss ich zugeben, dass der Gerichtshof seine Rechtsprechung hinsichtlich des Kriteriums zur Unterscheidung zwischen „allgemein“ und „spezifisch“ in jüngster Zeit weiterentwickelt hat ( 124 ).

111.

Ursprünglich schien der Gerichtshof auf die Menge der zu überprüfenden Informationen abzustellen. Im Urteil L’Oréal u. a. ( 125 ) entschied er, vom Betreiber eines Online-Marktplatzes könne nicht verlangt werden, „aktiv alle Angaben eines jeden seiner Kunden zu überwachen, um jeder künftigen Verletzung von Rechten des geistigen Eigentums … vorzubeugen“. Im Urteil Scarlet Extended befand er, ein Anbieter von Internetzugangsdiensten könne nicht im Wege einer Anordnung verpflichtet werden, ein System der Filterung „aller seine Dienste durchlaufenden elektronischen Kommunikationen“, das somit „unterschiedslos auf alle seine Kunden anwendbar“ sei, einzurichten, damit „sich im Netz dieses Anbieters der Austausch von Dateien ermitteln lässt, die ein musikalisches, filmisches oder audiovisuelles Werk enthalten, an dem der Antragsteller Rechte des geistigen Eigentums zu haben behauptet, um die Übertragung von Dateien, deren Austausch gegen das Urheberrecht verstößt, zu blockieren“ ( 126 ). Das Urteil SABAM ( 127 ) enthält dieselbe Argumentation des Gerichtshofs in Bezug auf die Pflicht des Betreibers einer Plattform für ein soziales Netzwerk zur Einrichtung eines ähnlichen Filtersystems. Im Urteil Mc Fadden ( 128 ) stellte er schließlich fest, dass vom Betreiber eines lokalen Funknetzes mit Internetzugang nicht verlangt werden könne, „sämtliche über dieses Netzwerk übermittelten Informationen“ zu überwachen, selbst wenn es sich nur darum handle, die Kopien eines einzigen vom Rechteinhaber identifizierten musikalischen Werks zu sperren ( 129 ).

112.

Nunmehr scheint der Gerichtshof auf die Präzision der Nachforschungen abzustellen. In diesem Zusammenhang hat er im Urteil Glawischnig-Piesczek ( 130 ) diesmal zum Bereich der Rufschädigung entschieden, die Verpflichtung des Betreibers eines sozialen Netzwerks, alle in dieses Netz hochgeladenen Informationen zu überwachen ( 131 ), sei als „spezifische“ Pflicht anzusehen, da es darum gehe, eine „konkrete“ diffamierende Information aufzuspüren und zu sperren ( 132 ), während der Diensteanbieter nicht verpflichtet sei, eine „autonome Beurteilung“ der Rechtmäßigkeit der gefilterten Informationen vorzunehmen, sondern „auf automatisierte Techniken und Mittel zur Nachforschung zurückgreifen“ könne ( 133 ).

113.

Diese Entwicklung in der Rechtsprechung des Gerichtshofs ( 134 ) erscheint mir gerechtfertigt. Obwohl ich später ihre Grenzen aufzeigen werde ( 135 ), möchte ich jetzt schon sagen: Würde man eine Überwachungspflicht als „allgemein“ qualifizieren, sobald ein Vermittler mit Hilfe von EDV-Tools de facto alle von den Nutzern seines Dienstes hochgeladenen Inhalte filtern muss, auch wenn sich die Suche auf konkrete Rechtsverstöße bezieht, hätte dies die bedauerliche Konsequenz, dass der technologische Fortschritt, der eine solche Filterung möglich macht, ignoriert und dem Unionsgesetzgeber ein wertvolles Instrument zur Eindämmung gewisser Arten von unzulässigen Inhalten aus der Hand genommen würde.

114.

Im vorliegenden Fall werden die Anbieter von Sharing-Diensten, um die mit den angefochtenen Bestimmungen verfolgten Ziele zu erreichen, zwar alle Inhalte überwachen müssen, die von ihren Nutzern hochgeladen werden. Jedoch werden sie unter diesen Inhalten nach „bestimmte[n] Werke[n] und sonstige[n] Schutzgegenstände[n]“ suchen müssen, zu denen die Rechteinhaber ihnen zuvor „einschlägige und notwendige Informationen“ (Art. 17 Abs. 4 Buchst. b der Richtlinie 2019/790) bzw. „eine[n] hinreichend begründeten Hinweis“ (Buchst. c) zukommen ließen. Welche Inhalte gesperrt werden sollten, werde ich im folgenden Abschnitt meiner Schlussanträge näher erläutern ( 136 ). Dies reicht aber in diesem Stadium meiner Untersuchung aus, um zu zeigen, dass mit diesen Bestimmungen indirekt eine „spezifische“ Überwachungspflicht eingeführt wird, und um auszuschließen, dass der „Wesensgehalt“ des Rechts auf freie Meinungsäußerung beeinträchtigt ist ( 137 ).

115.

Abschließend möchte ich bemerken, dass der Unionsgesetzgeber die Online-Vermittler zwar nicht damit beauftragen darf, eine allgemeine präventive Überwachung der Informationen durchzuführen, die dank ihrer Dienste geteilt werden oder sie durchlaufen, dass er aber meines Erachtens, ohne den „Wesensgehalt“ der Meinungsfreiheit zu untergraben, bestimmten Online-Vermittlern bestimmte aktive Maßnahmen zur Überwachung ganz bestimmter rechtswidriger Informationen vorschreiben darf. Im Übrigen steht Art. 17 der Richtlinie 2019/790 insoweit im Einklang mit mehreren Mitteilungen und Empfehlungen der Kommission ( 138 ) sowie mit neuen Regelungen ( 139 ), denen zufolge bestimmte Vermittler – insbesondere die großen „Plattformen“ – in diesem Sinne herangezogen werden sollen, um gegen bestimmte Arten illegaler Inhalte vorzugehen. Allerdings wird in jedem Einzelfall der Grundsatz der Verhältnismäßigkeit zu beachten sein. Wenn die Kontrolle der Rechtmäßigkeit im digitalen Umfeld auf diese Weise an bestimmte Vermittler delegiert wird ( 140 ), ist dies namentlich mit Gefahren für die freie Meinungsäußerung der Nutzer ihrer Dienste verbunden, so dass diese Nutzer ausreichende Garantien benötigen ( 141 ).

c)   Die streitige Einschränkung wahrt den Grundsatz der Verhältnismäßigkeit

116.

Zu prüfen ist nun die Voraussetzung der Wahrung des Grundsatzes der Verhältnismäßigkeit, wobei diese nach Art. 52 Abs. 1 der Charta in zwei Kriterien unterteilt ist: Die betreffende Einschränkung muss 1. „erforderlich“ sein und 2. „den von der Union anerkannten dem Gemeinwohl dienenden Zielsetzungen oder den Erfordernissen des Schutzes der Rechte und Freiheiten anderer tatsächlich entsprechen“.

117.

Zwischen den Parteien ist unstreitig, dass das zweite Kriterium erfüllt ist. In Anbetracht des mit Art. 17 der Richtlinie 2019/790 verfolgten allgemeinen Ziels ( 142 ), entspricht die betreffende Einschränkung den „Erfordernissen des Schutzes der Rechte und Freiheiten anderer“, nämlich des Urheberrechts und der verwandten Schutzrechte der Rechteinhaber. Ich erinnere daran, dass das geistige Eigentum Grundrechtsschutz insbesondere ( 143 ) in Art. 17 Abs. 2 der Charta und in Art. 1 des Protokolls Nr. 1 zur EMRK ( 144 ) genießt. Die angefochtenen Bestimmungen sind somit „positive Schutzmaßnahmen“, die der Unionsgesetzgeber erlassen hat, um sicherzustellen, dass die Rechteinhaber ihre Rechte des geistigen Eigentums gegenüber den Anbietern von Sharing-Diensten tatsächlich wirksam ausüben können ( 145 ).

118.

Die Parteien streiten jedoch darüber, ob die fragliche Einschränkung das erste Kriterium erfüllt. In diesem Kontext weise ich darauf hin, dass die Prüfung, ob eine Einschränkung der Ausübung eines durch die Charta garantierten Grundrechts gemäß Art. 52 Abs. 1 der Charta „erforderlich“ ist, eigentlich drei kumulative Erfordernisse zum Gegenstand hat: Es ist zu untersuchen, ob diese Einschränkung 1. „geeignet“, 2. „erforderlich“ und 3. „verhältnismäßig“ im engeren Sinne ist ( 146 ). In den folgenden Abschnitten werde ich diese drei Erfordernisse nacheinander prüfen.

1) Die streitige Einschränkung ist „geeignet“

119.

Die Republik Polen scheint die „Eignung“ der fraglichen Einschränkung nicht zu bestreiten. Auf jeden Fall bin ich mit Parlament und Rat der Ansicht, dass diese Voraussetzung hier erfüllt ist.

120.

Bei der Prüfung der Eignung einer bestimmten Maßnahme hat der Gerichtshof nämlich nicht zu ermitteln, ob diese Maßnahme das beste Mittel zur Erreichung des verfolgten Ziels ist, sondern, ob sie geeignet ist, zur Erreichung dieses Ziels beizutragen ( 147 ).

121.

Im vorliegenden Fall sind die den Anbietern von Sharing-Diensten durch die angefochtenen Vorschriften auferlegten Überwachungspflichten geeignet, zu dem vom Unionsgesetzgeber verfolgten Ziel beizutragen. Indem diese Bestimmungen die betreffenden Anbieter dazu verpflichten, ihre Dienste zu überwachen und gegen dort eventuell vorhandene rechtsverletzende Inhalte aktiv vorzugehen, schaffen sie einerseits einen starken Anreiz für diese Anbieter, Lizenzvereinbarungen mit den Rechteinhabern ( 148 ) zu schließen, und erleichtern es andererseits den Rechteinhabern, zu kontrollieren, wie ihre Werke und Schutzgegenstände auf diesen Diensten genutzt werden ( 149 ).

2) Die streitige Einschränkung ist „erforderlich“

122.

Die Republik Polen macht hingegen geltend, die aus Art. 17 Abs. 4 Buchst. b und Buchst. c letzter Satzteil der Richtlinie 2019/790 resultierende Einschränkung des Rechts auf freie Meinungsäußerung gehe über das hinaus, was zur Erreichung des vom Unionsgesetzgeber verfolgten Ziels „erforderlich“ sei. Hierfür reichten die in Buchst. a und Buchst. c erster Satzteil dieses Abs. 4 vorgesehenen Verpflichtungen aus. Zum einen werde durch die den Anbietern von Sharing-Diensten aufgrund von Buchst. a obliegende Verpflichtung, „alle Anstrengungen“ zu unternehmen, um eine Erlaubnis der Rechteinhaber einzuholen, deren Verhandlungsposition gestärkt. Zum anderen werde durch die diesen Diensteanbietern gemäß Buchst. c erster Satzteil obliegende Verpflichtung, nach Erhalt eines hinreichend begründeten Hinweises unverzüglich zu handeln, um den Zugang zu den entsprechenden Werken oder sonstigen Schutzgegenständen zu sperren bzw. diese von ihren Internetseiten zu entfernen, den Rechteinhabern ein wirksamer Schutz ihrer Rechte gewährleistet.

123.

Diese Auffassung teile ich nicht.

124.

Insoweit erinnere ich daran, dass das Kriterium der „Erforderlichkeit“ bedeutet, zu prüfen, ob es andere Maßnahmen gibt, die weniger belastend wären als die gewählte Maßnahme, mit denen das angestrebte Ziel aber genauso wirksam erreicht werden könnte ( 150 ).

125.

Wie aber das Parlament und der Rat im Wesentlichen vortragen, wäre eine Haftungsregelung, in deren Rahmen nur die mit Art. 17 Abs. 4 Buchst. a und Buchst. c erster Satzteil der Richtlinie 2019/790 vorgesehenen Pflichten auferlegt würden, zur Erreichung des vom Unionsgesetzgeber verfolgten Ziels eindeutig nicht genauso wirksam wie eine Regelung, die zusätzlich die Pflichten aus Buchst. b und Buchst. c letzter Satzteil dieses Absatzes vorschreibt – selbst wenn die ersteren Pflichten für das Recht auf freie Meinungsäußerung tatsächlich weniger belastend sein sollten als die letzteren ( 151 ).

126.

Wenngleich nämlich, wie die Klägerin geltend macht, die Pflicht der Anbieter von Sharing-Diensten, „alle Anstrengungen“ zu unternehmen, um eine Erlaubnis der Rechteinhaber einzuholen, bereits als solche deren Verhandlungsposition bei der Anbahnung von Lizenzvereinbarung mit diesen Anbietern stärkt, soll doch zum einen mit Art. 17 der Richtlinie 2019/790 nicht nur sichergestellt werden, dass die Rechteinhaber eine angemessene Vergütung für die Nutzung ihrer Werke und sonstigen Schutzgegenstände im Rahmen dieser Dienste erhalten. Vielmehr soll darüber hinaus gewährleistet werden, dass die Rechteinhaber eine solche Nutzung wirksam kontrollieren und insbesondere, wenn sie dies wünschen, die Verfügbarkeit dieser Inhalte auf solchen Diensten verhindern können.

127.

Zum anderen ist es unbestreitbar, dass sich die betroffenen Rechteinhaber, wie die Beklagten bemerken, im Rahmen eines Systems der Meldung und Entfernung, wie es aus Art. 14 der Richtlinie 2000/31 hervorgeht und im Wesentlichen auch in Art. 17 Abs. 4 Buchst. c erster Satzteil der Richtlinie 2019/790 übernommen wurde, der unzulässigen Nutzung ihrer Werke im Rahmen von Sharing-Diensten nicht genauso wirksam widersetzen können wie unter Berufung auf die angefochtenen Bestimmungen, die den Anbietern dieser Dienste außerdem Überwachungspflichten auferlegen.

3) Die streitige Einschränkung ist „verhältnismäßig“ im engeren Sinne

128.

Nach ständiger Rechtsprechung des Gerichtshofs ist eine Einschränkung der Ausübung eines in der Charta garantierten Grundrechts als „verhältnismäßig“ im engeren Sinne anzusehen, wenn die durch die betreffende Maßnahme bedingten Nachteile in angemessenem Verhältnis zu den angestrebten Zielen stehen ( 152 ).

129.

Im vorliegenden Fall bewirken die angefochtenen Bestimmungen, dass das in Art. 11 der Charta verankerte Recht auf freie Meinungsäußerung mit dem durch Art. 17 Abs. 2 der Charta geschützten Recht auf geistiges Eigentum kollidiert. Wie das Parlament, der Rat und die spanische Regierung betonen, gibt es keinen „automatischen Vorrang“ des ersten Rechts gegenüber dem zweiten ( 153 ). Bei der Beurteilung der Verhältnismäßigkeit dieser Bestimmungen ist somit, in den Worten des Gerichtshofs, darauf zu achten, „dass die mit dem Schutz der verschiedenen [Grundrechte] verbundenen Erfordernisse miteinander in Einklang gebracht werden und dass zwischen ihnen ein angemessenes Gleichgewicht besteht“ ( 154 ). Im Übrigen hat der Gerichtshof gerade für das Urheberrecht betont, dass dieser „angemessene Ausgleich“ im digitalen Umfeld zu wahren sei ( 155 ).

130.

Die Republik Polen macht geltend, genau diesen Ausgleich habe der Unionsgesetzgeber in Art. 17 der Richtlinie 2019/790 nicht gewahrt. Die Einschränkung der Meinungsfreiheit durch die angefochtenen Bestimmungen stehe außer Verhältnis zu den Vorteilen, die sie eventuell für den Schutz der Rechte des geistigen Eigentums bewirkten.

131.

Ich bin ebenso wie das Parlament, der Rat und die Kommission der Ansicht, dass der Unionsgesetzgeber beschließen durfte, den der Haftungsregelung für Anbieter von Sharing-Diensten immanenten Ausgleich zu verschieben (Unterabschnitt i). Die beschlossene neue Haftungsregelung ist allerdings mit erheblichen Gefahren für die Freiheit der Meinungsäußerung verbunden (Unterabschnitt ii), so dass der Unionsgesetzgeber ausreichende Schutzvorkehrungen treffen muss, um diese Gefahren zu minimieren (Unterabschnitt iii), was er meines Erachtens getan hat (Unterabschnitt iv).

i) Der Unionsgesetzgeber durfte den ursprünglich vorgesehenen Ausgleich durch einen neuen ersetzen

132.

Die in Art. 14 der Richtlinie 2000/31 vorgesehene Haftungsbefreiung für Vermittler ist Ausdruck eines vom Unionsgesetzgeber mit dem Erlass dieser Richtlinie beabsichtigten Gleichgewichts namentlich zwischen der Freiheit der Meinungsäußerung und den Rechten des geistigen Eigentums. Der Gesetzgeber wollte damals die Entwicklung dieser Diensteanbieter fördern, um ganz allgemein das Wachstum des elektronischen Geschäftsverkehrs und der „Dienste der Informationsgesellschaft“ im Binnenmarkt anzuregen. Diesen Anbietern sollte somit keine Verantwortung auferlegt werden, die ihre Tätigkeit gefährden könnte. Die Interessen der Rechteinhaber sollten gewahrt und gegen die Freiheit der Internetnutzer zur Meinungsäußerung im Rahmen des Systems der „Meldung und Entfernung“ sowie eventueller gerichtlicher Anordnungen gegen die Vermittler abgewogen werden ( 156 ).

133.

Wie der Rat feststellt, haben sich die Verhältnisse seither zweifellos geändert. Das Aufkommen der Dienstleistungen des „Web 2.0“ brachte neue wirtschaftliche und soziale Vorteile und Risiken für die unterschiedlichen Interessen hervor. In diesem Kontext durfte der Unionsgesetzgeber die Entscheidungen, die er fast 20 Jahre zuvor getroffen hatte, überprüfen sowie die veränderten Umstände bewerten und diese Vorteile und Risiken gegeneinander abwägen ( 157 ).

134.

Wie das Parlament, der Rat und die französische Regierung betont haben, steht dem Unionsgesetzgeber ein weites Ermessen zu, wenn er politische, wirtschaftliche oder soziale Entscheidungen treffen und komplexe Beurteilungen und Bewertungen vornehmen muss ( 158 ). Es ist zweifellos eine „komplexe“ Aufgabe, das Urheberrecht an das digitale Umfeld anzupassen und eine Haftungsregelung für Online-Sharing-Dienste zu erlassen, die einen angemessenen Ausgleich zwischen allen betroffenen Interessen herstellt ( 159 ).

135.

Auch der EGMR räumt den Behörden ein weites Ermessen ein, wenn sie verschiedene durch die EMRK geschützte Rechte gegeneinander abzuwägen haben ( 160 ). Dieses Ermessen war vorliegend umso wichtiger, als der Unionsgesetzgeber grundsätzlich nicht unmittelbar politische Meinungsäußerungen zu regeln hatte, sondern die Nutzung von Werken und sonstigen Schutzgegenständen ( 161 ).

136.

In einem intensiv erörterten Kontext ( 162 ) traf der Unionsgesetzgeber eine politische Entscheidung zugunsten der Kreativbranchen. Er war der Auffassung, dass der bisherige Ausgleich zwischen den involvierten Rechten und Interessen nicht mehr zufriedenstellend sei und dass, um weiterhin ein hohes Schutzniveau für die Rechteinhaber zu gewährleisten ( 163 ), eine neue Haftungsregelung für bestimmte Anbieter von Dienstleistungen des „Web 2.0“ erlassen werden sollte, durch die ihnen bestimmte Verpflichtungen zur Überwachung der von den Nutzern ihrer Dienste in das Netz gestellten Inhalte auferlegt würden. In Anbetracht des dem Gesetzgeber zustehenden weiten Ermessens war eine solche Entscheidung meines Erachtens grundsätzlich nicht unverhältnismäßig.

137.

Konkret ergibt sich die Verhältnismäßigkeit der angefochtenen Bestimmungen nach meiner Meinung aus der Kombination der von den Beklagten und den Streithelfern vorgetragenen Faktoren: 1. dem großen wirtschaftlichen Schaden, der den Rechteinhabern durch die unerlaubte Veröffentlichung ihrer Werke auf Online-Sharing-Diensten angesichts der riesigen Menge an auf diesen Diensten hochgeladenen Inhalten und der Geschwindigkeit des Informationsaustauschs im Internet entsteht ( 164 ), 2. der Tatsache, dass die Rechteinhaber aus denselben Gründen mit Hilfe des Systems der „Meldung und Entfernung“ nur schwer kontrollieren können, wie ihre Werke auf diesen Diensten genutzt werden, 3. den Schwierigkeiten, auf die sie bei der gerichtlichen Verfolgung der verantwortlichen Nutzer stoßen, und 4. dem Umstand, dass die Überwachungspflichten nur für bestimmte Vermittler gelten. Zum letzteren Punkt weise ich darauf hin, dass die Anbieter von Sharing-Diensten durch die Förderung der von ihnen bereitgestellten Inhalte ( 165 ) einen gewissen Einfluss auf die öffentlich zugänglichen Informationen ausüben. Diese Aspekte rücken die betreffenden Anbieter in gewissem Maße in die Nähe traditioneller Vermittler wie z. B. Herausgeber ( 166 ), so dass es verhältnismäßig sein kann, für sie eine besondere Haftungsregelung zu erlassen, die sich von der für andere Hosting-Provider geltenden Regelung unterscheidet ( 167 ).

138.

Zudem hat der EGMR, wie die spanische und die französische Regierung vortragen, in seinem Urteil Delfi AS/Estland entschieden, im Rahmen einer Abwägung zwischen der Freiheit der Meinungsäußerung im Sinne von Art. 10 EMRK und dem in Art. 8 EMRK verankerten Recht auf Schutz der Ehre sei es nicht unverhältnismäßig, ein großes Online-Newsportal dafür zur Verantwortung zu ziehen, dass es die Veröffentlichung bestimmter Arten von unzulässigen Kommentaren, die von Nutzern im Anschluss an einen Artikel auf seiner Website gepostet worden seien, nicht verhindert oder zumindest aus eigener Initiative unverzüglich entfernt habe.

139.

In diesem Urteil stellte der EGMR 1. auf den Umfang des durch derartige Kommentare angesichts der Geschwindigkeit des digitalen Informationsaustauschs verursachten Schadens ( 168 ) sowie 2. darauf ab, dass das System der „Meldung und Entfernung“ zwar in vielen Fällen ein geeignetes Instrument zur Abwägung der Rechte und Interessen aller Beteiligten sein möge, jedoch nicht ausreiche, um den durch solche Kommentare verursachten schweren Schaden zu beheben ( 169 ). Der EGMR wies auch darauf hin, dass es 3. für das Opfer schwierig gewesen wäre, die Verfasser der Kommentare zu verklagen, und dass 4. der Betreiber des Newsportals einen gewissen Einfluss auf die von den Nutzern geposteten Kommentare ausgeübt habe, weshalb man einen speziellen Ansatz für die Haftung eines solchen Vermittlers habe rechtfertigen können ( 170 ). Daher lässt sich eine gewisse Analogie mit dem vorliegenden Fall herstellen ( 171 ).

ii) Die Risiken, die mit einer Haftungsregelung verbunden sind, wie sie aus den angefochtenen Bestimmungen resultiert

140.

Wie das Parlament im Wesentlichen geltend macht, wird die den Anbietern von Sharing-Diensten durch die angefochtenen Bestimmungen vorgeschriebene Filterung verhindern, dass Inhalte über diese Dienste verbreitet werden, die das Urheberrecht oder verwandte Schutzrechte verletzen, so dass die sich aus diesen Bestimmungen ergebende Einschränkung des Rechts auf freie Meinungsäußerung in Bezug auf diese Inhalte gerechtfertigt ist.

141.

Die Verbindung, die der Unionsgesetzgeber in diesen Bestimmungen zwischen der Verantwortlichkeit der Anbieter von Sharing-Diensten und der Wirksamkeit dieser Filterung hergestellt hat, bringt jedoch für die Freiheit der Meinungsäußerung ein erhebliches Risiko mit sich: die Gefahr eines „Overblocking“ zulässiger Inhalte.

142.

Ein solche Gefahr des „Overblocking“ besteht generell, wenn Vermittler vom Staat für unzulässige Informationen verantwortlich gemacht werden, die von den Nutzern ihrer Dienste verbreitet worden sind. Um jegliches Haftungsrisiko auszuschließen, mögen diese Vermittler dazu neigen, solche Informationen beim geringsten Zweifel an ihrer Rechtmäßigkeit in übertriebenem Eifer zu sperren ( 172 ).

143.

Im vorliegenden Fall besteht konkret die Gefahr, dass Anbieter von Sharing-Diensten, um jegliches Risiko einer Haftung gegenüber den Rechteinhabern zu vermeiden, systematisch verhindern, dass alle Inhalte, die Werke und sonstige Schutzgegenstände vervielfältigen, bezüglich deren sie „einschlägige und notwendige Informationen“ oder einen „hinreichend begründeten Hinweis“ von den Rechteinhabern erhalten haben, auf ihren Diensten zugänglich gemacht werden, und zwar auch solche, die deren Rechte nicht verletzen ( 173 ).

144.

Denn abgesehen davon, dass einige der Nutzer, welche die betreffenden Inhalte ins Netz stellen wollen, möglicherweise eine Lizenz für die betreffenden Werke und Schutzgegenstände besitzen, steht den Rechteinhabern für Letztere kein absolutes Nutzungsrecht zu. Art. 5 Abs. 3 der Richtlinie 2001/29 enthält insoweit eine Liste von Ausnahmen und Beschränkungen in Bezug auf das ausschließliche Recht der „öffentlichen Wiedergabe“. Diese Ausnahmen und Beschränkungen sichern grundsätzlich einen „angemessenen Ausgleich“ zwischen dem Interesse der Rechteinhaber am Schutz ihres geistigen Eigentums einerseits und dem Schutz der Interessen und Grundrechte der Nutzer von Schutzgegenständen sowie des Allgemeininteresses ( 174 ) – insbesondere des öffentlichen Zugangs zur Kultur – andererseits. Vor allem wird im Rahmen mehrerer dieser Ausnahmen und Beschränkungen, darunter derjenigen, die sich auf Zitate, Kritiken und Rezensionen ( 175 ) sowie auf Karikaturen, Parodien und Pastiches ( 176 ) beziehen, in ihrem jeweiligen Anwendungsbereich dem Recht der Nutzer auf freie Meinungsäußerung und kreative Tätigkeit Vorrang vor den Interessen der Rechteinhaber eingeräumt.

145.

Ein erheblicher Teil der Inhalte, die von Nutzern auf Sharing-Diensten hochgeladen werden, besteht aber gerade darin, dass sie Werke und sonstige Schutzgegenstände verwenden oder sich ihrer kreativ „bemächtigen“, was durch diese Ausnahmen und Beschränkungen gedeckt sein könnte ( 177 ).

146.

Ob eine solche Ausnahme oder Beschränkung auf einen bestimmten Inhalt anwendbar ist, hängt jedoch vom Kontext ab und verlangt eine entsprechende Prüfung ( 178 ). Die Grenze zwischen berechtigter Nutzung und Rechtsverletzung kann in manchen Fällen problematisch sein ( 179 ). In all diesen Zweifelsfällen mag es den Anbietern von Sharing-Diensten einfacher erscheinen, zu verhindern, dass die betreffenden Inhalte öffentlich zugänglich gemacht werden, als sich im Rahmen eines von den Rechteinhabern möglicherweise angestrengten Schadensersatzprozesses auf die Anwendung dieser Ausnahmen oder Beschränkungen berufen zu müssen ( 180 ).

147.

Die soeben beschriebene Gefahr des „Overblocking“ wird im vorliegenden Fall dadurch erhöht, dass die Anbieter von Sharing-Diensten infolge der Freistellungsvoraussetzungen gemäß Art. 17 Abs. 4 Buchst. b und Buchst. c letzter Satzteil der Richtlinie 2019/790 de facto in einer Vielzahl von Fällen gezwungen sind, Tools zur automatischen Inhaltserkennung einzusetzen.

148.

In diesem Kontext dürfen die systemimmanenten Grenzen der fraglichen Tools nicht außer Acht gelassen werden, auf die von der Klägerin zutreffend hingewiesen wurde und die im Übrigen der Gerichtshof bereits in seinen Urteilen Scarlet Extended und SABAM festgestellt hat ( 181 ). Denn die Tools zur automatischen Inhaltserkennung erkennen eigentlich Inhalte, nicht aber Verletzungen des Urheberrechts. Diese Tools, insbesondere solche, die mit der Technik des „digitalen Fingerabdrucks“ arbeiten, können Übereinstimmungen erkennen, d. h., feststellen, dass der Inhalt einer bestimmten Datei ganz oder teilweise den einer Referenzdatei reproduziert ( 182 ). Dagegen sind diese Tools, wie die Republik Polen geltend macht, nach derzeitigem Stand nicht in der Lage, den Kontext zu beurteilen, in dem das reproduzierte Werk genutzt wird, und insbesondere die Anwendung einer Ausnahme oder Beschränkung des Urheberrechts zu erkennen ( 183 ). Die Gefahr des „Overblocking“ ist umso größer, je besser diese Tools Übereinstimmungen bei immer kürzeren Datenauszügen (z. B. wenige Sekunden für einen Tonträger) erkennen können. Ihre Verwendung birgt daher die Gefahr, dass den Nutzern ein durch die genannten Ausnahmen und Beschränkungen erlaubter Raum für Gestaltung und kreatives Schaffen genommen wird ( 184 ). Zudem hängt die Eignung der Tools zur automatischen Erkennung rechtsverletzender Inhalte von der Genauigkeit und dem Wahrheitsgehalt der von den Rechteinhabern übermittelten Informationen ab. Die Verwendung dieser Tools kann daher zu ungerechtfertigten Forderungen z. B. bezüglich gemeinfreier Werke führen ( 185 ), die auf falschen oder missbräuchlichen Referenzangaben beruhen (sogenanntes „Over-Claim“-Risiko) ( 186 ).

iii) Die Notwendigkeit, ausreichende Schutzvorkehrungen zu treffen, um diese Risiken zu minimieren

149.

In Anbetracht der im vorigen Unterabschnitt beschriebenen Risiken des „Overblocking“ muss eine Haftungsregelung, wie sie sich aus den angefochtenen Bestimmungen ergibt, meines Erachtens mit ausreichenden Schutzvorkehrungen verbunden sein, damit diese Risiken minimiert werden und somit sichergestellt wird, dass der Umfang des Eingriffs in die Meinungsfreiheit genau eingegrenzt ist ( 187 ). Es bedarf ganz allgemein solcher Schutzvorkehrungen, wann immer die Behörden die Kontrolle der Legalität im Internet an Vermittler delegieren ( 188 ), indem sie ihnen direkt oder indirekt Überwachungspflichten auferlegen.

150.

Eine solche Regelung muss meines Erachtens insbesondere Teil eines Regelwerks mit klaren und präzisen Vorschriften über die Tragweite und die Anwendung der von den jeweiligen Diensteanbietern zu ergreifenden Filtermaßnahmen sein, damit den Nutzern dieser Dienste ein wirksamer Schutz vor einer missbräuchlichen oder willkürlichen Blockierung der Informationen, die sie ins Netz hochladen möchten, gewährleistet wird ( 189 ).

151.

Ich möchte auch darauf hinweisen, dass der Unionsgesetzgeber diesbezüglich eine große Verantwortung trägt, wenn die Einschränkung der Grundrechte auf die Unionsgesetzgebung selbst zurückgeht und daher wie vorliegend ( 190 ) ihm zuzurechnen ist. In einem solchen Fall kann er es nicht allein den Mitgliedstaaten – geschweige denn den mit der Durchführung dieser Gesetzgebung betrauten Diensteanbietern – überlassen, derartige Schutzvorkehrungen zu treffen. Er muss vielmehr zumindest ihren wesentlichen Inhalt festlegen ( 191 ). Da es sich vorliegend jedoch um eine Richtlinie handelt, die zudem einen technischen Bereich betrifft, werden die Mitgliedstaaten – und die Kommission – bestimmte Modalitäten der Umsetzung näher bestimmen müssen ( 192 ).

152.

Hinzu kommt, dass der Unionsgesetzgeber den wesentlichen Inhalt dieser Schutzvorkehrungen festlegen muss, um eine einheitliche Anwendung des Unionsrechts in allen Mitgliedstaaten zu gewährleisten – wobei diese Einheitlichkeit im vorliegenden Fall besonders deshalb geboten ist, weil es sich um eine aufgrund von Art. 114 AEUV erlassene Harmonisierungsrichtlinie handelt. International tätige Anbieter von Sharing-Diensten sollten nicht 27 nationale Haftungsregelungen zu beachten haben, die ihnen hinsichtlich des Umfangs der Filterung möglicherweise unterschiedliche Verpflichtungen auferlegen. Vor allem sollten die Nutzer dieser Dienste im Wesentlichen den gleichen Schutz vor missbräuchlichen oder willkürlichen Sperrmaßnahmen genießen, unabhängig davon, in welchem Mitgliedstaat sie sich befinden.

153.

Ich fasse zusammen: Dem Unionsgesetzgeber steht zwar ein weites Ermessen bei der Frage zu, ob eine Haftungsregelung wie die in den angefochtenen Bestimmungen vorgesehene überhaupt eingeführt werden soll; er kann aber nicht auf ausreichende Schutzvorkehrungen verzichten, um die mit dieser Regelung verbundenen Gefahren für die Meinungsfreiheit zu minimieren. Es ist meines Erachtens Aufgabe des Gerichtshofs, die Einhaltung dieses Erfordernisses gewissenhaft zu überprüfen ( 193 ).

iv) Die im vorliegenden Fall getroffenen Schutzvorkehrungen

154.

Nach Ansicht der Republik Polen ist der Unionsgesetzgeber diesem Erfordernis im vorliegenden Fall nicht nachgekommen. Die angefochtenen Bestimmungen seien nicht mit Schutzvorkehrungen verbunden, die geeignet wären, das Ausmaß des Eingriffs in die Meinungsfreiheit der Nutzer von Sharing-Diensten zu begrenzen.

155.

Nach Ansicht der Beklagten und der Streithelfer enthält Art. 17 der Richtlinie 2019/790 hingegen ein „umfassendes System von Schutzvorkehrungen“. Die angefochtenen Bestimmungen seien nämlich untrennbar mit den Abs. 5, 7, 8 und 9 dieses Artikels verbunden. Diese Absätze enthielten klare und präzise Regeln über die Tragweite und die Anwendung der von den Diensteanbietern durchzuführenden Maßnahmen und stellten damit einen „angemessenen Ausgleich“ zwischen den Rechten des geistigen Eigentums und der Meinungsfreiheit her.

156.

Art. 17 Abs. 5 der Richtlinie 2019/790, wonach die von jedem Diensteanbieter zu ergreifenden Maßnahmen, wie gesagt, im Licht des Verhältnismäßigkeitsgrundsatzes anhand von Faktoren wie „Umfang der Dienste“ oder „Kosten“ der verfügbaren Mittel zu beurteilen sind, scheint mir eher für die Frage der Achtung der Unternehmensfreiheit – die nicht Gegenstand der vorliegenden Rechtssache ist – relevant zu sein als für die Meinungsfreiheit. Ich halte es daher für überflüssig, mich damit zu befassen.

157.

Hingegen enthalten meines Erachtens die Abs. 7, 8 und 9 dieses Artikels in der Tat wichtige Vorkehrungen, um Nutzer von Sharing-Diensten vor missbräuchlicher oder willkürlicher Sperrung ihrer Inhalte zu schützen. Ich werde diese Bestimmungen deshalb in den folgenden Unterabschnitten prüfen.

– Das Recht auf zulässige Nutzungen von Schutzgegenständen (Abs. 7) und das Beschwerdeverfahren (Abs. 9)

158.

Die Beklagten und die Streithelfer haben zutreffend ausgeführt, Art. 17 Abs. 7 der Richtlinie 2019/790 enthalte eine der wichtigsten Schutzvorkehrungen zur Begrenzung des Risikos, dass Anbieter von Sharing-Diensten unter Berufung auf die angefochtenen Bestimmungen verhinderten, dass auf ihren Diensten Inhalte zugänglich gemacht würden, die von den Rechteinhabern benannte Werke und sonstige Schutzgegenstände zulässigerweise reproduzierten.

159.

Zum einen lautet Unterabs. 1 dieses Abs. 7 nämlich: „Die Zusammenarbeit zwischen den Diensteanbietern für das Teilen von Online‑Inhalten und den Rechteinhabern[ ( 194 )] darf nicht bewirken, dass von Nutzern hochgeladene Werke oder sonstige Schutzgegenstände, bei denen kein Verstoß gegen das Urheberrecht oder verwandte Schutzrechte vorliegt, nicht verfügbar sind, und zwar auch dann, wenn die Nutzung eines Werkes oder sonstigen Schutzgegenstandes im Rahmen einer Ausnahme oder Beschränkung erlaubt ist.“ ( 195 )

160.

Zum anderen müssen die Mitgliedstaaten nach Unterabs. 2 dieses Abs. 7 sicherstellen, dass sich die Nutzer, wenn sie Inhalte auf Sharing-Diensten hochladen, auf Ausnahmen und Beschränkungen in Bezug auf a) Zitate, Kritik und Rezensionen sowie b) die Nutzung zum Zwecke von Karikaturen, Parodien oder Pastiches ( 196 ) berufen können.

161.

Daraus folgt, dass der Unionsgesetzgeber für die Nutzer von Sharing-Diensten im Bereich des Urheberrechts ausdrücklich subjektive Rechte begründet hat. Diese Nutzer haben den Anbietern von Sharing-Diensten und den Rechteinhabern gegenüber nunmehr das Recht, im Rahmen dieser Dienste zulässige Nutzungen der Schutzgegenstände vorzunehmen, einschließlich des Rechts, die Ausnahmen und Beschränkungen des Urheberrechts und der verwandten Schutzrechte in Anspruch zu nehmen ( 197 ). Dass der Gesetzgeber die Bedeutung dieser Ausnahmen und Beschränkungen für die Nutzer anerkannt hat, steht im Einklang mit der Rechtsprechung des Gerichtshofs, der kürzlich selbst festgestellt hat, dass sie „Rechte [zugunsten der Nutzer] enthalten“ ( 198 ).

162.

Nach Art. 17 Abs. 7 der Richtlinie 2019/790 dürfen sich die Nutzer auf alle im Unionsrecht festgelegten Ausnahmen und Beschränkungen berufen ( 199 ), insbesondere auf diejenigen, die in Art. 5 der Richtlinie 2001/29 vorgesehen sind (allerdings nur, soweit diese Bestandteil des geltenden nationalen Rechts sind). Während dieser Art. 5 es den Mitgliedstaaten freistellt, die darin aufgeführten Ausnahmen und Beschränkungen umzusetzen ( 200 ), verpflichtet Art. 17 Abs. 7 sie nunmehr, zumindest die Ausnahmen und Beschränkungen in Bezug auf Zitate und Parodien in ihr innerstaatliches Recht zu übernehmen ( 201 ), da diese für die Meinungsfreiheit besonders wichtig sind.

163.

Daraus folgt konkret, dass Anbieter von Sharing-Diensten nicht berechtigt sind, Inhalte, die Werke oder sonstige Schutzgegenstände zu Recht nutzen, mit der Begründung zu sperren oder zu entfernen, diese Inhalte verletzten das Urheberrecht ( 202 ). Insbesondere dürfen sie in ihren allgemeinen Nutzungsbedingungen oder in Vertragsvereinbarungen mit den Rechteinhabern nicht mehr die Anwendung der Ausnahmen und Beschränkungen etwa durch die Klausel ausschließen, wonach eine solche Sperrung oder Entfernung schon dann gerechtfertigt ist, wenn die Rechteinhaber eine Urheberrechtsverletzung nur behaupten ( 203 ). Vielmehr müssen diese Anbieter ihre Nutzer in den allgemeinen Nutzungsbedingungen darüber informieren, dass sie Werke und sonstige Schutzgegenstände im Rahmen dieser Ausnahmen und Beschränkungen nutzen dürfen ( 204 ).

164.

Meines Erachtens hat der Unionsgesetzgeber mit dem Erlass von Art. 17 Abs. 7 der Richtlinie 2019/790 in Kenntnis der sich aus der von ihm geschaffenen Haftungsregelung möglicherweise ergebenden Risiken des „Overblocking“ ( 205 ) und um einen „angemessenen Ausgleich“ zwischen den involvierten Rechten und Interessen zu gewährleisten und die Freiheit der Meinungsäußerung der Nutzer der Sharing-Dienste zu schützen ( 206 ), eine klare und präzise Begrenzung der Filter- und Sperrmaßnahmen vorgesehen, die von den Anbietern dieser Dienste nach Art. 17 Abs. 4 zu ergreifen sind.

165.

In diesem Zusammenhang haben das Parlament, der Rat und die Kommission zutreffend darauf hingewiesen, dass Art. 17 Abs. 7 angesichts der zwingenden Formulierung in seinem Unterabs. 1 – „darf nicht bewirken“ ( 207 ) – den Anbietern von Sharing-Diensten eine Erfolgspflicht auferlegt: Sie sind im Ergebnis dazu verpflichtet, nicht zu verhindern, dass auf ihren Diensten Inhalte zugänglich gemacht werden, die Werke und sonstige Schutzgegenstände zulässigerweise reproduzieren, auch wenn diese Werke und Gegenstände von den Rechtsinhabern benannt worden sein sollten. Damit sind die Grenzen zulässiger Filter- und Sperrmaßnahmen klar abgesteckt: Diese dürfen weder bezwecken noch bewirken, dass solche berechtigten Nutzungen verhindert werden. Diese Bestimmung trägt somit dazu bei, einer Neigung der betreffenden Anbieter zur „Überreaktion“ entgegenzuwirken und so das Ausmaß des Eingriffs in die Meinungsfreiheit dergestalt zu begrenzen, dass er sich auf die Verbreitung von Inhalten beschränkt, die gegen das Urheberrecht verstoßen.

166.

Die Republik Polen entgegnet freilich, wegen der in Nr. 148 der vorliegenden Schlussanträge beschriebenen begrenzten Funktionsweise der Tools zur Inhaltserkennung, die insbesondere nicht fähig seien, die Anwendung der Ausnahmen und Beschränkungen des Urheberrechts zu erkennen, sei Art. 17 Abs. 7 der Richtlinie 2019/790 eher ein frommer Wunsch als eine effektive Schutzvorkehrung. In der Praxis würden die unter diese Ausnahmen und Einschränkungen fallenden Inhalte durch die betreffenden Tools automatisch blockiert. Diese Bestimmung könne den Nutzern von Sharing-Diensten daher keinen wirksamen Schutz vor missbräuchlichen oder willkürlichen Sperrungen ihrer Inhalte bieten.

167.

Das Vorbringen der Klägerin zu diesem Punkt ist Ausdruck einer grundlegenden Meinungsverschiedenheit zwischen den Parteien und den Streithelfern über die Reichweite von Art. 17 Abs. 7 und die konkrete Art und Weise, wie die Rechte der Nutzer in der Praxis gewahrt werden sollen. In der Tat wurden vor dem Gerichtshof zwei unterschiedliche Lesarten dieser Bestimmung erörtert.

168.

Nach der ersten Lesart, auf die die Republik Polen ihre Klage stützt und der sich auch die spanische und die französische Regierung anschließen, besteht der (einzige) Mechanismus ( 208 ), der in der Praxis verhindere, dass die von Sharing-Diensteanbietern in Anwendung der angefochtenen Bestimmungen getroffenen Filter- und Sperrmaßnahmen berechtigte Nutzungen von Werken und sonstigen Schutzgegenständen auf ihren Diensten unzugänglich machten, in dem „Beschwerde- und Rechtsbehelfsverfahren“, das diese Anbieter gemäß Art. 17 Abs. 9 der Richtlinie 2019/790 den Nutzern ihrer Dienste „im Fall von Streitigkeiten über die Sperrung des Zugangs zu den von diesen hochgeladenen Werken oder sonstigen Schutzgegenständen bzw. über die Entfernung der von diesen hochgeladenen Werke oder sonstigen Schutzgegenstände“ zur Verfügung stellen müssten.

169.

Konkret sollten Anbieter von Sharing-Diensten alle Inhalte, die von den Rechteinhabern benannte Werke und sonstige Schutzgegenstände ganz oder teilweise reproduzieren, auf deren Wunsch ex ante sperren – unabhängig davon, ob sie deren Rechte verletzten –, mit der Maßgabe, dass ein Nutzer, der diese Gegenstände nach seiner Ansicht rechtmäßig z. B. im Rahmen einer Ausnahme oder Beschränkung nutze, eine entsprechende Beschwerde einreichen müsse. Sei diese Beschwerde begründet, werde der betreffende Inhalt nach seiner Prüfung ex post im Netz zugänglich gemacht. Die Klägerin sowie die spanische und die französische Regierung stimmen zwar in ihrem Verständnis von Art. 17 Abs. 7 der Richtlinie 2019/790 überein, widersprechen sich aber radikal hinsichtlich der hieraus zu ziehenden Konsequenzen ( 209 ).

170.

Nach der zweiten Lesart, die vom Parlament, vom Rat und von der Kommission vertreten wird, haben die Anbieter von Sharing-Diensten das in Art. 17 Abs. 7 der Richtlinie 2019/790 vorgesehene Recht der Nutzer dieser Dienste auf zulässige Nutzung von Schutzgegenständen ex ante, also schon bei der Filterung, zu berücksichtigen. Die angefochtenen Bestimmungen und dieser Abs. 7 seien nämlich als Einheit zu verstehen; die darin vorgesehenen Verpflichtungen seien „gleichzeitig“ zu erfüllen. Soweit die Anbieter von Sharing-Diensten nach diesen Bestimmungen „alle Anstrengungen“ unternehmen müssten, um das Hochladen der von den Rechteinhabern benannten Werke und Schutzgegenstände zu verhindern, dürfe dies in der Praxis somit nicht zu einer präventiven und systematischen Sperrung solcher berechtigten Nutzungen führen. Das in Art. 17 Abs. 9 vorgesehene Beschwerde- und Rechtsbehelfsverfahren biete einen zusätzlichen und endgültigen Schutz in Fällen, in denen diese Anbieter trotz der Verpflichtung aus Abs. 7 solche zulässigen Inhalte versehentlich doch sperrten.

171.

Ich pflichte der letzteren Auslegung bei, die meines Erachtens auf eine wörtliche, systematische und historische Auslegung von Art. 17 der Richtlinie 2019/790 gestützt werden kann.

172.

Was zunächst den Wortlaut betrifft, so heißt es in Art. 17 Abs. 7 der Richtlinie 2019/790, dass die Zusammenarbeit zwischen Rechteinhabern und Anbietern von Sharing-Diensten nicht bewirken darf, dass Inhalte, die Werke oder sonstige Schutzgegenstände rechtmäßig vervielfältigen, „nicht verfügbar sind“. Eine Auslegung, der zufolge solche Inhalte systematisch ex ante gesperrt werden dürfen, sofern die Nutzer ex post ihre erneute Freigabe erreichen könnten, ist meines Erachtens mitnichten das naheliegendste Verständnis dieses Textes ( 210 ).

173.

Sodann sind die angefochtenen Bestimmungen und der genannte Abs. 7 in systematischer Hinsicht, wie die Kommission vorträgt, im Licht von Art. 17 Abs. 9 Unterabs. 3 zu verstehen, wonach die Richtlinie die berechtigte Nutzung von Werken und Schutzgegenständen „in keiner Weise beeinträchtigt“. Wenn die betreffenden Inhalte systematisch ex ante gesperrt würden und die Nutzer eine Beschwerde einreichen müssten, um sie hochladen zu können, würde diese berechtigte Nutzung aber offensichtlich in irgendeiner Weise „beeinträchtigt“.

174.

Außerdem wird die Frage der berechtigten Nutzung von Schutzgegenständen nicht nur im 70. Erwägungsgrund der Richtlinie 2019/790 angesprochen, der sich auf das Beschwerdeverfahren bezieht, sondern auch im ersten Absatz des 66. Erwägungsgrundes ( 211 ), der die von den Anbietern von Sharing-Diensten aufgrund der angefochtenen Bestimmungen zu ergreifenden Präventivmaßnahmen betrifft. Darüber hinaus besteht nach dem ersten Absatz des 70. Erwägungsgrundes der Zweck des Beschwerdeverfahrens darin, solche berechtigte Nutzungen „zu unterstützen“, nicht aber „zu erlauben“.

175.

Schließlich scheinen die Gesetzesmaterialien diese Auslegung zu bestätigen. Insoweit stelle ich fest, dass Art. 17 Abs. 9 der Richtlinie 2019/790 auf Art. 13 Abs. 2 des Richtlinienvorschlags zurückgeht. Dieser Vorschlag enthielt keine Bestimmung über berechtigte Nutzungen von Werken und sonstigen Schutzgegenständen. Eine derartige Bestimmung wurde im Wege von Änderungen während der ersten Lesung des Textes im Parlament und im Rat hinzugefügt. Laut diesen Änderungen sollten durch das Beschwerde- und Rechtsbehelfsverfahren speziell diese berechtigten Nutzungen gewährleistet werden ( 212 ). Nachdem das Parlament den Text am 5. Juli 2018 erstmals abgelehnt hatte, wurden in späteren Versionen des Textes und in der schließlich verabschiedeten Fassung die Fragen betreffend die Nutzerrechte sowie das Beschwerde- und Rechtsbehelfsverfahren voneinander getrennt und in zwei separaten Bestimmungen geregelt.

176.

Das Gesetzgebungsverfahren zeigt aus meiner Sicht auch, dass die Absicht des Unionsgesetzgebers in diesem Punkt eine Entwicklung erfahren hat. Während Art. 13 des Richtlinienvorschlags einseitig die Rechteinhaber begünstigte, mutierte dieser Art. 13 im Zuge seiner Annahme als Art. 17 der Richtlinie 2019/790 zu einer komplexen Bestimmung, mit der die verschiedenen involvierten Interessen anerkannt und einem Ausgleich zugeführt werden sollten. Wie der Rat vorträgt, wollte der Gesetzgeber mit dieser Bestimmung sowohl die Rechteinhaber als auch die Nutzer schützen. Wie vom Parlament dargelegt, ist Art. 17 insoweit Ausdruck eines sensiblen Kompromisses. Diese Entstehungsgeschichte darf bei seiner Auslegung nicht übergangen werden ( 213 ).

177.

Die vom Parlament, vom Rat und von der Kommission befürwortete Auslegung, wonach die Rechte der Nutzer nach Art. 17 Abs. 7 der Richtlinie 2019/790 ex ante und nicht nur ex post zu berücksichtigen sind, gewährleistet darüber hinaus die Verhältnismäßigkeit der mit den angefochtenen Bestimmungen verbundenen Einschränkung des Rechts auf freie Meinungsäußerung ( 214 ).

178.

Insoweit trifft es zwar zu, dass das in Art. 17 Abs. 9 der Richtlinie 2019/790 geregelte Beschwerde- und Rechtsbehelfsverfahren sowohl eine wesentliche Schutzvorkehrung als auch einen großen Fortschritt gegenüber der Richtlinie 2000/31 darstellt ( 215 ). Angesichts der mit jedem Filtersystem verbundenen Gefahr des „Overblocking“ ist es ein notwendiger Bestandteil eines solchen Systems. Außerdem hat der Unionsgesetzgeber dieses Verfahren mit verlaufstechnischen „Teilgarantien“ versehen. Das Verfahren muss „wirksam und zügig“ sein, und die so eingereichten Beschwerden sind „unverzüglich“ zu bearbeiten. Mit anderen Worten: Die Anbieter von Sharing-Diensten müssen hierbei genauso zügig vorgehen, wie sie auf Hinweise von Rechteinhabern gemäß Art. 17 Abs. 4 Buchst. c der Richtlinie 2019/790 zu reagieren haben ( 216 ). Ferner müssen die Rechteinhaber ihre Anträge auf Sperrung „in angemessener Weise“ begründen, und die Beschwerden müssen von Menschen überprüft werden.

179.

Darüber hinaus müssen die Mitgliedstaaten nach Art. 17 Abs. 9 auch gewährleisten, dass zur Beilegung von Streitigkeiten zwischen Nutzern und Rechteinhabern außergerichtliche Rechtsbehelfsverfahren zur Verfügung stehen. Solche Verfahren dienen der unparteiischen Beilegung dieser Streitigkeiten. Noch wichtiger ist es in meinen Augen, dass die Mitgliedstaaten verpflichtet sind, „wirksame gerichtliche Rechtsbehelfe“ in diesem Bereich bereitzustellen. Dazu hat der Gerichtshof in seinem Urteil UPC Telekabel Wien ( 217 ) sinngemäß ausgeführt, ein solches Recht auf einen wirksamen gerichtlichen Rechtsbehelf sei unbedingt erforderlich, um die Wahrnehmung des Rechts auf freie Meinungsäußerung im Internet zu gewährleisten.

180.

Dennoch wären diese Verfahrensgarantien, so wichtig sie sind, für sich genommen nicht ausreichend, um ein „angemessenes Gleichgewicht“ zwischen dem Urheberrecht und der Meinungsfreiheit der Nutzer herzustellen.

181.

Erstens entbindet die Existenz solcher Verfahrensgarantien nach der Rechtsprechung des Gerichtshofs und des EGMR die Behörden nicht davon, die Nebeneffekte einer Filter- und Sperrmaßnahme zu minimieren. Hierbei handelt es sich um verschiedene und kumulative Verpflichtungen.

182.

Diese beiden Gerichte haben in der Tat wiederholt entschieden, sämtliche Filter- und Sperrmaßnahmen müssten in dem Sinne „streng zielorientiert“ sein, dass sie sich auf unzulässige Inhalte konzentrieren müssten und keine willkürlichen oder übermäßigen Auswirkungen auf zulässige Inhalte haben dürften ( 218 ). In seinem Urteil L’Oréal u. a. ( 219 ) hat der Gerichtshof mit derselben Stoßrichtung festgestellt, die einem Vermittler vorgeschriebenen Überwachungsmaßnahmen dürften keine Hindernisse für berechtigte Nutzungen seines Dienstes begründen. Schließlich hat der Gerichtshof in seinem Urteil UPC Telekabel Wien ( 220 ) entschieden, eine Sperrmaßnahme dürfe den Internetnutzern „nicht unnötig“ die Möglichkeit vorenthalten, Informationen in rechtmäßiger Weise zu teilen und darauf zuzugreifen.

183.

Diese Rechtsprechung besagt nicht, dass das Recht auf freie Meinungsäußerung solchen Maßnahmen entgegensteht, sobald sie geeignet sein sollten, jedwede Sperrung zulässiger Inhalte zu bewirken. Der vom Gerichtshof verwendete Begriff „unnötig“ deutet meines Erachtens darauf hin, dass ein „Overblocking“ in gewissen Fällen gerechtfertigt sein kann, wenn es erforderlich ist, um die Rechte von Rechteinhabern wirksam zu schützen.

184.

Allerdings muss auch hier ein „angemessenes Gleichgewicht“ zwischen der Wirksamkeit der Filterung und ihren Nebeneffekten bestehen. Wie aus der Rechtsprechung des EGMR im Wesentlichen hervorgeht, kann in einer demokratischen Gesellschaft keine absolute Wirksamkeit und damit ein „Null-Risiko“ in Bezug auf mögliche Urheberrechtsverletzungen verlangt werden, wenn dies die Sperrung einer nicht vernachlässigbaren Zahl rechtmäßiger Inhalte zur Folge hätte ( 221 ).

185.

Die französische Regierung entgegnet, nach ihrem Verständnis von Art. 17 der Richtlinie 2019/790 genügten die von den Anbietern von Sharing-Diensten aufgrund der angefochtenen Bestimmungen einzusetzenden Filtermaßnahmen dieser Anforderung, da sie sich „streng zielorientiert“ auf Inhalte bezögen, die von den Rechteinhabern benannte Werke und sonstige Schutzgegenstände ganz oder teilweise reproduzierten.

186.

Dieser Argumentation kann nicht gefolgt werden. Aus den Urteilen Scarlet Extended und SABAM geht klar hervor, dass ein Filtersystem, das systematisch Inhalte sperren würde, mit denen ein berechtigter Gebrauch von Schutzgegenständen gemacht wird, die Meinungs- und Informationsfreiheit unverhältnismäßig beeinträchtigen würde ( 222 ). Dies ist meines Erachtens gerade deshalb der Fall, weil die Nebeneffekte einer solchen Filterung zu gravierend sind, als dass sie mit dieser Freiheit vereinbart werden könnten – und zwar unabhängig davon, ob die beeinträchtigten Nutzer gegen die Sperrung ihrer Information rechtlich vorgehen können, was der Gerichtshof in diesen Urteilen nicht einmal erwähnt hat.

187.

Hierfür gibt es gute Gründe. Im vorliegenden Fall müssten bei einer präventiven Sperrung aller Inhalte, die von den Rechteinhabern benannte Werke und sonstige Schutzgegenstände reproduzieren, zum einen die Nutzer systematisch die Folgen ihrer Untätigkeit tragen, da die Verbreitung zulässiger Inhalte nur erfolgen könnte, wenn sie erfolgreich Beschwerde einlegten. Wären diese Nutzer gezwungen, ihre Rechte systematisch im Beschwerdeverfahren geltend zu machen, würde sehr wahrscheinlich ein Großteil von ihnen davon absehen, weil sie insbesondere nicht über genügend Know-how verfügen, um beurteilen zu können, ob ihre Nutzung dieser Objekte zulässig ist und ob eine solche Beschwerde daher begründet wäre ( 223 ). Ein präventives „Overblocking“ all dieser berechtigten Nutzungen und die systematische Abwälzung der Beweislast auf die Nutzer könnte somit kurz- oder langfristig zu einem „Chilling Effect“ auf die Meinungs- und schöpferische Freiheit führen, was sich in einem Rückgang der Aktivitäten dieser Nutzer niederschlagen würde ( 224 ).

188.

Zum anderen ist der Informationsaustausch im Internet vor allem durch seine Geschwindigkeit gekennzeichnet. Bestimmte Arten von auf Sharing-Diensten hochgeladenen Inhalten werden von der Öffentlichkeit nur kurzzeitig nachgefragt, insbesondere solche, die sich auf aktuelle Ereignisse beziehen ( 225 ). Diese Inhalte sind somit oft schon nach wenigen Tagen veraltet. Würde das Hochladen solcher Inhalte durch eine systematische präventive Sperrung verzögert, bestünde die Gefahr, dass ihnen jegliche Aktualität genommen würde und die Öffentlichkeit daran kein Interesse mehr hätte. Anders als die spanische und die französische Regierung halte ich deshalb eine solche systematische Sperrung, auch wenn sie nur „vorübergehend“ wäre, für besonders problematisch, da durch die eventuelle Wiederherstellung der Inhalte nach Abschluss der Prüfung der Nutzerbeschwerden nicht der Schaden wiedergutgemacht werden könnte, den die Freiheit der Meinungsäußerung der Nutzer genommen hätte ( 226 ).

189.

Zweitens weist der Gerichtshof in seiner jüngeren Rechtsprechung darauf hin, dass „die praktische Wirksamkeit“ der Ausnahmen und Beschränkungen des Urheberrechts „gewahrt“ werden müsse, da diese für die Herstellung eines „angemessenen Ausgleichs“ zwischen den involvierten Rechten und Interessen bedeutsam seien, insbesondere dann, wenn sie die Achtung der Meinungsfreiheit gewährleisten sollen – wie es bei einer Nutzung für Zitate, Kritiken oder Rezensionen und bei einer Nutzung zum Zwecke von Karikaturen, Parodien oder Pastiches der Fall sei ( 227 ).

190.

Gerade um die „praktische Wirksamkeit“ dieser Ausnahmen und Beschränkungen zu „wahren“, ist meines Erachtens darauf zu achten, dass das Recht der Nutzer, sie in Anspruch zu nehmen, nicht durch die aufgrund der angefochtenen Bestimmungen getroffenen vorbeugenden Maßnahmen systematisch beeinträchtigt wird. Wenn die Rechteinhaber im digitalen Umfeld über Kontrollmöglichkeiten für ihre Schutzgegenstände verfügen, die in der „realen Welt“ ihresgleichen suchen – denn mit den Tools zur Inhaltserkennung können sie praktisch sämtliche Nutzungen dieser Gegenstände verhindern, auch solche, die wie etwa Parodien nicht unter ihr Monopol fallen –, bedarf es eines entsprechenden Schutzes ebendieser Ausnahmen und Beschränkungen. In dieser Hinsicht bestünde das Risiko, dass ein maximaler Schutz bestimmter geistiger Schöpfungen zu Lasten anderer, gesellschaftlich ebenso erwünschter Formen kreativen Schaffens gehen könnte ( 228 ).

191.

Nach alledem müssen die Filtermaßnahmen, die die Anbieter von Sharing-Diensten zu ergreifen haben, gemäß den angefochtenen Bestimmungen in Verbindung mit Art. 17 Abs. 7 der Richtlinie 2019/790 meines Erachtens zwei kumulativen Anforderungen genügen: Sie sollen möglichst verhindern, dass Inhalte hochgeladen werden, die von den Rechteinhabern benannte Werke und sonstige Schutzgegenstände unrechtmäßig reproduzieren, dürfen aber nicht vereiteln, dass Inhalte zugänglich gemacht werden, die diese Gegenstände rechtmäßig reproduzieren.

192.

Entgegen dem Vorbringen der Klägerin dürfen die Anbieter von Sharing-Diensten daher nicht auf „jede verfügbare Maßnahme“ zurückgreifen, um die Rechte des geistigen Eigentums der Rechteinhaber zu schützen ( 229 ). Soweit sie in diesem Zusammenhang „alle Anstrengungen“ unternehmen und „berufliche Sorgfalt“ aufwenden müssen, ist dies im Licht von Art. 17 Abs. 7 der Richtlinie 2019/790 zu verstehen. Da diese Anbieter eine berufliche Doppelfunktion – gegenüber den Nutzern und den Rechteinhabern – wahrnehmen, müssen sie beiden Gruppen gegenüber „Sorgfalt“ walten lassen.

193.

Art. 17 Abs. 7 der Richtlinie 2019/790 verpflichtet somit diese Anbieter – aber auch die Behörden und Gerichte der Mitgliedstaaten bei der Kontrolle der Umsetzung dieses Artikels ( 230 ) –, die Nebeneffekte der von ihnen ergriffenen Filtermaßnahmen zu berücksichtigen ( 231 ). Sie dürfen daher nicht präventiv und systematisch Inhalte sperren, die unter anderem unter die Ausnahmen und Beschränkungen des Urheberrechts fallen. Sie müssen ex ante darauf achten, dass die Rechte der Nutzer gewahrt bleiben. Ich rufe den Gerichtshof auf, in seinem kommenden Urteil unmissverständlich festzustellen, dass Art. 17 in diesem Sinne auszulegen ist.

– Das Verbot allgemeiner Überwachungspflichten (Abs. 8)

194.

Nach Art. 17 Abs. 8 der Richtlinie 2019/790 darf „[d]ie Anwendung dieses Artikels … nicht zu einer Pflicht zur allgemeinen Überwachung führen“. Folglich sind die angefochtenen Bestimmungen auch unter Berücksichtigung dieses Absatzes zu verstehen.

195.

Mit der Bekräftigung des Verbots einer solchen „Pflicht“ ( 232 ) hat der Unionsgesetzgeber nach meinem Dafürhalten eine weitere wichtige Garantie für die Freiheit der Meinungsäußerung festgelegt. Dieses Verbot begrenzt nämlich den Umfang der Filtermaßnahmen, die von jedem Vermittler und im vorliegenden Fall von den Anbietern von Sharing-Diensten erwartet werden können.

196.

Das von mir bereits erwähnte Urteil Glawischnig-Piesczek ( 233 ) ist in dieser Hinsicht lehrreich. In diesem Urteil hat der Gerichtshof bei der Auslegung dieses Verbots in der Fassung von Art. 15 der Richtlinie 2000/31 ausgeführt, der Betreiber eines sozialen Netzwerks könne im Wege einer gerichtlichen Anordnung dazu verpflichtet werden, die in diesem Netzwerk hochgeladenen Informationen nach „einer konkreten Information“ zu durchforsten und diese zu sperren, wenn „deren Inhalt von einem zuständigen Gericht … analysiert und beurteilt wurde, das diese Information nach Abschluss seiner Würdigung für rechtswidrig erklärt hat“ ( 234 ). Das Gericht könne diesem Betreiber somit aufgeben, den Zugang zu allen Informationen zu sperren, die mit dieser identisch seien. Die Anordnung könne sogar auf sinngleiche Informationen erstreckt werden, sofern der Betreiber nicht verpflichtet sei, eine „autonome Beurteilung“ ihrer Rechtmäßigkeit vorzunehmen, sondern „auf automatisierte Techniken und Mittel zur Nachforschung zurückgreifen“ könne ( 235 ).

197.

Daraus folgt ganz allgemein: Obwohl Vermittler technisch gut aufgestellt sind, um gegen die Verbreitung mancher unzulässiger Informationen über ihre Dienste vorzugehen ( 236 ), kann von ihnen nicht verlangt werden, „autonom zu beurteilen“, ob die betreffenden Informationen zulässig sind. Diese Vermittler verfügen in der Regel nicht über die dafür notwendige Sachkenntnis und vor allem nicht über die insoweit gebotene Unabhängigkeit – erst recht, wenn sie erheblichen Haftungsrisiken ausgesetzt sind ( 237 ). Sie können daher nicht zu Schiedsrichtern der Online-Rechtmäßigkeit gemacht werden, die komplizierte Rechtsfragen entscheiden müssen ( 238 ).

198.

Um die Gefahr des „Overblocking“ zu minimieren und damit die Achtung des Rechts auf freie Meinungsäußerung zu gewährleisten, kann ein Vermittler meines Erachtens daher nur verpflichtet werden, Informationen zu filtern und zu sperren, deren Rechtswidrigkeit zuvor von einem Richter festgestellt wurde, oder, wenn dies nicht der Fall ist, solche, deren Rechtswidrigkeit sich ohne Weiteres aufdrängt, d. h., offenkundig ist, ohne dass sie eigens in ihrem Kontext beurteilt werden müssten ( 239 ).

199.

Im Übrigen betrafen die Überwachungspflichten, die der EGMR in seinem Urteil Delfi AS/Estland für gerechtfertigt hielt, offensichtlich rechtswidrige Informationen ( 240 ). In seiner späteren Rechtsprechung stellte der EGMR klar, dass bei Informationen, deren Rechtswidrigkeit nicht von vornherein offensichtlich sei, sondern eine kontextbezogene Analyse erfordere, eine solche Überwachung nicht verlangt werden könne ( 241 ). Für diese zuletzt genannte Art von Informationen ist ein gebührend begründeter Hinweis mit Angaben zum Kontext, aus denen die Rechtswidrigkeit ersichtlich wird, oder sogar, wenn ein solcher Hinweis hierfür nicht ausreicht, eine gerichtliche Anordnung erforderlich, um ihre Entfernung zu erreichen.

200.

Konkret ergibt sich, wie ich in meinen Schlussanträgen in den verbundenen Rechtssachen YouTube und Cyando dargelegt habe ( 242 ), aus dem Urteil Glawischnig-Piesczek – übertragen auf den Bereich des Urheberrechts –, dass ein Vermittler nach Art. 15 der Richtlinie 2000/31 zwar nicht verpflichtet werden kann, die von ihm gespeicherten Informationen auf der Suche nach beliebigen Rechtsverletzungen generell zu filtern, dass es nach dieser Bestimmung aber nicht grundsätzlich ausgeschlossen wäre, den Vermittler zu zwingen, eine bestimmte Datei zu sperren, die eine zuvor von einem Richter festgestellte unzulässige Nutzung eines geschützten Werks darstellt. Die Bestimmung würde es in diesem Rahmen nicht verbieten, den Diensteanbieter zu verpflichten, nicht nur die identischen Kopien dieser Datei ausfindig zu machen und zu sperren, sondern auch andere, entsprechende Dateien, d. h. diejenigen, die das fragliche Werk gleichermaßen nutzen.

201.

Diese Auslegung lässt sich nach meinem Dafürhalten entsprechend auf Art. 17 Abs. 8 der Richtlinie 2019/790 übertragen. Soweit im Rahmen der Regelung des Art. 17 die Rechtswidrigkeit der zu filternden Inhalte nicht zuvor von einem Gericht festgestellt wurde, kann es nach meinen Ausführungen in Nr. 198 der vorliegenden Schlussanträge nur darum gehen, Inhalte zu ermitteln, die im Licht der von den Rechteinhabern bereitgestellten Informationen offenkundig rechtsverletzend erscheinen. Gemäß den angefochtenen Bestimmungen in Verbindung mit diesem Abs. 8 müssen sich die Filtermaßnahmen, zu deren Einsatz die Anbieter von Sharing-Diensten aufgrund der angefochtenen Bestimmungen verpflichtet sind, meines Erachtens auf Inhalte beschränken, die den von den Rechteinhabern benannten Werken und sonstigen Schutzgegenständen „wortgleich“ oder „sinngleich“ sind ( 243 ).

202.

Die erste in der vorhergehenden Nummer angesprochene Kategorie betrifft konkret identische Reproduktionen von seitens der Rechteinhaber benannten Werken und sonstigen Schutzgegenständen, wobei diesen nichts hinzugefügt wurde und auch kein Wertzuwachs erfolgte. Die zweite Kategorie bezieht sich auf Inhalte, die diese Gegenstände gleichermaßen reproduzieren, jedoch mit unbedeutenden Änderungen versehen, so dass die Öffentlichkeit sie vom den Originalgegenständen nicht unterscheiden würde (z. B. bei rein technischen Veränderungen zur Umgehung das Filtersystems, wie etwa einer Änderung des Formats, der Umkehrung oder Änderung der Bildgeschwindigkeit usw.) ( 244 ). Zur Aufdeckung dieser beiden Kategorien von Inhalten werden die Anbieter von Sharing-Diensten keine „autonome Beurteilung“ ihrer Rechtmäßigkeit vorzunehmen haben – die Rechtsverletzung wird in Anbetracht der von den Rechteinhabern bereitgestellten „einschlägigen und notwendigen“ Informationen offenkundig sein –, sondern „auf automatisierte Techniken und Mittel zur Nachforschung zurückgreifen“ können ( 245 ).

203.

Hingegen können Anbieter von Sharing-Diensten nicht dazu verpflichtet werden, präventiv auch Inhalte zu filtern, die zwar von den Rechteinhabern benannte Werke und Schutzgegenstände reproduzieren, sich aber erheblich von diesen unterscheiden, wie etwa die Wiederverwendung von Auszügen aus Werken in anderen Zusammenhängen, „transformative“ Inhalte usw., die möglicherweise unter die Ausnahmen und Beschränkungen des Urheberrechts fallen. Zur Ermittlung dort möglicherweise erfolgter Rechtsverletzungen wären „autonome Beurteilungen“ seitens dieser Anbieter erforderlich, da sie bewerten müssten, in welchem Zusammenhang diese Nutzungen erfolgt sind. Wie die Republik Polen aber geltend macht, können die komplexen Fragen des Urheberrechts insbesondere zur genauen Reichweite der Ausnahmen und Beschränkungen nicht diesen Anbietern anheimgestellt werden. Es ist nicht ihre Sache, über die Grenzen der Kreativität im Internet zu entscheiden, indem sie beispielsweise selbst überprüfen, ob der Inhalt, den ein Nutzer hochzuladen beabsichtigt, den Anforderungen einer Parodie genügt. Eine solche Ermächtigung wäre mit einer inakzeptablen Gefahr von „Overblocking“ verbunden. Derartige Fragen müssen dem Richter vorbehalten bleiben.

– Zu den hieraus zu ziehenden Konsequenzen

204.

Die vorstehenden Abschnitte belegen meines Erachtens, dass Art. 17 der Richtlinie 2019/790 ausreichende Schutzvorkehrungen enthält, um den Umfang der mit den angefochtenen Bestimmungen verbundenen Einschränkung des Rechts auf freie Meinungsäußerung zu begrenzen.

205.

Zum einen ist es Anbietern von Sharing-Diensten nach Art. 17 Abs. 7 nicht gestattet, unter Berufung auf die angefochtenen Bestimmungen präventiv alle Inhalte zu sperren, die von Rechteinhabern benannte Werke und sonstige Schutzgegenstände reproduzieren, einschließlich derjenigen, die möglicherweise rechtmäßig sind. Zum anderen dürfen diese Anbieter nach Art. 17 Abs. 8 nur dann verpflichtet werden, Inhalte ausfindig zu machen und zu sperren, wenn die betreffenden Inhalte diesen Gegenständen „wortgleich“ oder „sinngleich“ sind, d. h. bei Inhalten, deren Rechtswidrigkeit angesichts der ihnen von den Rechteinhabern bereitgestellten „einschlägigen und notwendigen“ Informationen „offenkundig“ erscheint. Da in solchen Fällen eine Rechtsverletzung sehr wahrscheinlich ist, kann die Rechtswidrigkeit dieser Inhalte vermutet werden. Deshalb ist ihre präventive Sperrung verhältnismäßig, wobei es den betroffenen Nutzern obliegt, im Rahmen des Beschwerdeverfahrens ihre Rechtmäßigkeit darzutun, z. B. durch den Nachweis, dass sie eine Lizenz besitzen oder dass das Werk in Wirklichkeit gemeinfrei ist ( 246 ). Soweit die Anbieter von Sharing-Diensten nach den angefochtenen Bestimmungen „alle Anstrengungen unternehmen“ müssen, bestehen diese, kurz gesagt, darin, solche offenkundigen Rechtsverletzungen zu unterbinden ( 247 ).

206.

Demgegenüber darf in allen zweifelhaften Situationen – bei kurzen Auszügen eines Werks, die in einen längeren Inhalt eingebaut sind, bei „transformativen“ Werken usw. –, in denen insbesondere die Anwendung von Ausnahmen und Beschränkungen des Urheberrechts berechtigterweise in Betracht kommen könnte, der betreffende Inhalt nicht präventiv gesperrt werden.

207.

Wie das Parlament, der Rat und die Kommission hervorgehoben haben, ist nämlich die in Art. 17 Abs. 7 Unterabs. 1 der Richtlinie 2019/790 vorgesehene Erfolgspflicht, die darin besteht, nicht zu verhindern, dass zulässige Inhalte ins Netz hochgeladen werden, insoweit zwingender als die aus den angefochtenen Bestimmungen resultierenden Pflichten, „alle Anstrengungen“ zu unternehmen, bei denen es sich um Handlungspflichten handelt ( 248 ). Der Unionsgesetzgeber wollte somit – meines Erachtens zu Recht – sicherstellen, dass die Anbieter von Sharing-Diensten der Meinungsfreiheit in einem solchen Fall Vorrang einräumen. Mit anderen Worten: Der Gesetzgeber hielt „falsch positive“ Ergebnisse, die in der Sperrung zulässiger Inhalte bestehen, für schwerwiegender als „falsch negative“, die darin bestehen, dass manche unzulässigen Inhalte übersehen werden.

208.

Daher sind, wie das Parlament, der Rat und die Kommission vorgetragen haben, in zweideutigen Fällen die Zulässigkeit der betreffenden Inhalte zu vermuten, so dass das Hochladen dieser Inhalte nicht verhindert werden darf.

209.

Die Schwierigkeit besteht darin, praktische Lösungen zu definieren, um diesen Dualismus mit Hilfe von Tools zur automatischen Inhaltserkennung umzusetzen, die die Anbieter von Sharing-Diensten in zahlreichen Situationen werden einsetzen müssen. Die Klägerin hat übrigens geltend gemacht, der Unionsgesetzgeber habe in der Richtlinie 2019/790 hierfür keine konkrete Lösung vorgesehen.

210.

In Anbetracht dessen musste der Unionsgesetzgeber meines Erachtens, wie bereits erwähnt, den wesentlichen Inhalt der Schutzvorkehrungen bestimmen, die notwendig sind, um die mit den angefochtenen Bestimmungen verbundenen Gefahren für die Freiheit der Meinungsäußerung so gering wie möglich zu halten. Dagegen ist es, wie der Rat ausgeführt hat, in einem Bereich, in dem es wie vorliegend darum geht, technische Maßnahmen zu ergreifen, sowie angesichts dessen, dass Art. 17 der Richtlinie 2019/790 für verschiedene Arten von Anbietern, Dienstleistungen und Schutzgegenständen gelten wird, Sache der Mitgliedstaaten und der Kommission, die Modalitäten hierfür zu konkretisieren ( 249 ).

211.

In der Praxis werden diese Lösungen darin bestehen, dass in die Tools zur Inhaltserkennung Parameter integriert werden, mit deren Hilfe sich das Offenkundige vom Mehrdeutigen unterscheiden lässt. Dies kann je nach Art der Schutzgegenstände und der in Betracht kommenden Ausnahmen variieren. So wird es sich z. B. als notwendig erweisen, die von diesen Tools ermittelten Übereinstimmungsquoten zu berücksichtigen und Schwellenwerte festzulegen, oberhalb deren die automatische Sperrung von Inhalten gerechtfertigt ist und unterhalb deren die Anwendung einer Ausnahme, wie etwa der Zitatschranke, vernünftigerweise in Betracht kommt ( 250 ). Eine solche Lösung könnte mit einem Mechanismus gekoppelt werden, der es den Nutzern erlaubt, zum Zeitpunkt des Hochladens oder unmittelbar danach zu signalisieren (flagging), ob für sie nach ihrer Meinung eine Ausnahme oder Beschränkung gilt, woraufhin der betreffende Anbieter den fraglichen Inhalt manuell zu überprüfen hätte, um festzustellen, ob die Anwendung dieser Ausnahme oder Beschränkung offensichtlich ausgeschlossen ist oder im Gegenteil vernünftigerweise in Betracht kommt ( 251 ).

212.

Im Allgemeinen wird die Ausgestaltung dieser praktischen Lösungen für die verschiedenen Arten von Anbietern, Dienstleistungen und Werken oder Schutzgegenständen weder den Anbietern noch – entgegen dem Vorbringen der französischen Regierung – vollständig den Rechteinhabern überlassen werden können ( 252 ). Die Bestimmung dieser Lösungen darf wegen deren Bedeutung für die Freiheit der Meinungsäußerung der Nutzer nicht auf undurchsichtige Weise von solchen privaten Parteien allein vorgenommen werden, sondern muss unter der Kontrolle öffentlicher Stellen auf transparente Weise erfolgen.

213.

Genau hier liegt meines Erachtens der Nutzen des vom Unionsgesetzgeber in Art. 17 Abs. 10 der Richtlinie 2019/790 beabsichtigten Dialogs zwischen den Interessenträgern. Nach dieser Bestimmung hat die Kommission in Zusammenarbeit mit den Mitgliedstaaten Dialoge zwischen den Diensteanbietern für das Teilen von Online‑Inhalten, den Rechteinhabern, den Nutzerorganisationen und anderen einschlägigen Interessenträgern zu organisieren, in deren Rahmen „bewährte Verfahren für die Zusammenarbeit zwischen den Diensteanbietern für das Teilen von Online‑Inhalten und Rechteinhabern“ erörtert werden. Auf dieser Grundlage muss die Kommission Leitlinien zur Anwendung dieses Art. 17 herausgeben, insbesondere dazu, wie die angefochtenen Bestimmungen umgesetzt werden sollten. Dabei ist „die notwendige Ausgewogenheit zwischen den Grundrechten und die Inanspruchnahme von Ausnahmen und Beschränkungen besonders [zu] berücksichtig[en]“. Die Kommission muss also unter Beteiligung der Interessenträger praktische Lösungen für eine Umsetzung der angefochtenen Bestimmungen vorschlagen, die im Einklang mit Art. 17 Abs. 7 und 8 steht ( 253 ).

214.

Schließlich bedeutet, wie die Kommission vorträgt und wie ich in Nr. 183 dieser Schlussanträge dargelegt habe, die in Art. 17 Abs. 7 der Richtlinie 2019/790 vorgesehene Verpflichtung nicht, dass ein eine vernachlässigbare Anzahl „falsch positiver“ Ergebnisse bewirkender Mechanismus automatisch im Widerspruch zu dieser Bestimmung stünde. Gleichwohl sollte die Fehlerquote so gering wie möglich gehalten werden. Deshalb sollte in Fällen, in denen es nach dem derzeitigen Stand der Technik nicht möglich ist, etwa bei bestimmten Arten von Werken und Schutzgegenständen ein automatisches Filter-Tool zu verwenden, ohne dass dies zu einer nicht vernachlässigbaren Zahl „falsch positiver“ Ergebnisse führt, die Verwendung eines solchen Tools aus meiner Sicht gemäß Art. 17 Abs. 7 ausgeschlossen werden ( 254 ).

215.

Die in diesen Schlussanträgen vorgeschlagene Auslegung wird nicht durch das Argument der spanischen und der französischen Regierung in Frage gestellt, wonach es zwingend geboten sei, präventiv alle Inhalte zu sperren, die von den Rechteinhabern benannte Schutzgegenstände ganz oder teilweise reproduzierten, um jede Gefahr der Verbreitung rechtsverletzender Inhalte über einen Sharing-Dienst zu beseitigen, da eine solche Verbreitung angesichts der Geschwindigkeit des Informationsaustauschs im Internet geeignet sei, den Rechteinhabern „irreparablen“ Schaden zuzufügen.

216.

Denn auch wenn der durch das beabsichtigte Hochladen eines offensichtlich rechtsverletzenden Inhalts drohende gravierende Schaden meines Erachtens Maßnahmen zur präventiven Sperrung dieses Inhalts rechtfertigen kann ( 255 ), können die Rechteinhaber kein „Null-Risiko“ in Bezug auf mögliche Verletzungen ihrer Rechte verlangen, wie ich in Nr. 184 der vorliegenden Schlussanträge ausgeführt habe. Es wäre unverhältnismäßig, solche Maßnahmen auf alle zweifelhafteren Fälle eines potenziellen Schadens anzuwenden, der möglicherweise z. B. durch „transformative“ Inhalte verursacht würde, die unter die Ausnahmen und Beschränkungen des Urheberrechts fallen könnten und nicht in direktem Wettbewerb mit den geschützten Originalgegenständen stehen ( 256 ). In diesen Situationen würde die Anwendung solcher Präventivmaßnahmen aus den in Nr. 188 dieser Schlussanträge dargelegten Gründen zu „irreparablen“ Schäden für die Freiheit der Meinungsäußerung führen.

217.

Außerdem hat der Gerichtshof wiederholt entschieden, „dass sich aus Art. 17 Abs. 2 der Charta nicht ergibt, dass das Recht des geistigen Eigentums schrankenlos und sein Schutz daher notwendigerweise bedingungslos zu gewährleisten wäre“ ( 257 ).

218.

Im Übrigen lässt die in diesen Schlussanträgen empfohlene Auslegung die Rechteinhaber in Bezug auf solche mehrdeutigen Inhalte nicht schutzlos. Insbesondere geht es nicht darum, die Reichweite des Rechts der öffentlichen Wiedergabe an sich zu beschränken ( 258 ). Die Rechteinhaber werden nämlich dadurch, dass bestimmte Inhalte, die ihre Werke und sonstigen Schutzgegenstände rechtswidrig reproduzieren, zum Zeitpunkt des Hochladevorgangs nicht gesperrt werden, insbesondere nicht daran gehindert ( 259 ), die Entfernung und dauerhafte Sperrung der betreffenden Inhalte mittels eines Hinweises gemäß Art. 17 Abs. 4 Buchst. c der Richtlinie 2019/790 zu beantragen ( 260 ), der plausible Erläuterungen dazu enthält, warum z. B. die Anwendung einer Ausnahme ausgeschlossen sein sollte ( 261 ). Der betreffende Anbieter wird seinerseits diesen Hinweis sorgfältig prüfen müssen und zu entscheiden haben, ob die Rechtswidrigkeit unter Berücksichtigung dieser neuen Umstände offenkundig ist ( 262 ). Sollte dies der Fall sein, wird er unverzüglich den Zugang zu dem Inhalt sperren oder diesen von seiner Internetseite entfernen, da er sich sonst haftbar machen würde. Wie die Kommission ausführt, hat der Unionsgesetzgeber ausweislich des zweiten Absatzes des 66. Erwägungsgrundes der Richtlinie 2019/790 ( 263 ) dies als einzige Möglichkeit vorgesehen, um in manchen Fällen sicherzustellen, dass ein bestimmter Inhalt nicht verfügbar ist. In Fällen, in denen die Rechtswidrigkeit in Anbetracht dieser Erläuterungen nicht offenkundig ist, weil der fragliche Inhalt komplizierte oder neue Rechtsfragen auf dem Gebiet des Urheberrechts aufwirft, wird es grundsätzlich nötig sein, dass ein Richter tätig wird, da nur er die Kompetenz hat, solche Fragen zu entscheiden. Es wird dann Sache der Rechteinhaber sein, sich insbesondere auf der Grundlage von Art. 8 Abs. 3 der Richtlinie 2001/29 an eine Justizbehörde zu wenden, damit sie über diesen Inhalt befindet und, wenn er rechtswidrig ist, seine Sperrung anordnet.

219.

Wie das Parlament zu Recht bemerkt hat, gewährleistet dies ein „angemessenes Gleichgewicht“ zwischen den Schritten, die manchmal den Nutzern abverlangt werden, damit ihre Inhalte hochgeladen werden können, und den Schritten, die bisweilen die Rechteinhaber unternehmen müssen, um deren Entfernung zu erreichen ( 264 ).

4.   Fazit zur Vereinbarkeit der fraglichen Einschränkung mit der Charta

220.

Aus den vorstehenden Erwägungen folgt, dass die Einschränkung des Rechts auf freie Meinungsäußerung und Informationsfreiheit, die sich aus den angefochtenen Bestimmungen ergibt, alle in Art. 52 Abs. 1 der Charta festgelegten Bedingungen erfüllt. Diese Einschränkung ist daher in meinen Augen mit der Charta vereinbar. Daher plädiere ich dafür, die Klage der Republik Polen abzuweisen ( 265 ).

C. Postskriptum

221.

Im Anschluss an die Abfassung der vorliegenden Schlussanträge wurden während ihrer Übersetzung durch die Dienststellen des Gerichtshofs zwei wichtige Dokumente veröffentlicht.

222.

Zum einen wurde das Urteil YouTube und Cyando ( 266 ) veröffentlicht. Die Überlegungen, die der Gerichtshof in diesem Urteil zu den Richtlinien 2000/31 und 2001/29 angestellt hat und auf die ich hier nicht im Einzelnen eingehen kann, stellen aus meiner Sicht die Erwägungen in den vorliegenden Schlussanträgen nicht in Frage ( 267 ).

223.

Zum anderen hat die Kommission ihre Leitlinien zu Artikel 17 der Richtlinie (EU) 2019/790 ( 268 ) veröffentlicht. Sie übernehmen im Wesentlichen das, was die Kommission vor dem Gerichtshof vorgetragen hatte, und spiegeln die Erläuterungen in den Nrn. 158 bis 219 der vorliegenden Schlussanträge wider. Nichtdestotrotz heißt es in diesen Leitlinien erstmals auch, dass die Rechteinhaber die Möglichkeit haben sollten, Gegenstände, deren unerlaubtes Hochladen „ihnen erheblichen wirtschaftlichen Schaden zufügen könnte“, zu „kennzeichnen“ (earmark). Die betreffenden Anbieter müssten mit diesen Gegenständen besonders sorgfältig umgehen. Ließen die Anbieter trotz „Kennzeichnung“ das Hochladen von Inhalten zu, die diese Gegenstände reproduzierten, hätten sie nicht „alle Anstrengungen“ unternommen, zu denen sie verpflichtet seien. Sollte dies dahin zu verstehen sein, dass die Anbieter auf die bloße Behauptung der Rechteinhaber hin, dass ihnen erheblicher wirtschaftlicher Schaden drohe, Inhalte ex ante sperren müssten – die Leitlinien enthalten kein weiteres Kriterium, das den Mechanismus der „Kennzeichnung“ auf besondere Fälle beschränkt ( 269 ) –, auch wenn sie nicht offenkundig rechtsverletzend sind, kann ich mich dem nicht anschließen. Denn andernfalls wären sämtliche Erwägungen in den vorliegenden Schlussanträgen hinfällig.

VI. Kosten

224.

Nach Art. 138 Abs. 1 der Verfahrensordnung des Gerichtshofs ist die unterliegende Partei auf Antrag zur Tragung der Kosten zu verurteilen. Da die Klage der Republik Polen meines Erachtens abzuweisen ist und das Parlament sowie der Rat einen entsprechenden Kostenantrag gestellt haben, sollten diesem Mitgliedstaat auch die Kosten auferlegt werden. Jedoch sollten die spanische und die französische Regierung sowie die Kommission, die dem Rechtsstreit beigetreten sind, nach Art. 140 Abs. 1 der Verfahrensordnung jeweils ihre eigenen Kosten tragen.

VII. Ergebnis

225.

Nach alledem schlage ich dem Gerichtshof vor,

die Klage der Republik Polen abzuweisen;

diesem Mitgliedstaat die Kosten aufzuerlegen und

zu entscheiden, dass das Königreich Spanien, die Französische Republik und die Europäische Kommission jeweils ihre eigenen Kosten zu tragen haben.


( 1 ) Originalsprache: Französisch.

( i ) Der Titel der vorliegenden Sprachfassung wurde gegenüber der ursprünglich online gestellten Fassung geändert.

( 2 ) ABl. 2019, L 130, S. 92.

( 3 ) Ich werde die Begriffe „hochladen“, „upload“ oder „online stellen“ synonym verwenden, um den Vorgang zu bezeichnen, bei dem Sharing-Dienste über ihre Internetseiten oder Smart-Device-Anwendungen der Öffentlichkeit digitale Inhalte zugänglich machen.

( 4 ) Richtlinie des Europäischen Parlaments und des Rates vom 8. Juni 2000 (ABl. 2000, L 178, S. 1).

( 5 ) Richtlinie des Europäischen Parlaments und des Rates vom 22. Mai 2001 (ABl. 2001, L 167, S. 1).

( 6 ) Urteil vom 24. November 2011 (C‑70/10, im Folgenden: Urteil Scarlet Extended, EU:C:2011:771).

( 7 ) Urteil vom 16. Februar 2012 (C‑360/10, im Folgenden: Urteil SABAM, EU:C:2012:85).

( 8 ) Urteil vom 3. Oktober 2019 (C‑18/18, im Folgenden: Urteil Glawischnig-Piesczek, EU:C:2019:821).

( 9 ) Ich weise an dieser Stelle darauf hin, dass nach Abfassung dieser Schlussanträge im Laufe ihrer Übersetzung zum einen das Urteil vom 22. Juni 2021, YouTube und Cyando (C‑682/18 und C-683/18, EU:C:2021:503), verkündet worden ist und zum anderen die Kommission ihre Leitlinien zu Artikel 17 der Richtlinie (EU) 2019/790 über das Urheberrecht im digitalen Binnenmarkt (communication from the Commission to the European Parliament and the Council, „Guidance on Article 17 of Directive 2019/790 on Copyright in the Digital Single Market“, 4. Juni 2021 [COM(2021) 288 final]) veröffentlicht hat. In Anbetracht des fortgeschrittenen Stadiums, in dem sich diese Schlussanträge befanden, habe ich mich darauf beschränkt, diese beiden Dokumente in einem Postskriptum zu untersuchen, dass der Leser in den Nrn. 221 ff. der Schlussanträge findet.

( 10 ) Vorschlag für eine Richtlinie des Europäischen Parlaments und des Rates über das Urheberrecht im digitalen Binnenmarkt (COM[2016] 593 final) (im Folgenden: Richtlinienvorschlag).

( 11 ) Vgl. Begründung des Richtlinienvorschlags, S. 2 und 3.

( 12 ) Vgl. Richtlinienvorschlag, S. 3, und „Commission Staff Working Document, impact assessment on the modernisation of EU copyright rules“, (SWD [2016] 301 final) (im Folgenden: Folgenabschätzung), Teil 1/3, S. 137 bis 141.

( 13 ) Vgl. zur Plattform YouTube meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (C‑682/18 und C‑683/18, im Folgenden: Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando, EU:C:2020:586, Nrn. 14 bis 18).

( 14 ) So werden z. B. auf YouTube täglich mehrere Hunderttausend Videos von den Nutzern dieser Plattform veröffentlicht, deren Zahl Google zufolge 1,9 Milliarden übersteigt. Vgl. meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (Nr. 43).

( 15 ) Vgl. Folgenabschätzung, Teil 1/3, S. 137, 139 und 142, sowie Teil 3/3, Anlage 12B.

( 16 ) Art. 3 Abs. 1 der Richtlinie 2001/29 enthält also streng genommen ein „Recht der öffentlichen Wiedergabe“ und ein „Recht der öffentlichen Zugänglichmachung“. Da das Erstere jedoch das Letztere einschließt, werde ich der Einfachheit halber den Begriff „öffentliche Wiedergabe“ verwenden, um beide Rechte gleichermaßen zu bezeichnen.

( 17 ) Vgl. die Aufzählung in Art. 3 Abs. 2 der Richtlinie 2001/29, wiedergegeben in Nr. 9 der vorliegenden Schlussanträge.

( 18 ) Streng genommen begründet Art. 3 Abs. 2 der Richtlinie 2001/29 für die Inhaber verwandter Schutzrechte nur das ausschließliche Recht, ihre Schutzgegenstände „der Öffentlichkeit zugänglich zu machen“. Das Recht der „öffentlichen Wiedergabe“ im engeren Sinne wird ihnen in Art. 8 der Richtlinie 2006/115/EG des Europäischen Parlaments und des Rates vom 12. Dezember 2006 zum Vermietrecht und Verleihrecht sowie zu bestimmten dem Urheberrecht verwandten Schutzrechten im Bereich des geistigen Eigentums (ABl. 2006, L 376, S. 28) zugesprochen. Für einige Inhaber verwandter Schutzrechte ist das letztere Recht ein ausschließliches Recht; für andere ist es nur ein Recht auf Vergütung. Diese Feinheiten sind für den vorliegenden Fall aber nicht relevant. Ich werde mich daher auf Art. 3 der Richtlinie 2001/29 beschränken.

( 19 ) Vorbehaltlich der Ausnahmen und Beschränkungen in Bezug auf das Urheberrecht (siehe Nr. 144 der vorliegenden Schlussanträge).

( 20 ) Vgl. u. a. Urteil vom 14. November 2019, Spedidam (C‑484/18, EU:C:2019:970, Rn. 38 und die dort angeführte Rechtsprechung).

( 21 ) Vgl. dazu meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (Nrn. 53 bis 93).

( 22 ) Art. 14 Abs. 1 der Richtlinie 2000/31 gilt horizontal für jede Art von Inhalt und Haftung, unabhängig davon, welches Rechtsgebiet betroffen ist (geistiges Eigentum, Verleumdung, Hassreden im Internet usw.). Vgl. meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (Nr. 138 und Fn. 128).

( 23 ) Vgl. dazu meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (Nrn. 132 bis 168).

( 24 ) Er hat dies in gewissem Maße in seinem Urteil vom 22. Juni 2021, YouTube und Cyando (C‑682/18 und C‑683/18, EU:C:2021:503), getan. Vgl. zu diesem Urteil Nr. 222 der vorliegenden Schlussanträge.

( 25 ) Vgl. Folgenabschätzung, Teil 1/3, S. 140.

( 26 ) Vgl. Begründung des Richtlinienvorschlags, S. 3.

( 27 ) Siehe Nr. 57 der vorliegenden Schlussanträge.

( 28 ) Vgl. Richtlinienvorschlag, dritter Absatz des 38. Erwägungsgrundes und 39. Erwägungsgrund sowie Art. 13 Abs. 1.

( 29 ) Vgl. u. a. Petition „Stop the censorship-machinery! Save the Internet!“ (abrufbar unter https://www.change.org/p/european-parliament-stop-the-censorship-machinery-save-the-internet). Vgl. auch Kaye, D., „Mandate of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression“, 13. Juni 2018, sowie „Open Letter to Members of the European Parliament and the Council of the European Union: The Copyright Directive is failing“, 26. April 2018, Vereinte Nationen.

( 30 ) Die Richtlinie 2019/790 wurde nicht einstimmig angenommen. Bei der Schlussabstimmung im Rat sprachen sich sechs Mitgliedstaaten (die Italienische Republik, das Großherzogtum Luxemburg, das Königreich der Niederlande, die Republik Polen, die Republik Finnland und das Königreich Schweden) gegen den Text aus, während sich drei Mitgliedstaaten (das Königreich Belgien, die Republik Estland und die Republik Slowenien) der Stimme enthielten (vgl. Dokument 8612/19 vom 16. April 2019, „Abstimmungsergebnis, Richtlinie des Europäischen Parlaments und des Rates über das Urheberrecht und die verwandten Schutzrechte im digitalen Binnenmarkt und zur Änderung der Richtlinien 96/9/EG und 2001/29/EG [erste Lesung]“, abrufbar unter https://data.consilium.europa.eu/doc/document/ST‑8612-2019‑INIT/DE/pdf). Außerdem brachten mehrere Mitgliedstaaten in verschiedenen Erklärungen ihre Besorgnis über die Auswirkungen dieser Richtlinie auf die Rechte der Nutzer zum Ausdruck (vgl. die gemeinsame Erklärung der Niederlande, Luxemburgs, Polens, Italiens und Finnlands, die Erklärung Estlands und die Erklärung Deutschlands, abrufbar unter http://data.consilium.europa.eu/doc/document/ST‑7986-2019-ADD-1-REV-2/DE/pdf).

( 31 ) Die Richtlinie 2019/790 wurde am 17. Mai 2019 im Amtsblatt der Europäischen Union veröffentlicht. Sie trat am 7. Juni 2019 in Kraft (vgl. Art. 29 und 31 dieser Richtlinie).

( 32 ) Der Einfachheit halber werde ich von „Anbietern von Sharing-Diensten“ sprechen.

( 33 ) Ferner heißt es im 62. Erwägungsgrund der Richtlinie 2019/790, dass sich der Ausdruck „Diensteanbieter für das Teilen von Online‑Inhalten“ auf solche Dienste bezieht, die „auf dem Markt für Online‑Inhalte eine wichtige Rolle spielen, indem sie mit anderen Online‑Inhaltediensten, wie Audio- und Video-Streamingdiensten, um dieselben Zielgruppen konkurrieren“, was die in Nr. 14 der vorliegenden Schlussanträge zusammengefasste Argumentation wiedergibt.

( 34 ) Art. 2 Nr. 6 Abs. 2 der Richtlinie 2019/790 enthält eine nicht abschließende Aufzählung der Diensteanbieter, auf die Art. 17 dieser Richtlinie keine Anwendung finden sollte.

( 35 ) Diese Verpflichtung ersetzt nicht diejenige der Nutzer, die den Inhalt hochladen und selbst separate Handlungen der „öffentlichen Wiedergabe“ vornehmen, sondern tritt zu deren Verpflichtung hinzu. Siehe aber Fn. 265 der vorliegenden Schlussanträge.

( 36 ) Im 64. Erwägungsgrund der Richtlinie 2019/790 heißt es, dies sei eine „Klarstellung“. In Wirklichkeit hat der Unionsgesetzgeber meines Erachtens die Tragweite des Rechts auf „öffentliche Wiedergabe“ im Sinne von Art. 3 der Richtlinie 2001/29 (allein) für die Zwecke der Anwendung dieses Art. 17 neu definiert. Vgl. meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (Nrn. 250 bis 255).

( 37 ) Dritter Erwägungsgrund der Richtlinie 2019/790.

( 38 ) Vgl. 61. Erwägungsgrund der Richtlinie 2019/790.

( 39 ) Vgl. 61. Erwägungsgrund der Richtlinie 2019/790, in dem es heißt: „Da aber die Vertragsfreiheit von den vorliegenden Bestimmungen nicht eingeschränkt werden sollte, sollten Rechteinhaber nicht verpflichtet sein, eine Erlaubnis zu erteilen oder eine Lizenzvereinbarung abzuschließen.“

( 40 ) Das lässt, wie sich aus Art. 17 Abs. 3 Unterabs. 2 der Richtlinie 2019/790 ergibt, die Anwendung dieses Art. 14 auf die Anbieter von Sharing-Diensten für Zwecke außerhalb des Geltungsbereichs der Richtlinie 2019/790 unberührt. Wie ich in meinen Schlussanträgen in den verbundenen Rechtssachen YouTube und Cyando (Nrn. 141 bis 168) dargelegt habe, kommen die fraglichen Anbieter nämlich meines Erachtens in anderen Fallgestaltungen in den Genuss der in diesem Art. 14 vorgesehenen Freistellung. Der Kommission zufolge ist Art. 17 Abs. 3 der Richtlinie 2019/790 daher eine lex specialis gegenüber diesem Art. 14.

( 41 ) Dies bedeutet: Die Anbieter sind für „rechtswidrige“ Handlungen der öffentlichen Wiedergabe verantwortlich, d. h. für nicht erlaubte Handlungen, für die keine Ausnahme oder Beschränkung gilt (siehe Nrn. 143 ff. der vorliegenden Schlussanträge).

( 42 ) Vgl. meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (Nrn. 100 und 101).

( 43 ) Vgl. Art. 13 der Richtlinie 2004/48/EG des Europäischen Parlaments und des Rates vom 29. April 2004 zur Durchsetzung der Rechte des geistigen Eigentums (ABl. 2004, L 157, S. 45).

( 44 ) Vgl. meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (Nrn. 73 bis 78).

( 45 ) Zunächst werden nicht alle Rechteinhaber die Nutzung ihrer Werke und Schutzgegenstände auf diesen Diensten erlauben wollen. Sodann wird es für die Anbieter von Sharing-Diensten zwar relativ einfach sein, gegebenenfalls Lizenzvereinbarungen mit „großen Playern“ oder Verwertungsgesellschaften zu schließen; dies wird aber bei den unzähligen „kleinen“ Rechteinhabern und einzelnen Urhebern schwieriger sein. Schließlich kommt zu dieser Schwierigkeit noch hinzu, dass die auf den Sharing-Diensten hochgeladenen Inhalte viele verschiedene Arten von Rechten berühren können und dass für das Urheberrecht und die verwandten Schutzrechte das Territorialitätsprinzip gilt. Die Lizenzen funktionieren daher „Land für Land“, was die Anzahl der zu beschaffenden Erlaubnisse vervielfacht.

( 46 ) Vgl. 66. Erwägungsgrund der Richtlinie 2019/790.

( 47 ) Mit Ausnahme von Art. 17 Abs. 6 der Richtlinie 2019/790, der besondere Voraussetzungen für die Haftungsbefreiung „neuer“ Anbieter von Sharing-Diensten vorsieht, was über den vorliegenden Streitgegenstand hinausgeht.

( 48 ) Daher werde ich meine Prüfung auf dieses Grundrecht beschränken, ungeachtet der Fragen, die Art. 17 der Richtlinie 2019/790 im Hinblick auf andere in der Charta verbürgte Grundrechte, wie etwa die unternehmerische Freiheit (Art. 16), aufwerfen könnte.

( 49 ) Vgl. u. a. Urteil vom 8. Dezember 2020, Polen/Parlament und Rat (C‑626/18, EU:C:2020:1000, Rn. 28 und die dort angeführte Rechtsprechung).

( 50 ) Abgesehen von der Definition des Ausdrucks „Diensteanbieter für das Teilen von Online‑Inhalten“ in Art. 2 Nr. 6 der Richtlinie 2019/790, die damit hinfällig würde.

( 51 ) Gemäß Art. 15 der Richtlinie 2000/31 (siehe Nr. 105 der vorliegenden Schlussanträge). Den Anbietern können aber unabhängig von dieser Haftungsbefreiung bestimmte Überwachungspflichten durch Anordnungen auferlegt werden (vgl. insbesondere Art. 14 Abs. 3 der Richtlinie 2000/31 und Art. 8 Abs. 3 der Richtlinie 2001/29).

( 52 ) Vgl. im Einzelnen meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (Nrn. 173 bis 196).

( 53 ) Die in Art. 17 Abs. 4 Buchst. c erster Satzteil vorgesehene Voraussetzung ähnelt somit grundsätzlich den Anforderungen des Art. 14 der Richtlinie 2000/31.

( 54 ) Eine Handlungspflicht verlangt vom Schuldner, sich nach besten Kräften um ein Ergebnis zu bemühen, ohne dass er verpflichtet wäre, dieses zu erreichen. Vgl. in diesem Sinne Urteile vom 4. Juni 2009, Kommission/Griechenland (C‑250/07, EU:C:2009:338, Rn. 68), und vom 27. März 2014, UPC Telekabel Wien (C‑314/12, EU:C:2014:192, Rn. 53).

( 55 ) Vgl. zweiter Absatz des 66. Erwägungsgrundes der Richtlinie 2019/790.

( 56 ) Art. 17 Abs. 4 der Richtlinie 2019/790 enthält somit im Wesentlichen eine Regelung der Haftung für Fahrlässigkeit: Die Anbieter von Sharing-Diensten werden nach dieser Vorschrift haftbar gemacht, wenn sie nicht mit der gebotenen Sorgfalt gegen das Hochladen unzulässiger Inhalte durch die Nutzer ihrer Dienste vorgegangen sind. Art. 17 ist insoweit eine Art „hybrides“ Konstrukt zwischen der unmittelbaren Haftung einer Person, die rechtswidrig handelt, und der indirekten (oder „sekundären“) Haftung eines Vermittlers für Handlungen Dritter. Vgl. zu dieser Unterscheidung meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (Nrn. 64, 65, 102 und 103).

( 57 ) Vgl. Folgenabschätzung, Teil 1/3, S. 140.

( 58 ) Vgl. meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (Nr. 193).

( 59 ) Vgl. Folgenabschätzung, Teil 1/3, S. 137, und 61. Erwägungsgrund der Richtlinie 2019/790.

( 60 ) Vgl. u. a. Urteil vom 8. September 2016, GS Media (C‑160/15, EU:C:2016:644, Rn. 28 und die dort angeführte Rechtsprechung).

( 61 ) Beim „Hashing“ wird eine EDV-Datei mit Hilfe eines speziellen Tools durch eine eindeutige alphanumerische Zeichenfolge, den sogenannten „Hashcode“, digital dargestellt. Durch den Vergleich dieses „Hashcodes“ mit den Codes der auf einen Server hochgeladenen Dateien können alle dort befindlichen identischen Kopien der Originaldatei automatisch entdeckt werden. Beim „Watermarking“ wird mit Hilfe eines speziellen Tools eine bestimmte, für das bloße Auge sichtbare oder unsichtbare „Markierung“ in einen Inhalt eingefügt, die dann zur Identifizierung des ursprünglichen Inhalts und der davon angefertigten Kopien nachverfolgt werden kann. Beim „Fingerprinting“ schließlich wird mit Hilfe eines speziellen Tools eine eindeutige digitale Darstellung („Fingerabdruck“) eines bestimmten Inhalts – eines Bildes, eines Tonträgers, eines Videos usw. – erzeugt, indem dieser auf einige seiner charakteristischen Merkmale reduziert wird. Durch den Vergleich dieses „Fingerabdrucks“ mit denen der EDV-Dateien auf einem Server können alle Dateien mit weitgehend übereinstimmendem Inhalt identifiziert werden. Vgl. wegen näherer Einzelheiten Mochon, J.‑P., „Rapport de mission – Une application effective du droit d’auteur sur les plateformes numériques de partage: État de l’art et propositions sur les outils de reconnaissance des contenus“, Conseil Supérieur de la Propriété Littéraire et Artistique, 29. Januar 2020.

( 62 ) Tools mit der „Hashing“-Technik sind für die Erkennung von Inhalten nur bedingt geeignet, da mit dieser Technik, wie in Fn. 61 erwähnt, nur identische Kopien einer EDV-Datei zu erkennen sind. Die kleinste Veränderung gegenüber der Originaldatei (Änderung eines Bildpixels usw.) wird eine automatische Erkennung verhindern, auch wenn die miteinander verglichenen Dateien im Wesentlichen inhaltsgleich sein sollten. Ebenso lassen sich mit der „Watermarking“-Technik nur Kopien einer markierten Datei erkennen, was leicht umgangen werden kann. Vgl. Mochon, J.‑P., a. a. O.

( 63 ) Diese Tools werden zur Erfassung unzulässiger Inhalte anderer Art (Kinderpornografie, Beleidigungen usw.) eingesetzt. Vgl. Mochon, J.‑P., a. a. O.

( 64 ) Am bekanntesten dürfte in dieser Hinsicht wohl die von Google für YouTube entwickelte Software „Content ID“ sein. Vgl. meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (Nr. 22).

( 65 ) In der Praxis besteht das System darin, „digitale Fingerabdrücke“ der von den Rechteinhabern identifizierten Werke und sonstigen Schutzgegenstände zu erzeugen und diese „Fingerabdrücke“ in einer mit dem Erkennungs-Tool verbundenen Datenbank zu platzieren. Dann werden alle hochgeladenen Dateien mit Hilfe eines Algorithmus automatisch gescannt und ihre eigenen „Fingerabdrücke“ mit denjenigen in dieser Datenbank verglichen, um Übereinstimmungen zu ermitteln. Tools für „digitale Fingerabdrücke“ sind in der Lage, solche Übereinstimmungen auch innerhalb kurzer Zeiträume (z. B. mehrere Sekunden bei einem Tonträger) zu erkennen oder zu entdecken, dass der Inhalt verändert wurde, um einer automatischen Erkennung zu entgehen (z. B., dass das Filmbild umgekehrt oder beschleunigt wurde usw.). Einige Tools wie etwa Content ID können sogar nicht nur Tonträger, sondern auch die Melodien der zugrunde liegenden Werke erkennen. Vgl. Mochon, J.‑P., a. a. O.

( 66 ) Vgl. wegen weiterer Einzelheiten zu diesen Tools und zu ihren Anbietern Folgenabschätzung, Teil 3/3, S. 164 bis 172, und Mochon, J.‑P., a. a. O.

( 67 ) Siehe Nr. 22 der vorliegenden Schlussanträge.

( 68 ) Vgl. Folgenabschätzung, Teil 1/3, S. 140 bis 144. Vgl. im gleichen Sinne Mitteilung der Kommission „Umgang mit illegalen Online‑Inhalten, Mehr Verantwortung für Online-Plattformen“ (COM[2017] 555 final) vom 28. September 2017, S. 13 und 14.

( 69 ) Im 68. Erwägungsgrund der Richtlinie 2019/790 heißt es nur, dass Anbieter von Sharing-Diensten „verschiedene Maßnahmen ergreifen könnten“.

( 70 ) Vgl. im gleichen Sinne Pressemitteilung des Parlaments vom 27. März 2019„Questions and Answers on issues about the digital copyright directive“: „Is the directive creating automatic filters on online platforms? No. The draft directive sets a goal to be achieved … The draft directive however does not specify or list what tools, human resources or infrastructures may be needed to prevent unremunerated material appearing on the site. There is therefore no requirement for upload filters. However, if large platforms do not come up with any innovative solutions, they may end up opting for filters …“ (abrufbar unter https://www.europarl.europa.eu/news/en/press-room/20190111IPR23225/questions-and-answers-on-issues-about-the-digital-copyright-directive).

( 71 ) Dies ist im Übrigen auch die Meinung vieler Experten aus diesem Bereich. Vgl. u. a. Grisse, K., „After the storm – examining the final version of Article 17 of the new Directive (EU) 2019/790“, Journal of Intellectual Property Law & Practice, 2019, Bd. 14, Nr. 11, S. 887 bis 899 (894 und 895), Leitsner, M., „European Copyright Licensing and Infringement Liability Under Art. 17 DSM-Directive – Can We Make the New European System a Global Opportunity Instead of a Local Challenge?“, Zeitschrift für geistiges Eigentum, 2020, Bd. 12, Nr. 2, S. 123 bis 214 (141 und 143), Lambrecht, M., „Free speech by design – Algorithmic protection of exceptions and limitations in the Copyright DSM directive“, JIPITEC, Bd. 11, 2020, S. 68 bis 94 (71), Dusollier, S., „The 2019 Directive on Copyright in the Digital Single Market: Some Progress, a Few Bad Choices, and an Overall Failed Ambition“, Common Market Law Review, Bd. 57, 2020, S. 979 bis 1030 (1016); Mochon, J.‑P., a. a. O., S. 106, sowie Frosio, G., und Mendis, S., „Monitoring and Filtering: European Reform or Global Trend?“, Oxford Handbook of Online Intermediary Liability, Frosio, G. (Hrsg.), Oxford University Press, 2020, insbesondere S. 562.

( 72 ) Vgl. Lambrecht, M., a. a. O., S. 71: „… if YouTube wanted to ensure a human review of the 432.000 hours of video uploaded daily, it would have to hire roughly 70.000 full time (very efficient) employees“.

( 73 ) Das bedeutet nicht, dass die Anbieter von Sharing-Diensten bestimmte Inhalte überhaupt nicht von ihren Mitarbeitern überprüfen lassen könnten. Sie werden aber automatische Tools einsetzen müssen, um wenigstens die Menge der zu kontrollierenden Inhalte zu reduzieren (siehe Nr. 211 der vorliegenden Schlussanträge).

( 74 ) Manche Betreiber haben offenbar begonnen, Tools zur Identifizierung von Inhalten mit Hilfe künstlicher Intelligenz zu entwickeln und einzusetzen. Vgl. u. a. Mochon, J.‑P., a. a. O., S. 35. Jedenfalls bleibt dies naturgemäß eine Technik zur automatischen Erkennung von Inhalten.

( 75 ) Vor allem die französische Regierung hat anerkannt, dass „beim gegenwärtigen Stand der Technik der Einsatz automatischer Filtermechanismen angesichts des Umfangs der Inhalte, die ständig auf die unter Art. 17 fallenden Plattformen online gestellt werden, das wirksamste Mittel zur schnellen Erkennung des unerlaubten Hochladens geschützter Inhalte zu sein scheint“. Auch der Rat hat eingeräumt, dass sich „große“ Anbieter von Sharing-Diensten „gezwungen fühlen“ könnten, solche Tools zu verwenden.

( 76 ) Die Erkennungs-Tools mittels „digitalem Fingerabdruck“ können auf Audio‑, Foto- und Videoinhalte angewendet werden. Vgl. Mochon, J.‑P., a. a. O. Ich weise darauf hin, dass Art. 17 der Richtlinie 2019/790 – da weder in seinem Wortlaut noch in der Definition des Ausdrucks „Diensteanbieter für das Teilen von Online‑Inhalten“ in Art. 2 Nr. 6 dieser Richtlinie eine diesbezügliche Einschränkung vorgesehen ist – für alle Arten von Schutzgegenständen (visuelle, musikalische, cineastische, textbasierte, aber auch Code-Zeilen, Videospiele usw.) gilt.

( 77 ) Vgl. auch zweiter Absatz des 66. Erwägungsgrundes der Richtlinie 2019/790 („… Je nach Art der Inhalte können unterschiedliche Mittel angemessen und verhältnismäßig sein …“).

( 78 ) Vgl. u. a. Mochon, J.‑P., a. a. O., S. 12. Dies scheint u. a. bei Verfilmungen von Videospielen der Fall zu sein. Ohne EDV-Tools zum automatischen und effizienten Ausfiltern bestimmter Arten von Werken und Schutzgegenständen ist nicht auszuschließen, dass der Umfang der den Anbietern von Sharing-Diensten obliegenden Sorgfaltspflichten infolge des Grundsatzes der Verhältnismäßigkeit insoweit erheblich eingeschränkt wird. Vgl. in diesem Sinne zweiter Absatz des 66. Erwägungsgrundes der Richtlinie 2019/790 („…es [kann] nicht ausgeschlossen werden …, dass die Verfügbarkeit nicht genehmigter Inhalte in manchen Fällen nur vermieden werden kann, wenn die Rechteinhaber den Anbieter benachrichtigt haben“).

( 79 ) Vgl. Grisse, K., a. a. O., S. 895, sowie Frosio, G., und Mendis, S., a. a. O., S. 562.

( 80 ) Vgl. entsprechend Urteil vom 27. März 2014, UPC Telekabel Wien (C‑314/12, EU:C:2014:192, Rn. 51 bis 53).

( 81 ) Darüber hinaus werden die Anbieter von Sharing-Diensten mit Hilfe von Tools zur Inhaltserkennung in vielen Fällen die ihnen durch Art. 17 Abs. 8 Unterabs. 2 der Richtlinie 2019/790 auferlegten Transparenzpflichten erfüllen können. Nach dieser Bestimmung müssen die Anbieter den Rechteinhabern nämlich Informationen über die Nutzung der Inhalte bereitstellen, die unter die mit Letzteren geschlossenen Lizenzvereinbarungen fallen. Mit diesen Tools lassen sich oft sehr genaue statistische Angaben zum Publikum der auf diesen Diensten angebotenen Inhalte sammeln (vgl. Folgenabschätzung, Teil 3/3, S. 165, und Nr. 58 der vorliegenden Schlussanträge).

( 82 ) Vgl. u. a. Urteil vom 29. Juli 2019, Funke Medien NRW (C‑469/17, EU:C:2019:623, Rn. 73 und die dort angeführte Rechtsprechung). Vgl. auch Art. 19 der Allgemeinen Erklärung der Menschenrechte, verabschiedet am 10. Dezember 1948 von der Generalversammlung der Vereinten Nationen (Resolution 217 A[III]), und Art. 19 des Internationalen Pakts über bürgerliche und politische Rechte, verabschiedet am 16. Dezember 1966 von der Generalversammlung der Vereinten Nationen.

( 83 ) Vgl. entsprechend EGMR, 19. Februar 2013, Neij und Sunde Kolmisoppi/Schweden (CE:ECHR:2013:0219DEC004039712, im Folgenden: EGMR, Neij u. a./Schweden, S. 9 und 10), EGMR, 10. April 2013, Ashby Donald u. a./Frankreich (CE:ECHR:2013:0110JUD003676908, im Folgenden: EGMR, Ashby Donald u. a./Frankreich, § 34), sowie Schlussanträge des Generalanwalts Jääskinen in der Rechtssache L’Oréal u. a. (C‑324/09, EU:C:2010:757, Nrn. 49 und 157).

( 84 ) Obwohl der EGMR eine solche Freiheit nicht als eigenständiges Recht anerkennt, fällt die „künstlerische Gestaltungsfreiheit“ unter Art. 10 der EMRK. Vgl. u. a. EGMR, 24. Mai 1988, Müller u. a./Schweiz (CE:ECHR:1988:0524JUD001073784, § 27), und EGMR, 8. Juli 1999, Karataş/Türkei (CE:ECHR:1999:0708JUD002316894, § 49).

( 85 ) Meines Wissens sind Hassreden als einzige Meinungen, Informationen oder Ideen vom Schutz des Art. 10 der EMRK ausgenommen, weil sie mit den durch diese Konvention proklamierten und garantierten Werten unvereinbar sind (vgl. u. a. EGMR, Gunduz/Türkei, CE:ECHR:2003:1204JUD003507197, § 41).

( 86 ) Vgl. u. a. EGMR, Neij u. a./Schweden, S. 10 und 12, sowie EGMR, Ashby Donald u. a./Frankreich, §§ 35 und 44. Vgl. auch Smith, G., „Copyright and freedom of expression in the online world“, Journal of Intellectual Property Law & practice, 2010, Bd. 5, Nr. 2, S. 88 bis 95, und Michaux, B., „Chapitre 13. Diffusion du savoir. Droit d’auteur et Internet“, L’Europe des droits de l’homme à l’heure d’Internet, Van Enis, Q. (Dir.), Bruylant, 2019, S. 491 bis 526. Siehe auch Nr. 117 der vorliegenden Schlussanträge.

( 87 ) Vgl. EGMR, 18. Dezember 2012, Ahmet Yildirim/Türkei (CE:ECHR:2012:1218JUD000311110, im Folgenden: EGMR, Ahmet Yildirim/Türkei, § 55), EGMR, 23. Juni 2020 Vladimir Kharitonov/Russland (CE:ECHR:2020:0623JUD001079514, § 36), und EGMR, 30. April 2019, Kablis/Russland (CE:ECHR:2019:0430JUD004831016, im Folgenden: EGMR, Kablis/Russland, § 90).

( 88 ) Vgl. entsprechend Urteile Scarlet Extended (Rn. 29, 36, 37 und 40) und SABAM (Rn. 26, 35, 37 und 38). Das kann den bisherigen „repressiven“ Maßnahmen gegenübergestellt werden, wie etwa der – aufgrund einer Meldung erfolgten oder von einem Richter angeordneten – Entfernung einer bereits hochgeladenen Information, deren Rechtswidrigkeit eindeutig ist und/oder von einem Richter festgestellt wurde.

( 89 ) Vgl. entsprechend EGMR, Ahmet Yildirim/Türkei, § 55, und EGMR, 23. Juni 2020, Vladimir Kharitonov/Russland (CE:ECHR:2020:0623JUD001079514, § 36, zur Sperrung von Internetseiten), sowie Schlussanträge des Generalanwalts Cruz Villalón in der Rechtssache Scarlet Extended (C‑70/10, EU:C:2011:255, Nr. 85). Die Tatsache, dass gesperrte Inhalte, wie ich nachstehend näher ausführen werde, gegebenenfalls erneut hochgeladen werden können, wenn die betroffenen Nutzer im Rahmen des Beschwerdeverfahrens gemäß Art. 17 Abs. 9 der Richtlinie 2019/790 nachweisen, dass sie keine Urheberrechte verletzen, kann aus meiner Sicht diese Feststellung eines „Eingriffs“ nicht in Frage stellen. Das gilt auch für die Frage, ob diese Filterung strikt auf unzulässige Inhalte abzielt. Diese Umstände werde ich aber bei der Prüfung der Verhältnismäßigkeit dieses Eingriffs behandeln.

( 90 ) Insoweit stellt sich hinsichtlich dieser Freiheit die Frage, inwieweit die Anbieter dieser Dienste angesichts der Bedeutung, die Letztere inzwischen erlangt haben – sie sind zu wesentlichen Infrastrukturen für die Ausübung der Freiheit der Online-Kommunikation geworden (siehe Nr. 103 der vorliegenden Schlussanträge) –, die Grundrechte der Nutzer achten müssen und inwieweit der Staat aufgrund der sich aus diesen Artikeln ergebenden „positiven Verpflichtungen“ gehalten ist, „positive Schutzmaßnahmen“ zu ergreifen, die den tatsächlichen Genuss dieser Freiheit im Verhältnis zwischen Nutzern und Anbietern von Sharing-Diensten gewährleisten. Im vorliegenden Fall brauchen diese Fragen nicht entschieden zu werden. Vgl. zu den „positiven Verpflichtungen“ aus Art. 10 EMRK u. a. EGMR, 6. Mai 2003, Appleby/Vereinigtes Königreich (CE:ECHR:2003:0506JUD004430698, § 39), und EGMR, 16. Dezember 2008, Khurshid Mustafa/Schweden (CE:ECHR:2008:1216JUD002388306, § 31).

( 91 ) Vgl. entsprechend EGMR, 28. Juni 2001, VgT Verein gegen Tierfabriken/Schweiz (CE:ECHR:2001:0628JUD002469994, §§ 44 bis 47). In diesem Fall entschied der EGMR, dass die Weigerung eines privaten Fernsehsenders, einen von einem Tierschutzverein produzierten TV-Spot auszustrahlen, einen dem beklagten Staat zuzurechnenden„Eingriff“ in die Meinungsfreiheit des Vereins darstelle, da diese Weigerung der Beachtung des nationalen Radio- und Fernsehgesetzes diene, das politische Werbung verbiete. Anders als die Republik Polen halte ich daher dies Theorie der „positiven Verpflichtungen“ im vorliegenden Fall nicht für relevant. Jedenfalls ist dieser Punkt für die Argumentation nicht entscheidend. Insoweit hat der EGMR wiederholt entschieden, dass „[sich] die Grenze zwischen den positiven und den negativen Verpflichtungen des Staates nach der [EMRK] … nicht genau definieren lässt“ und dass in beiden Fällen im Wesentlichen dieselben Grundsätze anwendbar seien (vgl. u. a. EGMR, 13. Juli 2012, Mouvement Raëlien Suisse/Schweiz (CE:ECHR:2011:0113JUD001635406, § 50 und die dort angeführte Rechtsprechung).

( 92 ) Vgl. entsprechend EGMR, 25. März 1993, Costello-Roberts/Vereinigtes Königreich (CE:ECHR:1993:0325JUD001313487, § 27: „Der Staat kann sich seiner Verantwortung nicht entziehen, indem er seine Verpflichtungen an private Einrichtungen oder Einzelpersonen delegiert.“

( 93 ) Siehe Fn. 45 der vorliegenden Schlussanträge.

( 94 ) Abschließend möchte ich bemerken: Allein die Tatsache, dass die Anbieter von Sharing-Diensten indirekt zu einer solchen Überwachung ihrer Dienste verpflichtet werden, stellt an sich schon einen „Eingriff“ des Unionsgesetzgebers in die Meinungsfreiheit dieser Diensteanbieter dar. Soweit sie nämlich jedermann die Möglichkeit bieten, Informationen zu empfangen oder weiterzugeben, fällt ihre Tätigkeit in den Anwendungsbereich von Art. 11 der Charta und Art. 10 der EMRK. Vgl. entsprechend EGMR, Neij u. a./Schweden, S. 9 und 10, EGMR, 2. Februar 2016, Magyar Tartalomzolgáltatók Egyesület and Index.hu zrt/Ungarn (CE:ECHR:2016:0202JUD002294713, § 45), und EGMR, 4. Juni 2020, Jezior/Polen (CE:ECHR:2020:0604JUD003195511, § 41).

( 95 ) Vgl. u. a EGMR, 14. März 2002, Gaweda/Polen (CE:ECHR:2002:0314JUD002622995, § 37), EGMR, Ahmet Yildirim/Türkei, § 56, und EGMR, 23. Juni 2020, Vladimir Kharitonov/Russland (CE:ECHR:2020:0623JUD001079514, § 36).

( 96 ) Siehe Nr. 71 der vorliegenden Schlussanträge. Im Übrigen darf das durch die Charta gewährte Schutzniveau nach deren Art. 53 niemals niedriger sein als das durch die EMRK garantierte Schutzniveau. Hierzu muss der Gerichtshof die Voraussetzungen des Art. 52 Abs. 1 der Charta mindestens ebenso streng auslegen, wie der EGMR die Voraussetzungen des Art. 10 Abs. 2 der EMRK auslegt.

( 97 ) Vgl. u. a. Urteil vom 17. Dezember 2015, WebMindLicenses (C‑419/14, EU:C:2015:832, Rn. 81), Gutachten 1/15 (PNR-Abkommen EU-Kanada) vom 26. Juli 2017 (EU:C:2017:592, Rn. 146), und meine Schlussanträge in der Rechtssache Facebook Ireland und Schrems (C‑311/18, EU:C:2019:1145, Nr. 263).

( 98 ) Vgl. u. a. Urteil vom 17. Dezember 2015, WebMindLicenses (C‑419/14, EU:C:2015:832, Rn. 81).

( 99 ) Vgl. u. a. EGMR, 26. April 1979, Sunday Times/Vereinigtes Königreich (CE:ECHR:1979:0426JUD000653874, § 49), EGMR, 14. März 2002, Gaweda/Polen (CE:ECHR:2002:0314JUD002622995, § 39), und EGMR, 23. Juni 2020, Vladimir Kharitonov/Russland (CE:ECHR:2020:0623JUD001079514, § 37).

( 100 ) In diesem Sinne hat der EGMR wiederholt entschieden, dass „Bestimmtheit zwar wünschenswert ist, aber bisweilen mit übermäßiger Rigidität einhergeht; das Recht muss jedoch an sich ändernde Umstände angepasst werden können. Viele Gesetze verwenden daher zwangsläufig mehr oder weniger unbestimmte Formulierungen, deren Auslegung und Anwendung von der Praxis abhängen“. Vgl. u. a. EGMR, 16. Juni 2015, Delfi AS/Estland (CE:ECHR:2015:0616JUD006456909, im Folgenden: EGMR, Delfi AS/Estland, § 121 und die dort angeführte Rechtsprechung).

( 101 ) Dass die Parteien und die Streithelfer im vorliegenden Fall unterschiedliche Auslegungen von Art. 17 der Richtlinie 2019/790 vorgeschlagen haben (siehe Nrn. 168 und 170 der vorliegenden Schlussanträge), bedeutet für sich allein nicht, dass das Erfordernis der „Vorhersehbarkeit“ nicht erfüllt wäre (vgl. u. a. EGMR, 17. Februar 2004, Gorzelik u. a./Polen, CE:ECHR:2004:0217JUD004415898, § 65). Der Gerichtshof wird die richtige Auslegung dieser Bestimmung klären müssen.

( 102 ) Vgl. u. a. Urteil vom 17. Dezember 2015, WebMindLicenses (C‑419/14, EU:C:2015:832, Rn. 81).

( 103 ) Vgl. u. a. EGMR, Ahmet Yildirim/Türkei, §§ 59 und 64, sowie EGMR, 23. Juni 2020, Vladimir Kharitonov/Russland (CE:ECHR:2020:0623JUD001079514, § 37).

( 104 ) Vgl. entsprechend Urteil vom 6. Oktober 2020, La Quadrature du Net u. a. (C‑511/18, C‑512/18 und C‑520/18, EU:C:2020:791, Rn. 132).

( 105 ) Sieh Nrn. 128 ff. der vorliegenden Schlussanträge.

( 106 ) Vgl. meine Schlussanträge in der Rechtssache Facebook Ireland und Schrems (C‑311/18, EU:C:2019:1145, Nr. 272).

( 107 ) Siehe Nrn. 117 und 129 der vorliegenden Schlussanträge.

( 108 ) Vgl. u. a. EGMR, 26. November 1991, Observer und Guardian/Vereinigtes Königreich (CE:ECHR:1991:1126JUD001358588, § 60), EGMR, 14. März 2002, Gaweda/Polen (CE:ECHR:2002:0314JUD002622995, § 35), und EGMR, Ahmet Yildirim/Türkei, § 64 mit weiteren Nachweisen.

( 109 ) Daher ist die Meinungsfreiheit eine wesentliche Grundlage einer demokratischen Gesellschaft. Vgl. u. a. Urteil vom 23. April 2020, Associazione Avvocatura per i diritti LGBTI (C‑507/18, EU:C:2020:289, Rn. 48 und die dort angeführte Rechtsprechung), sowie EGMR, 7. Dezember 1976, Handyside (CE:ECHR:1976:1207JUD000549372, § 49), und EGMR, 26. November 1991, Observer und Guardian/Vereinigtes Königreich (CE:ECHR:1991:1126JUD001358588, § 59).

( 110 ) Vgl. zum einen Urteil vom 8. September 2016, GS Media (C‑160/15, EU:C:2016:644, Rn. 45). Vgl. zum anderen EGMR, 10. März 2009, Times Newspapers Ltd/Vereinigtes Königreich (CE:ECHR:2009:0310JUD000300203, § 27), EGMR, Ahmet Yildirim/Türkei, §§ 48 und 54, sowie EGMR, 1. Dezember 2015, Cengiz u. a./Türkei (CE:ECHR:2015:1201JUD004822610, §§ 49 und 52).

( 111 ) Vgl. u. a. EGMR, 1. Dezember 2015, Cengiz u. a./Türkei (CE:ECHR:2015:1201JUD004822610, §§ 51 und 52), sowie EGMR, Kablis/Russland, § 81.

( 112 ) Vgl. namentlich Empfehlung CM/Rec(2018)2 des Ministerkomitees des Europarats an die Mitgliedstaaten zur Rolle und Verantwortlichkeit von Internet-Vermittlern, angenommen vom Ministerkomitee am 7. März 2018 bei der 1309. Sitzung der Ministerbeauftragten, sowie Balkin, J. M., „Old-School/New-School Speech Regulation“, Harvard Law Review, Bd. 127, Nr. 8, 2014, S. 2296 bis 2342 (insbesondere S. 2304).

( 113 ) Vgl. Conseil constitutionnel (Verfassungsrat, Frankreich), Entscheidung Nr. 2020-801 DC vom 18. Juni 2020, „Loi visant à lutter contre les contenus haineux sur internet“ (Gesetz zur Bekämpfung von Hassinhalten im Internet), § 4.

( 114 ) D. h. durch einen Mechanismus des Haftungsausschlusses wie im vorliegenden Fall (siehe Nr. 62 der vorliegenden Schlussanträge).

( 115 ) Vgl. Schlussanträge des Generalanwalts Poiares Maduro in den verbundenen Rechtssachen Google France und Google (C‑236/08 bis C‑238/08, EU:C:2009:569, Nrn. 142 und 143). Vgl. auch Empfehlung CM/Rec(2007)16 des Ministerkomitees des Europarats an die Mitgliedstaaten über Maßnahmen zur Förderung des gemeinwirtschaftlichen Nutzens des Internets, angenommen vom Ministerkomitee am 7. November 2007 bei der 1010. Sitzung der Ministerbeauftragten, Anhang, Teil III, Buchst. a, sowie Empfehlung CM/Rec(2018)2 zur Rolle und Verantwortlichkeit von Internet-Vermittlern, Anhang, Nr. 1.3.5.

( 116 ) Vgl. im gleichen Sinne Smith, G., „Time to speak up for Article 15“, Blog Cyberleagle, 21. Mai 2017 (abrufbar unter https://www.cyberleagle.com/2017/05/time-to-speak-up-for-article-15.html).

( 117 ) Vgl. Urteile Scarlet Extended (Rn. 40 und 52) und SABAM (Rn. 38 und 50).

( 118 ) Der Gerichtshof hat wiederholt entschieden, dass bei nationalen Regelungen, mit denen die Modalitäten solcher Anordnungen festgelegt werden, sowie bei deren Anwendung durch die nationalen Gerichte das in Art. 15 der Richtlinie 2000/31 vorgesehene Verbot „allgemeiner Überwachungspflichten“ zu beachten ist. Vgl. u. a. Urteile Scarlet Extended (Rn. 32 bis 35) und SABAM (Rn. 30 bis 33).

( 119 ) Vgl. 45. Erwägungsgrund und Art. 14 Abs. 3 der Richtlinie 2000/31.

( 120 ) Vgl. 47. Erwägungsgrund der Richtlinie 2000/31 („Die Mitgliedstaaten sind [nicht] gehindert, den Diensteanbietern Überwachungspflichten … in spezifischen Fällen [aufzuerlegen]“).

( 121 ) Vgl. EGMR, Ahmet Yildirim/Türkei, § 64, EGMR, 1. Dezember 2015, Cengiz u. a./Türkei (CE:ECHR:2015:1201JUD004822610, § 62), und EGMR, Kablis/Russland, § 97.

( 122 ) Siehe Nr. 138 der vorliegenden Schlussanträge.

( 123 ) Vgl. im gleichen Sinne Grisse, K., a. a. O., S. 897, Spindler, G., „The liability system of Art. 17 DSMD and national implementation – Contravening prohibition of general monitoring duties?“, JIPITEC, Bd. 10, 2020, S. 350 und 353 bis 359, sowie Cabay, J., „Lecture prospective de l’article 17 de la directive sur le droit d’auteur dans le marché unique numérique: Vers une obligation de filtrage limitée par la CJUE, garante du ‚juste équilibre‘“,Propriété intellectuelle à l’ère du big data et de la blockchain, Schulthess, De Werra, J., und Benhamou, Y. (Hrsg.), Genf, 2021, S. 225 bis 237.

( 124 ) Ich weise darauf hin, dass diese Rechtsprechung, anders als vom Parlament suggeriert, im vorliegenden Fall relevant ist, auch wenn sie Anordnungen nationaler Gerichte und nicht einen vom Unionsgesetzgeber erlassenen Rechtsakt betrifft. Der Begriff „allgemeine Überwachungspflicht“ ist nämlich unabhängig vom Ursprung einer solchen Pflicht gleich auszulegen (vgl. in diesem Sinne meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando, Fn. 104).

( 125 ) Urteil vom 12. Juli 2011 (C‑324/09, EU:C:2011:474, Rn. 139).

( 126 ) Urteil Scarlet Extended (Rn. 29 und 38 bis 40). Der Gerichtshof hat nach meinem Verständnis entscheidend darauf abgestellt, dass „eine solche präventive Überwachung eine aktive Beobachtung sämtlicher elektronischen Kommunikationen im Netz des betreffenden [Anbieters von Internetzugangsdiensten] erfordern und mithin jede zu übermittelnde Information und jeden dieses Netz nutzenden Kunden erfassen“ würde (Rn. 39) (Hervorhebung nur hier).

( 127 ) Vgl. Rn. 35 bis 38 dieses Urteils.

( 128 ) Urteil vom 15. September 2016 (C‑484/14, EU:C:2016:689, Rn. 25 und 88).

( 129 ) Man könnte sich ernsthaft fragen, ob die angefochtenen Bestimmungen eine „allgemeine Überwachungspflicht“ im Sinne dieser Urteile begründen. Insbesondere sind die Unterschiede zwischen den Verpflichtungen aus diesen Bestimmungen und dem Filtersystem, das Gegenstand der Rechtssache war, in der das Urteil Scarlet Extended ergangen ist, alles andere als eindeutig. In jener Rechtssache verlangten die Rechteinhaber, dem Vermittler solle aufgegeben werden, zu „ermittel[n], welche Dateien Werke enthalten, an denen [diese Inhaber] Rechte zu haben behaupten“ (Rn. 38 dieses Urteils), und zwar konkret mit Hilfe des Systems „Audible Magic“ (vgl. Schlussanträge des Generalanwalts Cruz Villalón in der Rechtssache Scarlet Extended, C‑70/10, EU:C:2011:255, Nrn. 21 und 24). Dabei handelt es sich um ein Tool zur Erkennung „digitaler Fingerabdrücke“, das mit von diesen Rechteinhabern übermittelten Referenzdateien arbeitet und das auch in der Folgenabschätzung erwähnt ist (Teil 3/3, S. 55).

( 130 ) Dieses Urteil ist nach Erhebung der vorliegenden Klage ergangen.

( 131 ) Vgl. Schlussanträge des Generalanwalts Szpunar in der Rechtssache Glawischnig-Piesczek (C‑18/18, EU:C:2019:458, Nrn. 25, 26 und 59).

( 132 ) Urteil Glawischnig-Piesczek (Rn. 35).

( 133 ) Urteil Glawischnig-Piesczek (Rn. 46).

( 134 ) Obwohl das Urteil Glawischnig-Piesczek das Recht der Ehrverletzungen betrifft, übersteigt seine Bedeutung dieses Rechtsgebiet. Denn der Begriff „allgemeine Überwachungspflicht“ gilt horizontal und unabhängig von der Art der Rechtsverstöße, die der Vermittler aufspüren soll. Vgl. Schlussanträge des Generalanwalts Szpunar in der Rechtssache Glawischnig-Piesczek (C‑18/18, EU:C:2019:458, Nr. 43).

( 135 ) Siehe Nrn. 194 bis 199 der vorliegenden Schlussanträge.

( 136 ) Siehe Nrn. 200 bis 203 der vorliegenden Schlussanträge.

( 137 ) Der Unionsgesetzgeber hat übrigens das Verbot „allgemeiner Überwachungspflichten“ in Art. 17 Abs. 8 der Richtlinie 2019/790 bekräftigt (siehe Nrn. 194 bis 203 der vorliegenden Schlussanträge).

( 138 ) Vgl. u. a. Mitteilungen der Kommission an das Europäische Parlament, den Rat, den Europäischen Wirtschafts- und Sozialausschuss und den Ausschuss der Regionen vom 6. Mai 2015„Strategie für einen digitalen Binnenmarkt für Europa“ (COM[2015] 192 final), S. 4, 8 und 12 bis 14, vom 25. Mai 2016„Online-Plattformen im digitalen Binnenmarkt – Chancen und Herausforderungen für Europa“ (COM[2016] 288 final), S. 8 bis 11, und vom 28. September 2017„Umgang mit illegalen Online‑Inhalten – Mehr Verantwortung für Online-Plattformen“ (COM[2017] 555 final). Vgl. auch Empfehlung (EU) 2018/334 der Kommission vom 1. März 2018 für wirksame Maßnahmen im Umgang mit illegalen Online-Plattformen (ABl. 2018, L 63, S. 50), Erwägungsgründe 1 bis 5, 24 und 36 sowie Nrn. 18, 36 und 37.

( 139 ) Vgl. u. a. Verordnung (EU) 2021/784 des Europäischen Parlaments und des Rates vom 29. April 2021 zur Bekämpfung der Verbreitung terroristischer Online-Inhalte (ABl. 2021, L 172, S. 79), insbesondere Art. 5, sowie Vorschlag vom 15. Dezember 2020 für eine Verordnung des Europäischen Parlaments und des Rates über einen Binnenmarkt für digitale Dienste (Gesetz über digitale Dienste) und zur Änderung der Richtlinie 2000/31/EG (COM[2020] 825 final), insbesondere Art. 27. Ich stelle fest, dass der Grundsatz, wonach Online-Vermittlern keine allgemeine Überwachungspflicht auferlegt werden sollte, in Art. 7 des letzteren Vorschlags bekräftigt wird.

( 140 ) Siehe Nr. 84 der vorliegenden Schlussanträge.

( 141 ) Siehe Nrn. 140 bis 153 der vorliegenden Schlussanträge. Vgl. in gleichen Sinne auch Empfehlung 2018/334 (Erwägungsgründe 24, 27 und 36 sowie Nrn. 19 bis 21).

( 142 ) Siehe Nr. 28 der vorliegenden Schlussanträge.

( 143 ) Vgl. auch Art. 27 Abs. 2 der Allgemeinen Erklärung der Menschenrechte und Art. 15 des Internationalen Pakts über wirtschaftliche, soziale und kulturelle Rechte.

( 144 ) Vgl. u. a. EGMR, 11. Januar 2007, Anheuser-Busch Inc./Portugal (CE:ECHR:2007:0111JUD007304901, § 72), EGMR, Ashby Donald u. a./Frankreich, § 40, und EGMR, Neij u. a./Schweden, S. 11.

( 145 ) Vgl. entsprechend Urteile vom 29. Januar 2008, Promusicae (C‑275/06, EU:C:2008:54, Rn. 53), vom 15. September 2016, Mc Fadden (C‑484/14, EU:C:2016:689, Rn. 81), sowie EGMR, Ashby Donald u. a./Frankreich, § 36, und EGMR, Neij u. a./Schweden, S. 10 und 11. Wie das Parlament und der Rat ausführen, entspricht die fragliche Einschränkung auch einer dem Gemeinwohl dienenden Zielsetzung, die die Union nicht nur „anerkennt“, sondern auch „verfolgt“: die kulturelle Vielfalt zu fördern (vgl. zweiter Erwägungsgrund der Richtlinie 2019/790). Denn der Schutz der Urheberrechte dient insbesondere der Entwicklung, Erzeugung und Verbreitung von Informationen, Wissen und Kultur (vgl. u. a. Erwägungsgründe 9 bis 11 und 14 der Richtlinie 2001/29). Die Union hat sich aber gemäß Art. 3 Abs. 3 EUV gerade das Ziel gesetzt, „für den Schutz und die Entwicklung des kulturellen Erbes Europas“ zu sorgen.

( 146 ) Vgl. u. a. Urteile vom 22. Januar 2013, Sky Österreich (C‑283/11, EU:C:2013:28, Rn. 50), vom 15. Februar 2016, N. (C‑601/15 PPU, EU:C:2016:84, Rn. 54), und vom 17. Dezember 2020, Centraal Israëlitisch Consistorie van België u. a. (C‑336/19, EU:C:2020:1031, Rn. 64).

( 147 ) Vgl. u. a. Urteil vom 17. Dezember 2020, Centraal Israëlitisch Consistorie van België u. a. (C‑336/19, EU:C:2020:1031, Rn. 66 und die dort angeführte Rechtsprechung).

( 148 ) Denn die angefochtenen Bestimmungen gelten, wie gesagt, nur für Werke und Schutzgegenstände, die die Rechteinhaber benannt haben, ohne den Anbietern von Sharing-Diensten insoweit eine Erlaubnis zu erteilen.

( 149 ) Siehe Nr. 53 der vorliegenden Schlussanträge. Der Umstand, dass jede Filterung von böswilligen Nutzern umgangen werden kann (siehe jedoch zur Zuverlässigkeit von Filter-Tools mittels „Fingerabdrücken“ Fn. 65 der vorliegenden Schlussanträge) und zwangsläufig eine gewisse Fehlerquote aufweist, mag zwar die Eignung solcher Verpflichtungen, den beabsichtigten Zweck zu erreichen, verringern, macht sie jedoch nicht völlig nutzlos; vgl. Urteil vom 27. März 2014, UPC Telekabel Wien (C‑314/12, EU:C:2014:192, Rn. 63).

( 150 ) Vgl. u. a. Urteile vom 22. Januar 2013, Sky Österreich (C‑283/11, EU:C:2013:28, Rn. 54 und 55), vom 17. Oktober 2013, Schwarz (C‑291/12, EU:C:2013:670, Rn. 46, 52 und 53), und vom 4. Mai 2016, Philip Morris Brands u. a. (C‑547/14, EU:C:2016:325, Rn. 160).

( 151 ) Siehe Fn. 172 dieser Schlussanträge.

( 152 ) Vgl. u. a. Urteil vom 17. Dezember 2020, Centraal Israëlitisch Consistorie van België u. a. (C‑336/19, EU:C:2020:1031, Rn. 64 und die dort angeführte Rechtsprechung).

( 153 ) Vgl. entsprechend Urteil vom 9. November 2010, Volker und Markus Schecke und Eifert (C‑92/09 und C‑93/09, EU:C:2010:662, Rn. 85).

( 154 ) Vgl. u. a. Urteil vom 17. Dezember 2020, Centraal Israëlitisch Consistorie van België u. a. (C‑336/19, EU:C:2020:1031, Rn. 65 und die dort angeführte Rechtsprechung).

( 155 ) Vgl. u. a. Urteil vom 9. März 2021, VG Bild-Kunst (C‑392/19, EU:C:2021:181, Rn. 54 und die dort angeführte Rechtsprechung).

( 156 ) Vgl. Erwägungsgründe 1 bis 7, 40, 41 und 45 bis 49 der Richtlinie 2000/31 sowie meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (Nr. 245).

( 157 ) Vgl. meine Schlussanträge in den verb. Rechtssachen YouTube und Cyando (Nr. 246).

( 158 ) Vgl. u. a. Urteil vom 17. Dezember 2015, Neptune Distribution (C‑157/14, EU:C:2015:823, Rn. 76 und die dort angeführte Rechtsprechung).

( 159 ) Vgl. Empfehlung CM/Rec(2018)2 zur Rolle und Verantwortlichkeit von Internet-Vermittlern, Präambel, Nr. 9.

( 160 ) Vgl. u. a. EGMR, Ashby Donald u. a./Frankreich, § 40 und die dort angeführte Rechtsprechung. Vgl. auch EGMR, Neij u. a./Schweden, S. 11, und EGMR, 11. März 2014, Akdeniz/Türkei (CE:ECHR:2014:0311DEC002087710, § 28). Vgl. im gleichen Sinne Urteil vom 3. Februar 2021, Fussl Modestraße Mayr (C‑555/19, EU:C:2021:89, Rn. 91 bis 93).

( 161 ) Vgl. entsprechend EGMR, Neij u. a./Schweden, S. 11.

( 162 ) Für einen Teil der Wissenschaft gibt es keine empirischen Belege für die Existenz des „Value Gap“. Vgl. u. a. Frosio, G., „From horizontal to vertical: an intermediary liability earthquake in Europe“, Journal of Intellectual Property Law & Practice, 2016, Bd. 12, Nr. 7, S. 565 bis 575 (567 bis 569). Vgl. für die Gegenthese Bensamoun, A., „Le value gap ou le partage de la valeur dans la proposition de directive sur le droit d’auteur dans le marché unique numérique“, Entertainment, Bruylant, Nr. 2018-4, S. 278 bis 287.

( 163 ) Es ist natürlich Sache des Unionsgesetzgebers, über das Schutzniveau zu entscheiden, das für das Urheberrecht und die verwandten Schutzrechte in der Union festgelegt werden soll.

( 164 ) Vgl. Folgenabschätzung, Teil 1/3, S. 137 bis 144 und 175. Vgl. im gleichen Sinne Urteile vom 13. Mai 2014, Google Spain und Google (C‑131/12, EU:C:2014:317, Rn. 80), und Glawischnig-Piesczek (Rn. 36 und 37).

( 165 ) Siehe Nr. 14 der vorliegenden Schlussanträge.

( 166 ) Ein entscheidender Unterschied, der verhindert, dass diese Anbieter wie Herausgeber behandelt werden, besteht meines Erachtens aber darin, dass sie die auf ihren Diensten hochgeladenen Informationen nicht vorher auswählen (siehe Nr. 32 der vorliegenden Schlussanträge).

( 167 ) Vgl. in diesem Sinne Empfehlung CM/Rec(2018)2 zur Rolle und Verantwortlichkeit von Internet-Vermittlern, Präambel, Nrn. 4 und 5 sowie Anhang, Nr. 1.3.9. Für „traditionelle“ Hosting-Provider wäre eine solche Haftungsregelung meiner Ansicht nach nicht verhältnismäßig. Das wäre erst recht bei anderen Arten von Vermittlern der Fall, z. B. bei Anbietern einer „reinen Durchleitung“ (vgl. Art. 12 der Richtlinie 2000/31).

( 168 ) Vgl. EGMR, Delfi AS/Estland, § 133.

( 169 ) Vgl. EGMR, Delfi AS/Estland, §§ 151, 155, 158 und 159.

( 170 ) Vgl. EGMR, Delfi AS/Estland, §§ 113, 115, 117, 128 und 145.

( 171 ) In jenem Fall musste der Betreiber des Newsportals dieses auf „eindeutig rechtswidrige“ Informationen überwachen. Wie ich in den Nrn. 194 bis 218 der vorliegenden Schlussanträge deutlich machen werde, ist das auch vorliegend der Fall.

( 172 ) Vgl. u. a. Balkin, J.‑M., a. a. O., S. 2309, sowie EGMR, 4. Juni 2020, Jezior/Polen (CE:ECHR:2020:0604JUD003195511, § 60): „Wenn [einem Vermittler] die Haftung für Kommentare Dritter zugerechnet wird, kann dies eine abschreckende Wirkung auf die Freiheit der Meinungsäußerung im Internet haben“. Vgl. auch EGMR, 2. Februar 2016, Magyar Tartalomszolgáltatók Egyesülete und Index.hu Zrt/Ungarn (CE:ECHR:2016:0202JUD002294713, § 86), und EGMR, 7. Februar 2017, Pihl/Schweden (CE:ECHR:2017:0207DEC007474214, § 35). Hingegen ist dieses Risiko im Rahmen des Haftungsausschlusses gemäß Art. 14 der Richtlinie 2000/31 geringer, da die Vermittler nur Informationen entfernen müssen, deren Rechtswidrigkeit festgestellt wurde oder „offensichtlich“ ist.

( 173 ) Zumal die Anbieter von Sharing-Diensten einerseits nach Art. 17 Abs. 4 der Richtlinie 2019/790 die Beweislast dafür tragen, dass sie „alle Anstrengungen unternommen“ haben, um zu verhindern, dass rechtsverletzende Inhalte ins Internet hochgeladen werden, und andererseits angesichts der „großen Menge“ der auf diesen Diensten zugänglichen Inhalte ein erhebliches Haftungsrisiko tragen.

( 174 ) Vgl. u. a. Urteile vom 3. September 2014, Deckmyn und Vrijheidsfonds (C‑201/13, EU:C:2014:2132, Rn. 26), vom 7. August 2018, Renckhoff (C‑161/17, EU:C:2018:634, Rn. 43), und vom 29. Juli 2019, Spiegel Online (C‑516/17, EU:C:2019:625, Rn. 38, 42, 43 und 54). Vgl. auch sechster Erwägungsgrund der Richtlinie 2019/790.

( 175 ) Vgl. Art. 5 Abs. 3 Buchst. d der Richtlinie 2001/29 sowie Urteile vom 29. Juli 2019, Funke Medien NRW (C‑469/17, EU:C:2019:623, Rn. 71) und Spiegel Online (C‑516/17, EU:C:2019:625, Rn. 57).

( 176 ) Vgl. Art. 5 Abs. 3 Buchst. k der Richtlinie 2001/29 sowie Urteil vom 3. September 2014, Deckmyn und Vrijheidsfonds (C‑201/13, EU:C:2014:2132, Rn. 25).

( 177 ) Ich denke hier an „Memes“, Filmkritiken, Hijackings und alle andere Arten von unterhaltsamen oder lehrreichen Inhalten, die es auf diesen Diensten zuhauf gibt und die im Übrigen selbst – häufig „transformative“ – Werke sein können.

( 178 ) Beispielsweise ist im Hinblick auf die Ausnahme in Art. 5 Abs. 3 Buchst. d der Richtlinie 2001/29 zu prüfen, ob der Nutzer „eine direkte und enge Verknüpfung zwischen dem zitierten Werk und seinen eigenen Überlegungen [hergestellt] und damit eine geistige Auseinandersetzung mit dem Werk eines anderen [ermöglicht]“ hat (Urteil vom 29. Juli 2019, Spiegel Online,C‑516/17, EU:C:2019:625, Rn. 79). Was die Ausnahme in Buchst. k dieses Absatzes betrifft, stellt sich die Frage, ob der Inhalt zum einen „an ein bestehendes Werk [erinnert], gleichzeitig aber ihm gegenüber wahrnehmbare Unterschiede [aufweist]“, und zum anderen „einen Ausdruck von Humor oder eine Verspottung [darstellt]“ (Urteil vom 3. September 2014, Deckmyn und Vrijheidsfonds, C‑201/13, EU:C:2014:2132, Rn. 20).

( 179 ) Die Analyse wird zusätzlich dadurch erschwert, dass die geltenden Ausnahmen und Beschränkungen sowie ihr Umfang von einem nationalen Gesetz zum anderen variieren können. Zwar ist die Aufzählung in Art. 5 der Richtlinie 2001/29 abschließend; die einzelnen Mitgliedstaaten können jedoch entscheiden, welche Ausnahme oder Beschränkung sie in ihr innerstaatliches Recht umsetzen wollen. Außerdem haben diese Staaten im Einzelfall einen Ermessensspielraum bei der Umsetzung. Vgl. meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (Nr. 188).

( 180 ) Vgl. entsprechend meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (Nr. 189).

( 181 ) Vgl. in diesem Sinne Rn. 52 des ersten und Rn. 50 des zweiten Urteils. Vgl. auch meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (Nr. 243).

( 182 ) Siehe Nr. 58 der vorliegenden Schlussanträge.

( 183 ) Vgl. u. a. das Dokument der Kommission mit dem Titel „Targeted consultation addressed to the participants to the stakeholder dialogue on Article 17 of the Directive on Copyright in the Digital Single Market“, S. 15.

( 184 ) Vgl. u. a. Grisse, K., a. a. O., S. 887, Dusollier, S., a. a. O., S. 1018, und Lambrecht, M., a. a. O., S. 73. Vgl. auch Jacques, S., Garstka, K., Hviid, M., und Street, J., „The impact on cultural diversity of Automated Anti-Piracy Systems as copyright enforcement mechanisms: an empirical study of YouTube’s Content ID digital fingerprinting technology“, 2017.

( 185 ) Insoweit ist auch das verwandte Schutzrecht der Tonträgerhersteller mit besonderen Risiken verbunden. Ein solcher Hersteller kann z. B. die Tonaufnahme einer Darbietung eines Nocturne von Chopin (eines im Übrigen gemeinfreien Werks), an der er die Rechte hält, identifizieren, um sie zu blockieren. Da bestimmte Tools wie Content ID nicht nur Inhalte erkennen können, die Auszüge aus diesem Tonträger enthalten, sondern auch Inhalte, in denen dieselbe Melodie vorkommt (siehe Fn. 65 der vorliegenden Schlussanträge), werden diese Tools möglicherweise auch Videos von Nutzern, die ihre eigene Darbietung des fraglichen Nocturne filmen, automatisch blockieren.

( 186 ) Insbesondere Content ID hat aus diesem Grund offenbar schon unbedenkliche Inhalte mit urheberrechtlich geschützten Werken verwechselt. Vgl. wegen verschiedener Beispiele Garstka, K., „Guiding the Blind Bloodhounds: How to Mitigate the Risks art. 17 of Directive 2019/790 Poses to the Freedom of Expression“, Intellectual Property and Human Rights, Wolters Kluwer Law & Business, 4. Aufl., Torremans, P. (Hrsg.), 2020, S. 327 bis 352 (332 bis 334).

( 187 ) Vgl. entsprechend Urteile vom 22. Januar 2013, Sky Österreich (C‑283/11, EU:C:2013:28, Rn. 61), und vom 8. April 2014, Digital Rights Ireland u. a. (C‑293/12 und C‑594/12, EU:C:2014:238, Rn. 65).

( 188 ) Siehe Nrn. 84 und 115 der vorliegenden Schlussanträge.

( 189 ) Vgl. in diesem Sinne EGMR, Ahmet Yildirim/Türkei, § 64, EGMR, 8. Oktober 2013, Cumhuriyet Vakfi/Türkei (CE:ECHR:2013:1008JUD002825507, § 61), EGMR, 1. Dezember 2015, Cengiz u. a./Türkei (CE:ECHR:2015:1201JUD004822610, § 62), und EGMR, Kablis/Russland, § 97. Vgl. entsprechend auch Urteile vom 8. April 2014, Digital Rights Ireland u. a. (C‑293/12 und C‑594/12, EU:C:2014:238, Rn. 54, 55 und 65), vom 21. Dezember 2016, Tele2 Sverige und Watson u. a. (C‑203/15 und C‑698/15, EU:C:2016:970, Rn. 117), und vom 2. März 2021, Prokuratuur (Voraussetzungen für den Zugang zu Daten über elektronische Kommunikationen) (C‑746/18, EU:C:2021:152, Rn. 48).

( 190 ) Siehe Nr. 84 der vorliegenden Schlussanträge.

( 191 ) Vgl. Urteil vom 8. April 2014, Digital Rights Ireland u. a. (C‑293/12 und C‑594/12, EU:C:2014:238, Rn. 60 bis 67), und Schlussanträge des Generalanwalts Cruz Villalón in den verbundenen Rechtssachen Digital Rights Ireland u. a. (C‑293/12 und C‑594/12, EU:C:2013:845, Nrn. 117 und 120).

( 192 ) Siehe Nrn. 210 bis 213 der vorliegenden Schlussanträge.

( 193 ) Der EGMR hat wiederholt entschieden, dass die „großen Gefahren“, die der Meinungsfreiheit infolge der durch Sperrmaßnahmen bewirkten „präventiven Einschränkungen“ drohten, eine „äußerst gewissenhafte Überprüfung“ verlangten. Vgl. u. a. EGMR, Ahmet Yildirim/Türkei, § 47.

( 194 ) Darunter sind die Filter- und Sperrmaßnahmen zu verstehen, die diese Anbieter nach den angefochtenen Bestimmungen zu ergreifen haben. Vgl. erster Absatz des 66. Erwägungsgrundes der Richtlinie 2019/790.

( 195 ) Dazu gehören auch die Nutzung von Werken und sonstigen Schutzgegenständen, die Gegenstand von Lizenzvereinbarungen mit den Nutzern sind (vgl. erster Absatz des 66. Erwägungsgrundes der Richtlinie 2019/790), sowie die Nutzung gemeinfreier Werke.

( 196 ) Die fraglichen Ausnahmen und Beschränkungen sind im Übrigen, wie in den Fn. 175 und 176 der vorliegenden Schlussanträge erwähnt, in Art. 5 Abs. 3 Buchst. d und k der Richtlinie 2001/29 vorgesehen.

( 197 ) Sie können dies namentlich vor den nationalen Gerichten tun, vgl. Art. 17 Abs. 9 Unterabs. 2 der Richtlinie 2019/790 („… die Nutzer [haben] Zugang zu einem Gericht oder einem anderen einschlägigen Organ der Rechtspflege …, um die Inanspruchnahme einer Ausnahme oder Beschränkung für das Urheberrecht und verwandte Schutzrechte geltend machen zu können“).

( 198 ) Vgl. Urteile vom 29. Juli 2019, Funke Medien NRW (C‑469/17, EU:C:2019:623, Rn. 70) und Spiegel Online (C‑516/17, EU:C:2019:625, Rn. 54).

( 199 ) Obwohl Art. 17 Abs. 7 insoweit missverständlich ist, ergibt sich diese Auslegung eindeutig aus dem 70. Erwägungsgrund der Richtlinie 2019/790 („Maßnahmen, die Diensteanbieter für das Teilen von Online‑Inhalten … ergreifen, sollten die Anwendung der Ausnahmen und Beschränkungen des Urheberrechts … nicht beeinträchtigen …“) sowie aus Art. 17 Abs. 9, insbesondere aus dessen Unterabs. 4 („sie [können] Werke und sonstige Schutzgegenstände im Rahmen der im Unionsrecht festgelegten Ausnahmen und Beschränkungen … nutzen“) (Hervorhebung nur hier).

( 200 ) Vgl. Fn. 179 der vorliegenden Schlussanträge.

( 201 ) Zumindest was die Nutzung von Schutzgegenständen auf Sharing-Diensten betrifft.

( 202 ) Insofern schränkt Art. 17 Abs. 7 der Richtlinie 2019/790 die unternehmerische Freiheit der Anbieter von Sharing-Diensten ein, um die Meinungsfreiheit der Nutzer zu gewährleisten. Es bleibt diesen Anbietern aber unbenommen, unter Ausnahmen oder Beschränkungen fallende Inhalte aus anderen als urheberrechtlichen Gründen zu entfernen, etwa wenn sie beleidigend sind oder gegen ihre Politik in Bezug auf Nacktdarstellungen verstoßen. Diese Bestimmung verpflichtet daher die Diensteanbieter an sich nicht zur Verbreitung („must carry“) solcher Inhalte.

( 203 ) Vgl. im gleichen Sinne Leistner, M., a. a. O, S. 165 und 166. Jede gegenteilige Bestimmung in den Nutzungsbedingungen oder in solchen Vertragsvereinbarungen wäre daher nach meiner Meinung mit Art. 17 Abs. 7 der Richtlinie 2019/790 unvereinbar.

( 204 ) Vgl. Art. 17 Abs. 9 Unterabs. 4 der Richtlinie 2019/790. Die Information der Nutzer über ihr Recht, Schutzgegenstände im Rahmen der Ausnahmen und Beschränkungen zu nutzen, sowie über die Grenzen dieses Rechts ist von entscheidender Bedeutung, um die Ausübung ihrer Meinungs- und schöpferischen Freiheit zu fördern und zugleich das Risiko zufälliger Urheberrechtsverletzungen zu verringern.

( 205 ) Vgl. Folgenabschätzung, Teil 1/3, S. 140 und 141 sowie Fn. 422.

( 206 ) Vgl. erster Absatz des 70. Erwägungsgrundes der Richtlinie 2019/790.

( 207 ) „Shall not result“ in der englischen Sprachfassung der Richtlinie 2019/790.

( 208 ) Die französische Regierung führt außerdem freiwillige Maßnahmen an, die von den Rechteinhabern möglicherweise ergriffen werden (siehe Fn. 252 der vorliegenden Schlussanträge).

( 209 ) Für die Erstere belegt, wie in Nr. 166 dieser Schlussanträge erwähnt, der Umstand, dass die Rechte der Nutzer von Sharing-Diensten nur ex post, auf eine Beschwerde dieser Nutzer, berücksichtigt werden, die unverhältnismäßige Einschränkung der des Rechts auf freie Meinungsäußerung. Dagegen wahrt diese Auslegung für die Letzteren ein „angemessenes Gleichgewicht“ zwischen den involvierten Rechten und Interessen, da sie sicherstelle, dass die Rechteinhaber die Nutzung ihrer Werke und sonstigen Schutzgegenstände grundsätzlich kontrollieren könnten, während sie den Nutzern nur „vorübergehende Unannehmlichkeiten“ verursache.

( 210 ) Noch deutlicher kommt dies in der englischen Fassung der Richtlinie 2019/790 zum Ausdruck („… shall not result in the prevention of the availability …“) (Hervorhebung nur hier). Außerdem konkretisiert dieser Abs. 7 meines Erachtens das Recht auf freie Meinungsäußerung, so dass sein Wortlaut weit auszulegen ist. Vgl. entsprechend Urteil vom 14. Februar 2019, Buivids (C‑345/17, EU:C:2019:122, Rn. 51 und die dort angeführte Rechtsprechung).

( 211 )

( 212 ) Vgl. zum einen „Report on the proposal for a directive of the European Parliament and of the Council on copyright in the Digital Single Market“, 29. Juni 2019, Parlament, Rechtsausschuss, Dokument A8-0245/2018 (abrufbar unter https://www.europarl.europa.eu/doceo/document/A-8-2018-0245_EN.html?redirect), amendement 77: „… To prevent misuses or limitations in the exercise of exceptions and limitations to copyright, Member States shall ensure that the service providers referred to in paragraph 1 put in place effective and expeditious complaints and redress mechanisms …“ Vgl. zum anderen Rat, Dokument 12254/16 + ADD1 + ADD2 + ADD3 + ADD4, 25. Mai 2018 (abrufbar unter https://www.consilium.europa.eu/media/35373/st09134-en18.pdf): „Member States shall ensure that the measures referred to in paragraph 4 are implemented by the online content sharing service provider without prejudice to the possibility for their users to benefit from exceptions or limitations to copyright. For that purpose, the service provider shall put in place a complaint and redress mechanism …“ (Hervorhebung nur hier).

( 213 ) Vgl. entsprechend Schlussanträge des Generalanwalts Wathelet in der Rechtssache Karen Millen Fashions (C‑345/13, EU:C:2014:206, Nr. 82) sowie meine Schlussanträge in den verbundenen Rechtssachen Acacia und D’Amato (C‑397/16 und C‑435/16, EU:C:2017:730, Nrn. 53 und 63 bis 65).

( 214 ) In diesem Zusammenhang weise ich darauf hin, dass nach ständiger Rechtsprechung des Gerichtshofs „eine Vorschrift des abgeleiteten Unionsrechts nach einem allgemeinen Auslegungsgrundsatz so weit wie möglich in einer ihre Gültigkeit nicht in Frage stellenden Weise und im Einklang mit dem gesamten Primärrecht und insbesondere mit den Bestimmungen der Charta auszulegen ist“ (vgl. u. a. Urteil vom 2. Februar 2021, Consob,C‑481/19, EU:C:2021:84, Rn. 50 und die dort angeführte Rechtsprechung).

( 215 ) Die Richtlinie 2000/31 sieht keine Verpflichtung für die Vermittler vor, ein Verfahren zur „Gegendarstellung“ einzuführen, in dessen Rahmen sich die Nutzer darüber beschweren könnten, dass ihre Informationen zu oft entfernt würden.

( 216 ) Im Übrigen wird in der englischen Fassung von Art. 17 Abs. 4 Buchst. c und Art. 17 Abs. 9 Unterabs. 1 der Richtlinie 2019/790 ein und dasselbe Adjektiv verwendet („acted expeditiously, upon receiving a … notice …“ und „… an effective and expeditious complaint and redress mechanism …“) (Hervorhebung nur hier).

( 217 ) Urteil vom 27. März 2014 (C‑314/12, EU:C:2014:192, Rn. 57).

( 218 ) Vgl. zum einen Urteile vom 27. März 2014, UPC Telekabel Wien (C‑314/12, EU:C:2014:192, Rn. 56), und vom 15. September 2016, Mc Fadden (C‑484/14, EU:C:2016:689, Rn. 93). Vgl. zum anderen EGMR, 23. Juni 2020, Vladimir Kharitonov/Russland (CE:ECHR:2020:0623JUD001079514, § 46): „… When exceptional circumstances justify the blocking of illegal content, a State agency making the blocking order must ensure that the measure strictly targets the illegal content and has no arbitrary or excessive effects …. Any indiscriminate blocking measure which interferes with lawful content or websites as a collateral effect of a measure aimed at illegal content or websites amounts to arbitrary interference with [freedom of expression]. …“. Vgl. auch Empfehlung CM/Rec(2018)2 zur Rolle und Verantwortlichkeit von Internet-Vermittlern, Anhang, Nr. 2.3.2.

( 219 ) Urteil vom 12. Juli 2011 (C‑324/09, EU:C:2011:474, Rn. 131).

( 220 ) Urteil vom 27. März 2014 (C‑314/12, EU:C:2014:192, Rn. 63).

( 221 ) Vgl. u. a. EGMR, Ahmet Yildirim/Türkei, § 66, EGMR, 23. Juni 2020, Vladimir Kharitonov (CE:ECHR:2020:0623JUD001079514, § 45), und EGMR, Kablis/Russland, § 94.

( 222 ) Vgl. in diesem Sinne Urteil Scarlet Extended (Rn. 52: „[Die] Anordnung [einer Filterung könnte] die Informationsfreiheit beeinträchtigen, weil die Gefahr bestünde, dass das System nicht hinreichend zwischen einem unzulässigen und einem zulässigen Inhalt unterscheiden kann, so dass sein Einsatz zur Sperrung von Kommunikationen mit zulässigem Inhalt führen könnte. Denn es ist unbestritten, dass die Antwort auf die Frage der Zulässigkeit einer Übertragung auch von der Anwendung gesetzlicher Ausnahmen vom Urheberrecht abhängt, die von Mitgliedstaat zu Mitgliedstaat variieren. Ferner können bestimmte Werke in bestimmten Mitgliedstaaten gemeinfrei sein, oder sie können von den fraglichen Urhebern kostenlos ins Internet gestellt worden sein“) (Hervorhebung nur hier). Vgl. zur selben Argumentation Urteil SABAM (Rn. 50).

( 223 ) Diese Tendenz der Nutzer, auf eine Geltendmachung ihrer Rechte zu verzichten, wurde in Europa und den Vereinigten Staaten dokumentiert. Vgl. namentlich Urban, J.-M., Karaganis, J., und Schofield, B., „Notice and Takedown in Everyday Practice“, UC Berkeley Public Law Research Paper No 2755628, 2017, und Fiala, L., Husovec, M., „Using Experimental Evidence to Design Optimal Notice and Takedown Process“, TILEC Discussion Paper No 2018-028, 2018, S. 3.

( 224 ) Vgl. im gleichen Sinne Spindler, G., a. a. O., S. 355. Damit bestünde auch die Gefahr, dass der Öffentlichkeit das Recht auf Zugang zu solchen zulässigen Inhalten genommen würde, die zu Unrecht gesperrt wurden.

( 225 ) Z. B. wird ein „Reaktionsvideo“ (reaction video) zu einem Videospiel- oder Filmtrailer um den Zeitpunkt der Veröffentlichung des Trailers herum nachgefragt. Ebenso wird ein satirisches Video, das sich auf einen aktuellen politischen Skandal bezieht, in der Regel direkt nach dem Skandal angeschaut. Vgl. dazu Garstka, K., a. a. O., S. 339.

( 226 ) Im Übrigen hat der EGMR wiederholt entschieden, dass „[e]ine Information … ein verderbliches Gut [ist], und bei einer – selbst für einen kurzen Zeitraum – verzögerten Veröffentlichung … die große Gefahr [besteht], dass sie völlig wertlos und uninteressant wird“ (vgl. u. a. EGMR, 26. November 1991, Observer und Guardian/Vereinigtes Königreich, CE:ECHR:1991:1126JUD001358588, § 60, EGMR, Ahmet Yildirim/Türkei, § 47, und EGMR, Kablis/Russland, § 91). Die spanische und die französische Regierung entgegnen, wegen der Geschwindigkeit des Informationsaustauschs im Internet sei es im Gegenteil gerechtfertigt, alle Inhalte, die von Rechteinhabern benannte Werke und sonstige Schutzgegenstände reproduzierten, präventiv zu sperren, damit keine unzulässigen Inhalte hochgeladen würden und den Rechteinhabern daraus keine „irreparablen“ Schäden entstünden. Auf dieses Argument werde ich in den Nrn. 215 und 216 der vorliegenden Schlussanträge zurückkommen.

( 227 ) Vgl. u. a. Urteile vom 29. Juli 2019, Funke Medien NRW (C‑469/17, EU:C:2019:623, Rn. 51 und 57) und Spiegel Online (C‑516/17, EU:C:2019:625, Rn. 36, 55 und 72).

( 228 ) Vgl. meine Schlussanträge in den verbundenen Rechtssachen YouTube und Cyando (Nr. 243).

( 229 ) Ich bin mir durchaus dessen bewusst, dass es im dritten Absatz des 66. Erwägungsgrundes der Richtlinie 2019/790 heißt, die Anbieter von Sharing-Diensten könnten, falls ein Schutzgegenstand unrechtmäßig auf ihren Diensten hochgeladen worden sei, von ihrer Verantwortung nur entbunden werden, wenn sie den Nachweis erbrächten, dass sie „alle Anstrengungen unternommen haben“, um dies zu verhindern. Ich halte das für eine unglückliche Formulierung, die an dem, was ich soeben erläutert habe, nichts ändern kann.

( 230 ) Siehe Fn. 249 der vorliegenden Schlussanträge.

( 231 ) Vgl. dagegen EGMR, Ahmet Yildirim/Türkei, § 66.

( 232 ) In dem Abschnitt zum „Wesensgehalt“ der freien Meinungsäußerung (Nrn. 98 ff. der vorliegenden Schlussanträge) habe ich dargelegt, dass das Verbot „allgemeiner Überwachungspflichten“ von grundlegender Bedeutung für die Kommunikationsfreiheit im Internet ist.

( 233 ) Siehe Nr. 112 der vorliegenden Schlussanträge.

( 234 ) Urteil Glawischnig-Piesczek (Rn. 35).

( 235 ) Urteil Glawischnig-Piesczek (Rn. 46).

( 236 ) Vgl. 59. Erwägungsgrund der Richtlinie 2001/29, wo es heißt, dass „[o]ftmals“ … [die] Vermittler selbst am besten in der Lage [sind], [den über ihre Dienste begangenen] Verstößen ein Ende zu setzen“.

( 237 ) Siehe Nrn. 142, 143 und 146 der vorliegenden Schlussanträge.

( 238 ) Vgl. meine Schlussanträge in den verb. Rechtssachen YouTube und Cyando (Nrn. 187 und 188).

( 239 ) Vgl. in diesem Sinne Empfehlung 2018/334 (25. Erwägungsgrund: „Das Ergreifen solcher proaktiven Maßnahmen kann insbesondere dann angebracht sein, wenn bereits festgestellt wurde, dass der betreffende Inhalt illegal ist, oder wenn es sich um eine Art von Inhalt handelt, bei der eine Betrachtung des Gesamtkontextes nicht unbedingt erforderlich ist.“) sowie Empfehlung CM/Rec(2018)2 zur Rolle und Verantwortlichkeit von Internet-Vermittlern (Anhang, Nr. 1.3.2: „Um von einem Vermittler zu verlangen, dass er den Zugang zu Inhalten beschränkt, sollten die nationalen Behörden eine gerichtliche Anordnung erwirken … Das gilt nicht, wenn es um Inhalte geht, die unabhängig von ihrem Kontext rechtswidrig sind, wie etwa Inhalte, die sich auf den sexuellen Missbrauch von Kindern beziehen, oder bei denen nach Maßgabe von Art. 10 der Konvention ein schnelles Handeln geboten ist.“) (Hervorhebung nur hier).

( 240 ) Der EGMR betonte, es handle sich um „offensichtlich unrechtmäßige“ Kommentare, „die auf den ersten Blick in einem Aufruf zu Hass oder Gewalt … bestanden“, so dass „die Feststellung ihrer unrechtmäßigen Natur keine sprachliche oder rechtliche Analyse [erforderte]“ (vgl. insbesondere §§ 110, 114, 115, 117, 140 und 155 dieses Urteils).

( 241 ) Vgl. EGMR, 7. Februar 2017, Pihl/Schweden (CE:ECHR:2017:0207DEC007474214, § 25), EGMR, 19. März 2019, Hoiness/Norwegen (CE:ECHR:2019:0319JUD004362414, § 68), EGMR, 2. Februar 2016, Magyar Tartalomszolgáltatók Egyesülete und Index.hu Zrt./Ungarn (CE:ECHR:2016:0202JUD002294713, §§ 63 und 64), sowie EGMR, 4. Juni 2020, Jezior/Polen (CE:ECHR:2020:0604JUD003195511, §§ 54 und 58).

( 242 ) Vgl. Nr. 221 jener Schlussanträge.

( 243 ) Vgl. im gleichen Sinne Quintais, J., Frosio, G., van Gompel, S., u. a., „Safeguarding User Freedoms in Implementing Article 17 of the Copyright in the Digital Single Market Directive: Recommendations From European Academics“, JIPITEC, 2019, Bd. 10, Nr. 3, Lambrecht, M., a. a. O., S. 88 bis 90, Cabay, J., a. a. O., S. 237 bis 273, und Dusollier, S., a. a. O., S. 1020. Diese Auslegung ergibt sich übrigens bei unbefangener Lektüre von Art. 17 Abs. 4 Buchst. b und c der Richtlinie 2019/790, wonach die Anbieter von Sharing-Diensten sicherstellen müssen, dass „Werke“ und sonstige „Gegenstände“ nicht verfügbar sind, nicht aber gegen jede beliebige Rechtsverletzung vorgehen müssen, die irgendwie mit den fraglichen Gegenständen zu tun hat (vgl. im gleichen Sinne Lambrecht, M., a. a. O., S. 89).

( 244 ) Ich beziehe mich mit anderen Worten auf das, was zuweilen als „sklavische“ oder „quasi-sklavische“ Kopien bezeichnet wird. So bestehen manche auf Sharing-Diensten verfügbare Inhalte aus sklavischen oder quasi-sklavischen Kopien von Werken oder sonstigen Schutzgegenständen wie Kinofilmen oder Tonträgern.

( 245 ) Urteil Glawischnig-Piesczek (Rn. 46). Nach meiner Meinung wollte der Gerichtshof in diesem Urteil die Notwendigkeit bestimmter Kontrollen durch Menschen nicht ausschließen. Darauf werde ich in Nr. 211 der vorliegenden Schlussanträge zurückkommen.

( 246 ) Meiner Ansicht nach sollten die von den Rechteinhabern bereitgestellten „einschlägigen und notwendigen“ Informationen den Nachweis beinhaltenen, dass ihnen die Rechte an den Werken oder sonstigen Schutzgegenständen zustehen, deren Sperrung sie verlangen, damit das „Over-Claim“-Risiko begrenzt wird (siehe Nr. 148 der vorliegenden Schlussanträge).

( 247 ) Diese Auslegung können die Klägerin und die französische Regierung nicht mit dem Argument in Zweifel ziehen, der Begriff „offenkundig“ komme in der Richtlinie 2019/790 nicht vor. Hierbei handelt es sich nämlich nicht um einen materiell-rechtlichen Begriff, sondern nur um die Intensität der Kontrolle, die die Anbieter von Sharing-Diensten durchführen müssten. Diese Kontrolldichte ergibt sich aus Art. 17 Abs. 8 dieser Richtlinie und dem Gebot, die angefochtenen Bestimmungen im Einklang mit Art. 17 Abs. 7 umzusetzen. Außerdem ist der Unterschied zwischen Informationen, deren Rechtswidrigkeit auf Anhieb erkennbar ist, und solchen, bei denen es einer weiteren Prüfung bedarf, nichts Neues. In diesem Kontext sei nur daran erinnert, dass im Rahmen von Art. 14 der Richtlinie 2000/31 ein Vermittler Informationen entfernen muss, wenn er „tatsächliche Kenntnis“ von deren Rechtswidrigkeit hat oder wenn deren Rechtswidrigkeit aufgrund der ihm vorliegenden Angaben „offensichtlich“ ist. Das ist nämlich der gleiche Ansatz. Ich verweise auch auf die Argumentation des EGMR im Urteil Delfi AS/Estland. Schließlich ist die Idee der offenkundigen Rechtsverletzung, verstanden als „sklavische“ oder „quasi-sklavische“ Kopie, bereits bekannt.

( 248 ) Siehe Nr. 52 der vorliegenden Schlussanträge. Vgl. im gleichen Sinne Geiger, C., Jütte, B.‑J., „Platform liability under Article 17 of the Copyright in the Digital Single Market Directive, Automated Filtering and Fundamental Rights: An Impossible Match“, SSRN Papers (abrufbar unter https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3776267), S. 44.

( 249 ) Im Allgemeinen ist es Sache der Verwaltung und der Justiz dieser Staaten, die Anwendung der angefochtenen Bestimmungen durch die Anbieter von Sharing-Diensten zu überwachen und sicherzustellen, dass die Nutzer gemäß Art. 17 Abs. 7 der Richtlinie 2019/790 tatsächlich ihr Recht auf zulässige Nutzungen in Anspruch nehmen können. Insoweit hat die Republik Polen geltend gemacht, diese Richtlinie enthalte keine Vorschrift über die Haftung der Anbieter von Sharing-Diensten gegenüber den Nutzern bei einem Verstoß gegen Art. 17 Abs. 7. Meines Erachtens bestimmt sich diese Haftung nach dem nationalen Recht der Mitgliedstaaten unter Beachtung des Grundsatzes der Verfahrensautonomie. Darin sollten weitere wirksame, abschreckende und verhältnismäßige Sanktionen vorgesehen werden. Da die Achtung der Nutzerrechte außerdem zu den umfänglichen „Anstrengungen“ gehört, die die Anbieter von Sharing-Diensten zu „unternehmen“ haben, müsste ein solcher Anbieter, wenn er diese Rechte missachtete, folglich die in Art. 17 Abs. 4 vorgesehene Haftungsfreistellung verlieren.

( 250 ) In der Tat können Tools zur Erkennung mittels „Fingerabdrücken“ vor allem bei Audio- und Videoinhalten Unterscheidungen je nach der in einem hochgeladenen Inhalt wiederverwendeten Menge der geschützten Inhalte treffen. Zwar genügt es, wie die französische Regierung geltend macht, für die Anwendbarkeit der Zitatschranke nicht, dass etwa ein musikalischer Auszug eine bestimmte Länge nicht überschreitet, da dies von der Absicht des Benutzers abhängt (siehe Fn. 178 der vorliegenden Schlussanträge). Es geht aber nur darum, bei den Einstellungen des Filter-Tools einen Spielraum vorzusehen, innerhalb dessen die Anwendung dieser Schranke nicht als sicher erscheint, sondern lediglich vernünftigerweise in Betracht kommt.

( 251 ) Dabei ist der Ansatz, den die Kommission in ihrem Dokument „Targeted consultation addressed to the participants to the stakeholder dialogue on Article 17 of the Directive on Copyright in the Digital Single Market“ erläutert, in meinen Augen die richtige Vorgehensweise (vgl. S. 15 und 16 dieses Dokuments). Vgl. wegen ähnlicher Vorschläge Quintais, J., Frosio, G., van Gompel, S., u. a., a. a. O.; Lambrecht, M., a. a. O., S. 79 bis 94, und Leitsner, M., a. a. O., S. 193 bis 208. Regelungen zur Missbrauchsbekämpfung könnten auch von den Mitgliedstaaten erlassen werden. Im vorliegenden Fall braucht auf diese verschiedenen Vorschläge nicht näher eingegangen zu werden.

( 252 ) Die französische Regierung macht geltend, der Einsatz von Erkennungs-Tools beruhe auf von den Rechteinhabern parametrisierten Betriebsregeln, wobei die Rechteinhaber z. B. bei Kinofilmen das Hochladen mehrminütiger Auszüge aus ihren Filmen im Allgemeinen gegen einen Teil der Einnahmen aus der „Monetarisierung“ des betreffenden Videos duldeten (siehe Nr. 58 dieser Schlussanträge). Zwar ist der Gedanke, dass die Beachtung der Ausnahmen und Beschränkungen durch freiwillige Maßnahmen der Rechteinhaber sichergestellt werden könnte, dem Unionsrecht nicht fremd (vgl. Art. 6 Abs. 4 der Richtlinie 2001/29 bezüglich technischer Schutzmaßnahmen). Meines Erachtens sollte jedoch in einem Kontext der Filterung, wie er sich aufgrund der angefochtenen Bestimmungen ergibt, der Schutz der Nutzerrechte angesichts der von mir beschriebenen Risiken nicht allein auf dem Willen der Rechteinhaber beruhen.

( 253 ) Meiner Ansicht nach werden diese Leitlinien durch die Festlegung solcher „bewährten Verfahren“ dazu beitragen, die „hohen branchenüblichen Standards für die berufliche Sorgfalt“ zu erarbeiten, denen die Anbieter gemäß den angefochtenen Bestimmungen genügen müssen. Gegebenenfalls werden diese Leitlinien zu aktualisieren sein, um mit dem „sich entwickelnden Stand der Technik“ Schritt zu halten.

( 254 ) Vgl. im gleichen Sinne Grisse, K., a. a. O., S. 898.

( 255 ) Ich denke z. B an den Fall, dass ein Film auf einem Sharing-Dienst unerlaubt hochgeladen wird, der gerade erst oder noch gar nicht in den Kinos angelaufen ist.

( 256 ) Vgl. im gleichen Sinne Lambrecht, M., a. a. O., S. 89 und 90.

( 257 ) Vgl. u. a. Urteil vom 27. März 2014, UPC Telekabel Wien (C‑314/12, EU:C:2014:192, Rn. 61 und die dort angeführte Rechtsprechung).

( 258 ) Vor allem soll keine Mindestschwelle vorgesehen werden, unterhalb deren die Rechteinhaber jede Möglichkeit zur Durchsetzung ihrer Rechte verlieren würden. Der Gerichtshof hat eine solche Schwelle stets abgelehnt. Vgl. dazu Schlussanträge des Generalanwalts Szpunar in der Rechtssache Pelham u. a. (C‑476/17, EU:C:2018:1002, Nrn. 28 bis 33).

( 259 ) Dies gilt ferner unbeschadet der Möglichkeit der Rechteinhaber, eine gerichtliche Verfügung zu erwirken (vgl. erster Absatz des 66. Erwägungsgrundes der Richtlinie 2019/790) oder sogar den verantwortlichen Nutzer zu verklagen.

( 260 ) Vgl. im gleichen Sinne Cabay, J., a. a. O., S. 221, und Lambrecht, M., a. a. O., S. 90. Dabei könnte eine praktische Lösung darin bestehen, die Rechteinhaber jedes Mal zu informieren, sobald Inhalte, die ihre Schutzgegenstände reproduzieren, hochgeladen werden, damit sie erforderlichenfalls umgehend einen begründeten Antrag auf Sperrung vorbereiten können (vgl. Art. 17 Abs. 9 Unterabs. 2 der Richtlinie 2019/790). Jedenfalls bräuchten die Rechteinhaber die Sharing-Dienste nicht selbst zu überwachen, um die fraglichen Inhalte zu entdecken und zu lokalisieren, denn diese würden von dem Erkennungs-Tool automatisch für sie erfasst.

( 261 ) Im Übrigen hat der EGMR bei Inhalten, deren Rechtswidrigkeit nicht als offenkundig angesehen werden kann, in dem Verfahren der „Meldung und Entfernung“ ein geeignetes Mittel zur Wahrung eines „angemessenen Gleichgewichts“ zwischen den involvierten Rechten und Interessen gesehen, da die Diensteanbieter gerade durch diese Meldungen über die Begleitumstände unterrichtet würden, die für die Feststellung der Rechtswidrigkeit des Inhalts erforderlich seien. Vgl. u. a. EGMR, Magyar Tartalomszolgáltatók Egyesülete und Index.hu Zrt./Ungarn (CE:ECHR:2016:0202JUD002294713, § 91).

( 262 ) Vgl. entsprechend meine Schlussanträge in den verb. Rechtssachen YouTube und Cyando (Nr. 190). Daher werden sich die Anbieter von Sharing-Diensten nicht darauf beschränken können, allen Blockierungsanträgen ohne weitere Überprüfung stattzugeben, die ihnen von Rechteinhabern übermittelt werden.

( 263 )

( 264 ) Wobei die Anbieter von Sharing-Diensten, wie in Nr. 178 der vorliegenden Schlussanträge erwähnt, die entsprechenden Beschwerden ebenso zügig – und sorgfältig – werden prüfen müssen wie die entsprechenden Hinweise.

( 265 ) Ich möchte noch einen letzten Punkt ansprechen. Die Beklagten und die Streithelfer haben hervorgehoben, die vorrangige Möglichkeit für einen Anbieter von Sharing-Diensten, jede Haftung für auf seinem Dienst hochgeladene Werke und sonstige Schutzgegenstände zu vermeiden, bestehe gemäß Art. 17 Abs. 1 der Richtlinie 2019/790 darin, die Erlaubnis der Rechteinhaber einzuholen. In diesem Kontext wird die in Art. 17 Abs. 4 vorgesehene Regelung der Haftungsbefreiung – mit den sich daraus ergebenden Filterungspflichten – jedenfalls nur für Werke und Schutzgegenstände gelten, für die eine solche Erlaubnis nicht erteilt wurde. Obwohl es sich meines Erachtens hierbei streng genommen nicht um eine „Schutzvorkehrung“ gegen solche Filterungen handelt, ist dieser Punkt doch für die freie Meinungsäußerung der Nutzer dieser Dienste von Bedeutung, zumal diese Genehmigungen nach Art. 17 Abs. 2 der Richtlinie 2019/790 unter bestimmten Bedingungen auch für Handlungen der „öffentlichen Wiedergabe“ dieser Nutzer gelten. Ich teile daher die Ansicht der Kommission, dass die Mitgliedstaaten in ihrem nationalen Recht die Einholung solcher Genehmigungen erleichtern sollten. Je einfacher die Sharing-Anbieter diese erlangen können, desto eher erhalten die Rechteinhaber eine angemessene Vergütung für die Nutzung ihrer Schutzgegenstände und desto weniger werden die Nutzer eine Filterung und Sperrung ihrer Inhalte hinzunehmen haben.

( 266 ) Urteil vom 22. Juni 2021 (C‑682/18 und C‑683/18, EU:C:2021:503).

( 267 ) Vgl. Urteil vom 22. Juni 2021, YouTube und Cyando (C‑682/18 und C‑683/18, EU:C:2021:503, Rn. 59).

( 268 ) Vgl. Mitteilung der Kommission „Guidance on Article 17 of Directive 2019/790 on Copyright in the Digital Single Market“, insbesondere S. 18 bis 24.

( 269 ) Die Kommission nennt Gegenstände, die in einem bestimmten Zeitraum einen besonderen wirtschaftlichen Wert haben. Allerdings scheint der Mechanismus der „Kennzeichnung“ nicht auf diese Gegenstände beschränkt zu sein. Die Leitlinien definieren auch nicht den Begriff des „erheblichen wirtschaftlichen Schadens“. Ich erinnere daran, dass nach Ansicht der französischen Republik im Fall des Hochladens eines rechtsverletzenden Inhalts der den Rechteinhabern zugefügte Schaden stets „irreparabel“ ist.