EUROPESE COMMISSIE
Brussel, 28.9.2017
COM(2017) 555 final
MEDEDELING VAN DE COMMISSIE AAN HET EUROPEES PARLEMENT, DE RAAD, HET EUROPEES ECONOMISCH EN SOCIAAL COMITÉ EN HET COMITÉ VAN DE REGIO'S
De bestrijding van illegale online-inhoud
Naar een grotere verantwoordelijkheid voor onlineplatforms
1.Inleiding
Onlineplatforms zijn een belangrijke drijvende kracht achter de innovatie en groei in de digitale economie. Zij hebben gezorgd voor nooit eerder geziene toegang tot informatie, uitwisselingen en nieuwe marktkansen, met name voor kleine en middelgrote ondernemingen. Onlineplatforms zijn voor de meeste mensen vandaag ook de voornaamste toegangspoort tot informatie en andere inhoud, of het nu in de vorm van een zoekmachine, een sociaal netwerk, een microblogsite of een videodeelplatform is. De bedrijfsmodellen van de platforms hebben zich de voorbije tijd zo ontwikkeld dat gebruikers en inhoud steeds meer aan elkaar worden gekoppeld, met name ten behoeve van gerichte reclame. Deze platforms verbinden miljarden gebruikers met enorme hoeveelheden inhoud en informatie en leveren innovatieve diensten aan burgers en bedrijven.
De grote hoeveelheid illegale inhoud die kan worden geüpload en dus online toegankelijk is, geeft evenwel aanleiding tot grote bezorgdheid en hier moet een krachtig en doeltreffend antwoord op worden geformuleerd. Wat offline illegaal is, is dat ook online. Het aanzetten tot terrorisme, xenofobe en racistische uitspraken die publiekelijk aanzetten tot haat en geweld, en materiaal dat seksueel misbruik van kinderen bevat, zijn illegaal in de EU. De toenemende beschikbaarheid van terroristisch materiaal op het internet en de verspreiding van dergelijke inhoud vormen een ernstige bedreiging voor de beveiliging en de veiligheid, maar ook voor de waardigheid van de slachtoffers. De Europese Unie heeft hier met een aantal maatregelen een antwoord op geboden. De digitale samenleving van vandaag moet zich echter dringend toeleggen op de opsporing en verwijdering van illegale online-inhoud.
Op de Europese Raad van 22-23 juni 2017 werd uiting gegeven aan de bezorgdheid over de reeks terroristische aanslagen in de EU en de verspreiding van terroristische propaganda op het internet en werd verklaard dat de Europese Raad verwacht "dat de sector [...] technologie en instrumenten ontwikkelt waarmee inhoud die aanzet tot terroristische daden, beter automatisch kan worden opgespoord om vervolgens te worden verwijderd. Dit moet zo nodig worden aangevuld met ter zake doende wetgevingsmaatregelen op EU-niveau.” Deze oproepen werden ook herhaald in de verklaringen van de leiders van de G7 en G20 naar aanleiding van hun recente bijeenkomsten. Ook het Europees Parlement heeft er in zijn resolutie over onlineplatforms van juni 2017 bij deze platforms op aangedrongen “krachtigere maatregelen te nemen om illegale en schadelijke inhoud online aan te pakken” en heeft de Commissie verzocht voorstellen in te dienen om deze problemen aan te pakken.
Deze onlineplatforms, die toegang tot inhoud verstrekken aan het gros van de internetgebruikers, dragen een belangrijke maatschappelijke verantwoordelijkheid om de gebruikers en de samenleving in haar geheel te beschermen en te voorkomen dat misdadigers en andere personen die betrokken zijn bij illegale onlineactiviteiten hun diensten gebruiken. Hun open digitale ruimten mogen geen voedingsbodem worden voor bijvoorbeeld terrorisme, illegale haatzaaiende uitlatingen, kindermisbruik of mensenhandel, en mogen ook geen plekken van rechteloosheid zijn. Het is duidelijk dat het online verspreiden van illegale inhoud het vertrouwen van de burgers in de digitale omgeving kan ondermijnen, maar het kan ook een bedreiging vormen voor de verdere economische ontwikkeling van de online ecosystemen en de digitale eengemaakte markt. Onlineplatforms moeten, gezien de verantwoordelijkheid die hun centrale rol in de samenleving met zich meebrengt, resoluut meer inspanningen leveren om dit probleem aan te pakken.
De strijd tegen illegale online-inhoud moet worden gevoerd met degelijke en solide garanties ter bescherming van de verschillende grondrechten die in het geding zijn. Gezien het toenemende belang van onlineplatforms voor de toegang tot informatie, spelen zij ook een cruciale rol in het bereiken van een dergelijk evenwicht. In de strijd tegen illegale online-inhoud moet ook worden voortgebouwd op en rekening worden gehouden met EU-maatregelen op mondiaal niveau.
Deze mededeling bevat een reeks richtsnoeren en beginselen voor onlineplatforms om de strijd tegen illegale online-inhoud op te voeren in samenwerking met de nationale autoriteiten, de lidstaten en andere belanghebbenden. De bedoeling is de toepassing van goede praktijken te vergemakkelijken en te intensiveren als het gaat om de preventie, opsporing, verwijdering en het ontoegankelijk maken van illegale inhoud, zodat die inhoud daadwerkelijk wordt verwijderd, er meer transparantie is en de grondrechten online worden beschermd. Ook is het de bedoeling platforms meer duidelijkheid te verschaffen over hun aansprakelijkheid wanneer zij proactief stappen zetten om illegale inhoud op te sporen, te verwijderen of ontoegankelijk te maken (de zogenoemde "barmhartige Samaritaan"-maatregelen).
2.Achtergrond
De Europese Unie heeft het probleem van illegale online-inhoud al aangepakt met zowel bindende als niet-bindende maatregelen. Tot deze beleidsmaatregelen behoren onder meer de richtlijn ter bestrijding van seksueel misbruik en seksuele uitbuiting van kinderen en kinderpornografie, de richtlijn terrorismebestrijding, de voorgestelde hervormingen van het auteursrecht en de richtlijn audiovisuele mediadiensten.
Deze bestaande en voorgestelde wetgevingsmaatregelen zijn aangevuld met een reeks niet-wetgevingsmaatregelen, zoals de gedragscode voor het bestrijden van illegale haatzaaiende uitlatingen op internet, de werkzaamheden van het EU-internetforum met betrekking tot terroristische propaganda, het memorandum van overeenstemming over de verkoop van namaakgoederen via het internet, de mededeling van de Commissie over het markttoezicht op online verkochte producten, de online verkoop van voedingsproducten, het EU-actieplan tegen de illegale handel in wilde dieren en planten, de richtsnoeren inzake de richtlijn oneerlijke handelspraktijken en de gezamenlijke acties van de nationale autoriteiten in het kader van het netwerk voor samenwerking op het gebied van consumentenbescherming. De Europese Strategie voor een beter internet voor kinderen is een zelfreguleringsinitiatief dat gericht is op de verbetering van de internetomgeving voor kinderen en jongeren, gezien het risico op blootstelling aan inhoud met betrekking tot onder meer geweld of seksuele uitbuiting, of aan cyberpesten.
In haar mededelingen van 2016 en 2017 heeft de Commissie benadrukt dat het noodzakelijk is dat onlineplatforms meer verantwoordelijkheid opnemen en aan EU-brede zelfregulering doen om illegale inhoud te verwijderen. Daarnaast heeft de Commissie zich voorgenomen de verschillende sectorspecifieke dialogen met platforms beter te coördineren en te onderzoeken of er behoefte is aan richtsnoeren voor formele meldings- en actieprocedures. Dit moet gebeuren in synergie met en onverminderd de lopende dialogen en werkzaamheden op andere gebieden, bijvoorbeeld in het kader van de Europese veiligheidsagenda of met betrekking tot illegale haatzaaiende uitlatingen.
Uit recente verslagen over sommige van deze sectorspecifieke initiatieven blijkt dat er enige vooruitgang is geboekt. Volgens verslagen van juni 2017 bleek uit een steekproef in een aantal EU-landen over een periode van zes maanden dat de hoeveelheid inhoud die na melding van een illegale haatzaaiende uitlating werd verwijderd, was gestegen van 28 naar 59 %, maar dat er grote verschillen bestonden tussen de platforms. In diezelfde periode werden ook verbeteringen opgemerkt in de snelheid waarmee dergelijke uitlatingen werden verwijderd, al gebeurde dat in 28 % van de gevallen nog steeds pas na een week. Dit toont aan dat een niet-regelgevende benadering vruchten kan afwerpen, zeker in combinatie met maatregelen om de samenwerking tussen alle betrokken aanbieders te vergemakkelijken. Sinds de oprichting van het EU-internetforum voor de aanpak van terroristische inhoud is ongeveer 80 à 90 procent van de door Europol geflagde inhoud verwijderd. Wat betreft materiaal dat seksueel misbruik van kinderen bevat, meldde het INHOPE-systeem van hotlines in 2015 al dat 91 % van de content binnen 72 uur, en een derde zelfs binnen 24 uur, werd verwijderd.
De verschillende lopende sectorspecifieke dialogen hebben ook aangetoond dat er aanzienlijke gelijkenissen zijn tussen de procedures in de verschillende sectoren om dergelijke content op te sporen, te identificeren en te verwijderen, en te voorkomen dat deze opnieuw wordt geüpload. Deze bevindingen hebben tot inspiratie gediend voor deze mededeling.
Op EU-niveau wordt het algemene rechtskader voor de verwijdering van illegale inhoud gevormd door de richtlijn elektronische handel, waarin onder meer de voorwaarden worden geharmoniseerd op basis waarvan bepaalde onlineplatforms in aanmerking kunnen komen voor vrijstelling van aansprakelijkheid met betrekking tot illegale inhoud die zij hosten op de digitale eengemaakte markt.
Illegale inhoud op onlineplatforms verspreidt zich met name via onlinediensten die het uploaden van content van derden toestaan. Dergelijke hostingdiensten worden onder bepaalde voorwaarden gedekt door artikel 14 van de richtlijn elektronische handel. Dit artikel stelt dat de aanbieders van hostingdiensten niet aansprakelijk kunnen worden gehouden voor de op verzoek van derden opgeslagen informatie, op voorwaarde dat a) de dienstverlener niet daadwerkelijk kennis heeft van de onwettige activiteit of informatie en, wanneer het een schadevergoedingsvordering betreft, geen kennis heeft van feiten of omstandigheden waaruit het onwettige karakter van de activiteit of informatie duidelijk blijkt, of b) de dienstverlener, zodra hij van het bovenbedoelde daadwerkelijk kennis heeft of besef krijgt, prompt handelt om de informatie te verwijderen of de toegang daartoe onmogelijk te maken. Tegelijk vormen de bepalingen van deze richtlijn “het passende uitgangspunt voor de uitwerking van snelle, betrouwbare mechanismen om onwettige informatie te verwijderen en ontoegankelijk te maken”.
Artikel 15 bepaalt bovendien dat “met betrekking tot de levering van de in [artikel 14] bedoelde diensten [...] de lidstaten de dienstverleners geen algemene verplichting [opleggen] om toe te zien op de informatie die zij doorgeven of opslaan, noch om actief te zoeken naar feiten of omstandigheden die op onwettige activiteiten duiden”. Dit heeft volgens overweging 47 van de richtlijn enkel betrekking op toezichtverplichtingen van algemene aard en “geldt niet voor toezichtverplichtingen in speciale gevallen en doet met name geen afbreuk aan maatregelen van nationale autoriteiten in overeenstemming met de nationale wetgeving”.
In dit verband heeft de Commissie zich er in haar mededeling van 2016 over onlineplatforms toe verbonden om voor een evenwichtige en voorspelbare aansprakelijkheidsregeling voor online platforms te blijven zorgen, als een essentieel regelgevingskader ter ondersteuning van digitale innovatie op de digitale eengemaakte markt.
De richtsnoeren in deze mededeling doen geen afbreuk aan het EU-acquis en hebben betrekking op de activiteiten van onlineplatforms, en in het bijzonder op de door deze platforms geleverde hostingdiensten in de zin van artikel 14 van de richtlijn elektronische handel, en op alle categorieën van illegale inhoud, rekening houdend met het feit dat verschillende soorten inhoud om een verschillende behandeling kunnen vragen.
Op dit ogenblik ontbreekt het de EU aan een geharmoniseerde en coherente benadering voor het verwijderen van illegale inhoud. De in de EU bestaande benaderingen variëren afhankelijk van de lidstaat, het soort inhoud en het type onlineplatform. Een beter afgestemde benadering zou de bestrijding van illegale inhoud doeltreffender maken. Het zou ook nuttig zijn voor de ontwikkeling van de digitale eengemaakte markt en het zou voor onlineplatforms, ook de nieuwkomers onder hen, goedkoper zijn dan wanneer ze zoals nu aan een veelheid van regels moeten voldoen.
Het is belangrijk om te benadrukken dat dit rechtskader niet bepaalt, laat staan gelijktrekt, wat onder “illegale” inhoud moet worden verstaan. Wat illegaal is, wordt bepaald in specifieke wetgeving op EU-niveau, maar ook in nationale wetgeving. De aard, de kenmerken en de gevaren van terroristisch materiaal, illegale haatzaaiende uitlatingen of materiaal dat seksueel misbruik van kinderen bevat of verband houdt met mensenhandel, verschillen bijvoorbeeld sterk van inbreuken op intellectuele-eigendomsrechten, productveiligheidsvoorschriften, illegale handelspraktijken op het internet of lasterlijke onlineactiviteiten, maar toch vallen al deze verschillende soorten illegale inhoud onder hetzelfde overkoepelende rechtskader dat is vastgesteld in de richtlijn elektronische handel. Bovendien heeft deze mededeling, gezien de grote gelijkenissen tussen de verwijderingsprocessen voor deze verschillende soorten content, betrekking op het volledige scala aan illegale online-inhoud, maar worden waar passend en gerechtvaardigd sectorspecifieke verschillen toegestaan.
In de EU zijn de rechtbanken en de bevoegde nationale autoriteiten, waaronder de rechtshandhavingsautoriteiten, bevoegd om, met inachtneming van een eerlijke rechtsgang, vervolging in te stellen of strafrechtelijke sancties vast te stellen voor illegale activiteiten of illegale informatie op het internet. Tegelijkertijd hebben onlineplatforms het recht te voorkomen dat hun infrastructuur en onderneming gebruikt worden om misdrijven te plegen, dragen zij de verantwoordelijkheid om hun gebruikers te beschermen en de publicatie van illegale inhoud op hun platform te voorkomen, en beschikken zij gewoonlijk over de technische middelen om dergelijke inhoud te identificeren en te verwijderen. Dit is des te belangrijker omdat onlineplatforms op grote schaal hebben geïnvesteerd in de ontwikkeling van geavanceerde technologieën om proactief gegevens te verzamelen over het gedrag van de gebruikers en de inhoud die op hun platform wordt verspreid. Enerzijds is het belangrijk dat in het geval van illegale inhoud snel wordt beslist over de verwijdering ervan, maar anderzijds moeten er ook passende garanties worden ingebouwd. Dit vraagt eveneens om een evenwichtige rolverdeling tussen publieke en private organen.
Bijgevolg hebben de richtsnoeren en beginselen in deze mededeling niet alleen betrekking op de opsporing en verwijdering van illegale inhoud, maar proberen ze ook een antwoord te bieden op de bezorgdheid over de verwijdering van legale inhoud, hetgeen gevolgen heeft voor de vrijheid van meningsuiting en het pluralisme in de media. Er moeten daarom passende garanties komen, aangepast aan de specifieke aard van de illegale inhoud in kwestie.
Om redenen van algemeen belang bestaan er ongetwijfeld bezwaren tegen inhoud die niet zozeer illegaal is, maar wel schade zou kunnen veroorzaken, zoals fakenieuws of inhoud die schadelijk is voor minderjarigen. Deze mededeling is echter in de eerste plaats gericht op de opsporing en verwijdering van illegale inhoud.
3.Illegale inhoud opsporen en melden
Dit deel is bedoeld om te bepalen wat onlineplatforms, bevoegde autoriteiten en gebruikers moeten doen om snel en doeltreffend illegale inhoud op te sporen.
Onlineplatforms kunnen zich op verschillende manieren, via verschillende kanalen, bewust worden van het bestaan van illegale inhoud. Voorbeelden van dergelijke meldingskanalen zijn i) rechterlijke bevelen of bestuurlijke beslissingen; ii) meldingen van bevoegde autoriteiten (bv. rechtshandhavingsautoriteiten), gespecialiseerde betrouwbare “flaggers”, houders van intellectuele-eigendomsrechten of gewone gebruikers, of iii) onderzoeksdaden of kennis van de platforms zelf.
Naast de wettelijke verplichtingen die voortvloeien uit het EU- en nationale recht en het zorgplichtbeginsel, behoort het tot de verantwoordelijkheden van onlineplatforms om de gebruikers een veilige internetomgeving te waarborgen waar criminele en andere illegale activiteiten worden geweerd, ontmoedigd en voorkomen.
4.Rechtbanken en bevoegde autoriteiten
Overeenkomstig de EU- en/of nationale wetgeving kunnen nationale rechtbanken, en in bepaalde gevallen bevoegde autoriteiten, onlineplatforms door middel van bindende uitspraken of bestuurlijke beslissingen verplichten illegale inhoud te verwijderen of ontoegankelijk te maken.
Aangezien het vaak van essentieel belang is dat illegaal materiaal snel wordt verwijderd om te voorkomen dat het breder wordt verspreid en schade veroorzaakt, moeten onlineplatforms ook snel besluiten kunnen nemen over mogelijke acties met betrekking tot illegale online-inhoud zonder dat ze daartoe gehouden zijn op grond van een rechterlijk bevel of administratief besluit, met name wanneer een rechtshandhavingsautoriteit vermeende illegale inhoud identificeert en hen hierover in kennis stelt. Tegelijkertijd moeten onlineplatforms zorgen voor passende garanties wanneer zij hun verplichtingen in dit verband nakomen, zodat het recht van de gebruikers op een doeltreffende voorziening in rechte verzekerd is.
Onlineplatforms moet daarom over de nodige middelen beschikken om inzicht te krijgen in de rechtskaders waarbinnen zij opereren. Zij moeten, waar passend, ook nauw samenwerken met rechtshandhavingsautoriteiten en andere bevoegde autoriteiten, met name door ervoor te zorgen dat deze hen snel en effectief kunnen contacteren met verzoeken om illegale inhoud prompt te verwijderen, en door de rechtshandhavingsautoriteiten indien nodig attent te maken op tekenen van criminele onlineactiviteit. Om dubbel werk en dubbele meldingen te voorkomen, waardoor het verwijderingsproces minder efficiënt en effectief zou verlopen, moeten de rechtshandhavingsautoriteiten en andere bevoegde autoriteiten er ook alles aan doen om samen doeltreffende digitale interfaces te creëren die het gemakkelijker maken om op een snelle en betrouwbare manier meldingen te versturen, en om te zorgen voor de doeltreffende identificatie en melding van illegale inhoud. Voor een goed verloop van deze samenwerking is het van cruciaal belang dat er bij de platforms en bij de autoriteiten contactpunten worden aangewezen.
Binnen Europol is er voor terroristische inhoud een eenheid voor de melding van internetuitingen (IRU) gecreëerd, waarin beveiligingsdeskundigen terroristische inhoud beoordelen en onlineplatforms hiervan in kennis stellen (sommige lidstaten hebben hun eigen landelijke IRU’s).
Terwijl onlineplatforms hun samenwerking met de bevoegde instanties in de lidstaten systematisch moeten verbeteren, moeten de lidstaten ervoor zorgen dat rechtbanken doeltreffend kunnen reageren op illegale online-inhoud en dat overheidsdiensten nauwer (over de grenzen heen) met elkaar samenwerken.
Onlineplatforms en rechtshandhavings- of andere bevoegde autoriteiten moeten in de EU effectieve contactpunten aanwijzen en waar nodig effectieve digitale interfaces creëren om hun onderlinge interactie te vergemakkelijken.
Platforms en rechtshandhavingsautoriteiten worden ook aangemoedigd technische interfaces te ontwikkelen die hen in staat stellen doeltreffender samen te werken in de hele cyclus van inhoudsbeheer. Ook samenwerking met de technische gemeenschap kan gunstig zijn in de zoektocht naar doeltreffende en technisch solide oplossingen voor dit probleem.
5.Meldingen
6.Betrouwbare flaggers
Illegale online-inhoud wordt sneller en op een meer betrouwbare manier verwijderd wanneer onlineplatforms voorzien in mechanismen die melders met een bijzondere deskundigheid ter zake de mogelijkheid bieden om via een bevoorrecht kanaal melding te maken van potentieel illegale inhoud op hun website. Het gaat daarbij om “betrouwbare flaggers”, d.w.z. gespecialiseerde entiteiten met specifieke expertise in het identificeren van illegale inhoud, en speciale structuren voor het opsporen en identificeren van dergelijke online-inhoud.
In vergelijking met gewone gebruikers kan van betrouwbare flaggers worden verwacht dat zij met kennis van zaken werk van hoge kwaliteit leveren, hetgeen moet leiden tot een betere melding en snellere verwijdering. Onlineplatforms worden aangemoedigd om gebruik te maken van bestaande netwerken van betrouwbare flaggers. Als het bijvoorbeeld gaat om terroristische inhoud, beschikt de IRU van Europol over de nodige expertise om te beoordelen of iets terroristische en gewelddadige extremistische online-inhoud is, en gebruikt zij haar expertise om, naast haar rol op het gebied van rechtshandhaving, op te treden als betrouwbare flagger. Een ander voorbeeld van een betrouwbare flagger is het INHOPE-netwerk van hotlines voor het melden van materiaal dat seksueel misbruik van kinderen bevat, en wat betreft illegale haatzaaiende uitlatingen zijn er organisaties uit het maatschappelijk middenveld of semi-overheidsinstellingen die gespecialiseerd zijn in de identificatie en rapportage van illegale racistische en xenofobe online-inhoud.
Om ervoor te zorgen dat de meldingen van hoge kwaliteit zijn en de illegale inhoud sneller wordt verwijderd, zou de branche op EU-niveau afspraken kunnen maken over criteria die gebaseerd zijn op met name de eerbiediging van de grondrechten en de democratische waarden. Dit kan gebeuren door middel van zelfreguleringsmechanismen of binnen het normalisatiekader van de EU, op grond waarvan een bepaalde entiteit kan worden beschouwd als een betrouwbare flagger, waarbij voldoende flexibiliteit is om rekening te houden met specifieke kenmerken van inhoud en de rol van de betrouwbare flagger. Tot deze niet-limitatieve lijst van criteria kunnen behoren: interne opleidingsnormen, procesnormen en kwaliteitsborging, evenals wettelijke garanties inzake onafhankelijkheid, belangenconflicten en de bescherming van de persoonlijke levenssfeer en persoonsgegevens. Deze garanties zijn met name belangrijk in het beperkte aantal gevallen waarin platforms inhoud zouden verwijderen na melding door een betrouwbare flagger zonder zelf de wettigheid van de inhoud verder te hebben gecontroleerd. In deze zeldzame gevallen zouden de betrouwbare flaggers ook worden gecontroleerd aan de hand van deze criteria en zou de status van betrouwbare flagger met een certificeringsregeling kunnen worden bevestigd. In alle gevallen moeten voldoende garanties worden ingebouwd om misbruik van het systeem te voorkomen, zoals uiteengezet in deel 4.3.
De bevoegde autoriteiten moeten de mogelijkheid krijgen om, indien relevant, deel uit te maken van de rapportagemechanismen voor betrouwbare flaggers.
Er moet een redelijk evenwicht worden gevonden tussen het waarborgen van hoogkwalitatieve meldingen van betrouwbare flaggers, de reikwijdte van aanvullende maatregelen die ondernemingen zouden nemen ten aanzien van betrouwbare flaggers, en de lasten om deze kwaliteitsnormen te waarborgen. Als betrouwbare flaggers in het kader van de desbetreffende mechanismen de vastgestelde normen met voeten treden, moet hun status van betrouwbare flagger worden ingetrokken.
De Commissie moedigt nauwe samenwerking tussen onlineplatforms en betrouwbare flaggers aan. Het platform moet meldingen van betrouwbare flaggers versneld kunnen behandelen. Deze samenwerking moet voorzien in onderlinge informatie-uitwisseling zodat het verwijderingsproces kan worden geëvalueerd en mettertijd kan worden verbeterd.
De Commissie zal de mogelijkheid om EU-brede criteria voor betrouwbare flaggers overeen te komen, verder onderzoeken, met name door in dialoog te treden met de belanghebbenden.
7.Meldingen van gebruikers
Om illegale online-inhoud doeltreffend te kunnen bestrijden, moeten gewone gebruikers de mogelijkheid krijgen onlineplatforms in kennis te stellen van illegale inhoud en erop kunnen vertrouwen dat snel gevolg wordt gegeven aan terechte meldingen.
Onlineplatforms moeten een toegankelijk en gebruiksvriendelijk mechanisme inbouwen zodat hun gebruikers melding kunnen maken van illegaal geachte inhoud die door de platforms wordt gehost.
Indien het om algemeen toegankelijke inhoud gaat, moet iedereen gebruik kunnen maken van deze meldingsmechanismen, ook wie niet is ingeschreven als gebruiker. Om potentieel illegale inhoud efficiënter en preciezer te kunnen beoordelen, moeten dergelijke mechanismen ervoor zorgen dat meldingen eenvoudig en via elektronische weg kunnen worden gemaakt.
Het voorstel van de Commissie tot herziening van de richtlijn audiovisuele mediadiensten is bedoeld om de aanbieders van videodeelplatforms ertoe te verplichten mechanismen in te voeren zodat gebruikers audiovisuele inhoud kunnen rapporteren of flaggen wanneer deze schadelijk is voor de lichamelijke, geestelijke of zedelijke ontwikkeling van minderjarigen, en wanneer deze aanzet tot geweld of haat.
8.Zorgen dat de meldingen van hoge kwaliteit zijn
Onlineplatforms moeten doeltreffende mechanismen instellen die het gemakkelijker maken om voldoende nauwkeurige en naar behoren onderbouwde meldingen in te dienen, zodat de platforms een snel en gefundeerd besluit over de follow-up kunnen nemen. Zo moet het gemakkelijker worden om meldingen te ontvangen met uitleg over de redenen waarom de melder vindt dat de inhoud illegaal is en met een duidelijke aanduiding van de plaats (bv. de URL) waar de potentieel illegale inhoud zich bevindt.
Dergelijke meldingsmechanismen moeten zichtbaar, makkelijk toegankelijk, gebruikersvriendelijk en contextgebonden zijn. Zij moeten het ook mogelijk maken om gemakkelijk melding te maken van verschillende soorten inhoud, bijvoorbeeld door te kiezen uit een lijst met categorieën van redenen waarom inhoud als illegaal wordt beschouwd. Indien dit technisch mogelijk is, kunnen elementen worden gebruikt waardoor meteen bij het eerste contact met het materiaal melding kan worden gedaan of waardoor inloggegevens kunnen worden hergebruikt.
Dankzij dergelijke meldingen die voldoende onderbouwd en gedetailleerd zijn, kunnen platforms de potentieel illegale inhoud snel opsporen, de illegaliteit van de inhoud grondig beoordelen en waar nodig snel ingrijpen. Hoe gedetailleerd de informatie precies moet zijn om toe te laten dat platforms snel gefundeerde beslissingen kunnen nemen, kan sterk verschillen naargelang het soort inhoud.
Gebruikers mogen normaal niet worden verplicht zichzelf te identificeren wanneer ze melding maken van inhoud die zij als illegaal beschouwen, tenzij die informatie nodig is om de legaliteit van de inhoud te bepalen (bv. om de eigendom van intellectuele-eigendomsrechten te bevestigen). Dit is met name het geval wanneer hun veiligheid in gevaar kan komen, of indien het onthullen van hun identiteit juridische gevolgen kan hebben. Gebruikers moeten worden aangemoedigd om meldingen in te dienen via betrouwbare flaggers, indien deze er zijn, wanneer zij anoniem willen blijven ten opzichte van platforms.
Melders moeten evenwel de kans krijgen om vrijwillig hun contactgegevens aan de melding toe te voegen zodat het onlineplatform ze om aanvullende informatie kan vragen of zodat ze op de hoogte kunnen worden gehouden van de voorgenomen follow-up. In dat geval moet de melder een ontvangstbevestiging krijgen, alsook een bericht over het gevolg dat aan de melding wordt gegeven.
Een ontvangstbevestiging zorgt er niet alleen voor dat de melder niet moet controleren of er gevolg is gegeven aan zijn of haar verzoek, maar kan ook dienen als bewijs in gerechtelijke of buitengerechtelijke procedures overeenkomstig de regels die van toepassing zijn op dergelijke procedures.
9.Proactieve maatregelen van onlineplatforms
10.Proactieve maatregelen en vrijstelling van aansprakelijkheid
Gezien hun centrale rol en vermogens en de bijbehorende verantwoordelijkheden, moeten onlineplatforms doeltreffende proactieve maatregelen treffen voor de opsporing en verwijdering van illegale online-inhoud, en niet alleen reageren op meldingen die zij ontvangen. Bovendien is het voor bepaalde categorieën illegale inhoud wellicht onmogelijk om het risico op ernstige schade te verminderen indien platforms geen proactieve maatregelen treffen.
De Commissie is van mening dat het nemen van vrijwillige, proactieve maatregelen er niet automatisch toe leidt dat het onlineplatform het voordeel verliest dat voortvloeit uit de bij artikel 14 van de richtlijn elektronische handel voorziene vrijstelling van aansprakelijkheid.
Ten eerste is deze vrijstelling van aansprakelijkheid er enkel voor aanbieders van hostingdiensten die voldoen aan de voorwaarden die zijn vastgesteld in artikel 14 van die richtlijn; dergelijke aanbieders zijn dienstverleners waarvan de activiteiten bestaan uit het opslaan van informatie op verzoek van derde partijen en die geen actieve rol spelen waardoor zij kennis hebben van of controle hebben over die informatie.
Overweging 38 van het voorstel van de Commissie voor een richtlijn inzake auteursrechten in de digitale eengemaakte markt van 14 september 2016 preciseert in dit verband: “Met betrekking tot artikel 14 [van de richtlijn elektronische handel] moet worden nagegaan of de dienstverlener een actieve rol speelt, onder meer door de presentatie van de geüploade werken of andere materialen te optimaliseren of door deze te promoten, ongeacht de aard van de daarvoor gebruikte middelen”.
Specifiek met betrekking tot artikel 14 van de richtlijn elektronische handel heeft het Hof van Justitie in de zaak L’Oréal v. eBay verduidelijkt dat “het enkele feit dat [een onlineplatform] de verkoopaanbiedingen op zijn server opslaat, bepaalt hoe zijn dienst wordt verleend, daarvoor een vergoeding ontvangt en algemene inlichtingen aan zijn klanten verstrekt, er niet toe [kan] leiden dat hij geen beroep kan doen op de [bij artikel 14 van de richtlijn elektronische handel] voorziene vrijstellingen van aansprakelijkheid”. Het Hof heeft echter geoordeeld dat er een dergelijk effect is “wanneer [het onlineplatform] daarentegen bijstand verleent die er onder meer in bestaat om de wijze waarop de verkoopaanbiedingen worden getoond te optimaliseren of deze aanbiedingen te bevorderen”.
Dit wijst erop dat het enkele feit dat een onlineplatform bepaalde maatregelen treft met betrekking tot de verlening van zijn diensten in het algemeen, niet noodzakelijkerwijs betekent dat het een actieve rol speelt ten aanzien van de afzonderlijke inhoudselementen die het opslaat en het onlineplatform om die reden niet in aanmerking komt voor vrijstelling van aansprakelijkheid. De Commissie is van oordeel dat onder dergelijke maatregelen ook maatregelen voor de opsporing en verwijdering van illegale online-inhoud kunnen – en zelfs moeten – vallen, met name wanneer die maatregelen worden genomen als onderdeel van de toepassing van de gebruiksvoorwaarden van het onlineplatform. Dit zou in overeenstemming zijn met het evenwicht tussen de verschillende betrokken belangen dat in de richtlijn elektronische handel wordt nagestreefd. In die richtlijn wordt eraan herinnerd dat het in het belang van alle betrokken partijen is om snelle, betrouwbare mechanismen vast te stellen en toe te passen om onwettige informatie te verwijderen en ontoegankelijk te maken. Hoewel in die richtlijn wordt uitgesloten dat onlineplatforms algemeen verplicht worden om actief te zoeken naar feiten, wordt ook gewezen om het belang van vrijwillige maatregelen
.
Ten tweede komen, overeenkomstig artikel 14 van de richtlijn elektronische handel, dienstverleners die binnen de werkingssfeer van die bepaling vallen, slechts op twee voorwaarden in aanmerking voor vrijstelling van aansprakelijkheid: a) de dienstverlener heeft niet daadwerkelijk kennis van de onwettige activiteit of informatie en, wanneer het een schadevergoedingsvordering betreft, heeft geen kennis van feiten of omstandigheden waaruit het onwettige karakter van de activiteit of informatie duidelijk blijkt, of b) de dienstverlener, zodra hij van het bovenbedoelde daadwerkelijk kennis heeft of besef krijgt, handelt prompt om de informatie te verwijderen of de toegang daartoe onmogelijk te maken.
Het Hof van Justitie heeft verduidelijkt dat deze voorwaarden betrekking hebben op “elke situatie waarin [het betrokken onlineplatform] op enige wijze kennis verkrijgt van [feiten of omstandigheden op grond waarvan een behoedzame marktdeelnemer de onwettigheid in kwestie had moeten vaststellen]” en dat dit – naast kennisgeving door een derde partij – de situatie omvat waarin het platform “een onwettige activiteit of informatie ontdekt na een op eigen initiatief verricht onderzoek”.
Hieruit volgt dat wanneer een onlineplatform proactieve maatregelen treft om illegale inhoud op te sporen en te verwijderen, dat platform kennis of besef kan krijgen van illegale activiteiten of informatie, waardoor het niet langer in aanmerking zou kunnen komen voor vrijstelling van aansprakelijkheid overeenkomstig artikel 14, lid 1, onder a), van de richtlijn elektronische handel. In dergelijke gevallen kan het onlineplatform echter nog steeds, zodra het deze kennis of dit besef krijgt, prompt handelen om de informatie te verwijderen of ontoegankelijk te maken. Indien het dat doet, blijft het platform profiteren van de vrijstelling van aansprakelijkheid in de zin van artikel 14, lid 1, onder b). De bekommernis om de vrijstelling van aansprakelijkheid te verliezen, mag de platforms dus niet ontmoedigen of beletten doeltreffende, proactieve en vrijwillige maatregelen te treffen, zoals met deze mededeling wordt gestimuleerd.
11.Inzet van technologie voor de opsporing van illegale inhoud
Gezien de hoeveelheid materiaal waarmee onlineplatforms worden gevoed en gezien de technologische vooruitgang op het vlak van informatieverwerking en machine-intelligentie, wordt het gebruik van automatische detectie- en filtertechnologieën steeds belangrijker in de strijd tegen illegale online-inhoud. Veel grote platforms maken nu in een of andere vorm gebruik van matching-algoritmen op basis van uiteenlopende technologieën, gaande van eenvoudige filters op basis van metadata tot het toepassen van hashfuncties en herkenningsalgoritmen.
In de richtlijn elektronische handel wordt verduidelijkt dat de bepalingen inzake aansprakelijkheid de ontwikkeling en het daadwerkelijke gebruik van technische beschermings- en identificatiesystemen en technische toezichtinstrumenten door middel van digitale technologieën niet in de weg staan
. In de richtlijn wordt echter ook duidelijk gesteld dat deze moeten worden gebruikt binnen de grenzen van het EU- en nationaal recht, met name inzake de bescherming van de persoonlijke levenssfeer en persoonsgegevens, en met eerbiediging van het verbod voor lidstaten om algemene toezichtverplichtingen op te leggen.
Sectorspecifieke wetten kunnen onlineplatforms dwingende voorschriften opleggen, bijv. met betrekking tot auteursrechten, om illegale inhoud te helpen opsporen en verwijderen, ook wanneer deze platforms overeenkomstig artikel 14 van de richtlijn elektronische handel in aanmerking komen voor vrijstelling van aansprakelijkheid.
Meer in het algemeen wordt het gebruik en de verdere ontwikkeling van dergelijke technologieën aangemoedigd, met name wanneer er risico is op ernstige schade, zoals gevraagd door de Europese Raad in zijn conclusies van 22 juni 2017. Automatische instrumenten en filters kunnen worden gebruikt om potentieel ongeoorloofde inhoud te identificeren en er worden vorderingen gemaakt in het particuliere en publieke onderzoek naar de ontwikkeling van dergelijke instrumenten. Op het vlak van auteursrechten bijvoorbeeld, is de automatische herkenning van inhoud de voorbije jaren een doeltreffend instrument gebleken.
De Commissie steunt nadere onderzoeken en innovatieve benaderingen die verder gaan dan de huidige stand van de techniek, met het oog op een grotere nauwkeurigheid van de technische middelen voor de opsporing van illegale inhoud
. Ze moedigt de branche ook aan om te zorgen voor de effectieve toepassing van innovaties die ertoe kunnen bijdragen dat de procedures voor automatische opsporing efficiënter en doeltreffender worden.
In de branche geldt momenteel in de meeste gevallen als beste praktijk dat automatische instrumenten worden ingezet om een hoeveelheid omstreden inhoud uit te kammen, waarna menselijke deskundigen de resterende inhoud onderzoeken en het illegale karakter ervan zo nodig beoordelen. Dit “human-in-the-loop”-principe is meestal een belangrijk element van geautomatiseerde procedures die bedoeld zijn om de illegaliteit van bepaalde inhoud vast te stellen, met name op gebieden waar het foutenpercentage hoog is of waar contextualisering nodig is.
De Commissie is van mening dat wanneer onlineplatforms die onder artikel 14 van de richtlijn elektronische handel vallen, proactieve maatregelen treffen voor de opsporing en verwijdering van door hen gehoste illegale inhoud (ook door gebruik te maken van automatische instrumenten en instrumenten om ervoor te zorgen dat al verwijderde inhoud niet opnieuw wordt geüpload), dit op zichzelf niet tot het verlies van de vrijstelling van aansprakelijkheid leidt.
Het nemen van dergelijke maatregelen hoeft met name niet te impliceren dat het betrokken onlineplatform een actieve rol speelt waardoor het niet langer van die vrijstelling zou kunnen profiteren. Indien het onlineplatform, doordat het dergelijke maatregelen heeft genomen, daadwerkelijke kennis over illegale activiteiten of illegale informatie verwerft, of daarvan besef krijgt, moet het prompt handelen om de illegale informatie in kwestie te verwijderen of ontoegankelijk te maken zodat het voldoet aan de voorwaarde om in aanmerking te blijven komen voor die vrijstelling.
Onlineplatforms moeten alles in het werk stellen om illegale online-inhoud proactief op te sporen, te identificeren en te verwijderen. De Commissie moedigt onlineplatforms ten zeerste aan om vrijwillige, proactieve maatregelen voor de opsporing en verwijdering van illegale inhoud te nemen en de samenwerking en investering op het vlak van automatische-opsporingstechnologieën te versterken.
12.Illegale inhoud verwijderen
De hele samenleving heeft er belang bij dat platforms illegale inhoud zo snel mogelijk verwijderen. Tegelijk mag het verwijderen van dergelijke inhoud geen obstakel vormen voor de vervolging of follow-up van eventuele onderliggende inbreuken op het recht. Belangrijk in dit verband is een beleid waarbij overheidsinstanties en onlineplatforms bewijsmateriaal uitwisselen. Grensoverschrijdende toegang tot bewijsmateriaal moet worden vergemakkelijkt met het aanstaande wetgevingsinitiatief op dit gebied. De verwijdering van illegale inhoud door platforms mag het onderzoek naar of de vervolging van inbreuken op Unie- of nationale wetgeving niet deren.
Er moeten ook solide garanties zijn om het risico in verband met de verwijdering van legale inhoud te beperken, ondersteund door een reeks betekenisvolle transparantieverplichtingen om de verantwoordingsplicht met betrekking tot de verwijderingsprocessen te versterken.
13.Zorgen voor snelle verwijdering en aangifte van misdrijven bij rechtshandhavingsautoriteiten
De richtlijn elektronisch handel bepaalt dat onlineplatforms, zodra zij kennis hebben van illegale inhoud, “prompt” moeten handelen om deze te verwijderen indien zij van de vrijstelling van aansprakelijkheid willen blijven profiteren. Wat dit in de praktijk betekent, hangt af van de specifieke kenmerken van de betrokken zaak, met name van het soort illegale inhoud, de nauwkeurigheid van de melding en de potentiële schade.
In de praktijk is voor iedere soort inhoud een andere hoeveelheid contextuele informatie nodig om te oordelen over de legaliteit van een specifiek inhoudselement. Het is bijvoorbeeld makkelijker om het illegale karakter te bepalen van materiaal dat seksueel misbruik van kinderen bevat, terwijl om te bepalen of lasterlijke uitspraken illegaal zijn, meestal een zorgvuldige analyse nodig is van de context waarin deze zijn gedaan.
Wanneer inhoud tot ernstige schade kan leiden, bijvoorbeeld als deze aanzet tot terroristische daden, is het bijzonderlijk belangrijk dat deze inhoud snel wordt verwijderd, en dan kunnen hiervoor specifieke termijnen gelden.
Sommige vrijwillige processen, zoals de gedragscode tegen illegale haatzaaiende uitlatingen op het internet, voorzien in indicatieve streefcijfers voor de verwijderingstermijnen – in het geval van deze gedragscode is dat voor de meerderheid van de gevallen een termijn van 24 uur.
Het volledig automatisch verwijderen of ontoegankelijk maken van inhoud kan bijzonder doeltreffend zijn en moet worden toegepast wanneer de omstandigheden weinig twijfel laten over het illegale karakter van het materiaal, bijvoorbeeld wanneer het materiaal door rechtshandhavingsautoriteiten is gerapporteerd of wanneer het om bekende illegale inhoud gaat die reeds eerder was verwijderd, met inachtneming van de garanties bedoeld in punt 4.3.
Als algemene regel geldt dat inhoud die door betrouwbare flaggers wordt gerapporteerd, sneller moet worden verwijderd gezien de kwaliteit en nauwkeurigheid van de verstrekte informatie en de vertrouwensstatus van de flaggers.
In gevallen met risico op economische schade door de schending van intellectuele-eigendomsrechten, kan de potentiële economische schade als gevolg van een dergelijke schending nauw samenhangen met de snelheid waarmee de betrokken inhoud wordt verwijderd.
Duidelijke rapportage door platforms over de tijd die het hen kost om, afhankelijk van het soort inhoud, verzoeken tot verwijdering te verwerken, zal bevorderlijk zijn voor de beoordeling van de mate waarin prompt is gehandeld en zal tot een grotere verantwoordingsplicht van de platforms leiden.
In bepaalde gevallen, met name wanneer onlineplatforms het moeilijk vinden om de legaliteit van bepaalde inhoud te beoordelen en het hierbij om een potentieel omstreden besluit gaat, zou het bevorderlijk zijn als ze ter advies twijfelgevallen aan een derde partij konden voorleggen. In verschillende lidstaten wordt deze rol gespeeld door zelfregulerende organen of bevoegde autoriteiten. In het kader van de versterkte samenwerking tussen de onlineplatforms en de bevoegde autoriteiten wordt een dergelijke samenwerking sterk aangemoedigd.
Ten slotte moeten onlineplatforms verslag uitbrengen aan de rechtshandhavingsautoriteiten telkens wanneer zij attent worden gemaakt op of aanwijzingen vinden van strafrechtelijke of andere strafbare feiten, zodat de relevante autoriteiten kunnen worden gewaarschuwd en onderzoek kunnen verrichten naar de personen die dergelijke inhoud produceren of naar het misbruik van de diensten door georganiseerde criminele of terroristische groepen. Daarbij moeten zij de toepasselijke wettelijke voorschriften naleven, waaronder Verordening (EU) 2016/679 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens. Dit kan ook passend zijn bij het aanbod en de verkoop van producten en commerciële praktijken die niet conform de EU-wetgeving zijn.
Als gevolg van hun samenwerking met rechtshandhavingsautoriteiten die misdaden onderzoeken en vervolgen, kunnen platforms, onder nauwlettend toezicht van nationale autoriteiten en met volledige inachtneming van de nationale regels inzake strafvordering, er in sommige gevallen van afzien de illegale inhoud in kwestie te verwijderen wanneer dit nodig is in het kader van een specifiek lopend onderzoek.
Rechtshandhavingsautoriteiten moeten de nodige capaciteit opbouwen om passende maatregelen te nemen op basis van deze verslagen. Een voorbeeld van een beste praktijk voor contactpunten is het SIRIUS-systeem van Europol, dat erop gericht is online terrorismebestrijdingsonderzoeken van lidstaten te ondersteunen, onder meer door de samenwerking tussen platforms en Europese rechtshandhavingsautoriteiten te vergemakkelijken.
Overeenkomstig artikel 14 van de richtlijn elektronische handel moeten onlineplatforms, indien zij vrijgesteld willen zijn van aansprakelijkheid, illegale inhoud prompt verwijderen zodra zij kennis hebben of besef krijgen van het bestaan ervan. Het is met name belangrijk de illegale inhoud snel te verwijderen wanneer er risico is op ernstige schade, bijvoorbeeld wanneer opgeroepen wordt tot terroristische daden. De termijnen en procedures voor de verwijdering van diverse vormen van illegale inhoud moeten duidelijk worden gerapporteerd in transparantieverslagen.
De kwestie van de vaste verwijderingstermijnen zal verder worden onderzocht door de Commissie.
Bewijzen van strafbare feiten die boven water komen bij de verwijdering van illegale inhoud moeten worden doorgegeven aan de rechtshandhavingsautoriteiten, mits dit in overeenstemming is met de voorschriften van Verordening (EU) 2016/679, en met name met de wettige gronden voor de verwerking van persoonsgegevens.
14.Meer transparantie
15.Transparantie over het inhoudsbeleid van onlineplatforms
De vraag of inhoud legaal of illegaal is, wordt geregeld door het EU-recht en het nationale recht. Tegelijkertijd kunnen onlineplatforms in hun eigen gebruiksvoorwaarden specifieke soorten inhoud als ongewenst of laakbaar aanmerken.
Onlineplatforms moeten hun inhoudsbeleid in detail bekendmaken in hun gebruiksvoorwaarden en duidelijk aan hun gebruikers meedelen. In hun gebruiksvoorwaarden moet niet alleen duidelijk het beleid voor de verwijdering of het ontoegankelijk maken van inhoud worden vermeld, maar moeten ook de garanties worden beschreven die ervoor zorgen dat inhoudelijke maatregelen niet tot overmatige verwijdering van inhoud leiden. In de gebruiksvoorwaarden van de onlineplatforms moet met name duidelijk worden vermeld over welke mogelijkheden de gebruikers beschikken om verwijderingsbesluiten aan te vechten; dit met het oog op meer transparantie in het algemene beleid van de platforms wat de verwijdering van inhoud betreft. Dit moet helpen om de mogelijke negatieve gevolgen voor het grondrecht van vrijheid van meningsuiting en van informatie van de gebruikers te verminderen.
Onlineplatforms moeten in hun gebruiksvoorwaarden op een duidelijke, gemakkelijk begrijpelijke en voldoende gedetailleerde manier uitleg geven over hun inhoudsbeleid. Dit moet betrekking hebben op de behandeling van zowel illegale inhoud als inhoud die niet strookt met de gebruiksvoorwaarden van het platform. Alle beperkingen met betrekking tot het type inhoud dat is toegestaan op een bepaald platform, moeten duidelijk vermeld worden en meegedeeld worden aan de gebruikers van dat platform. In deze uitleg moeten ook de procedures aan bod komen waarmee de verwijdering van inhoud kan worden aangevochten, met inbegrip van de beslissingen die een gevolg zijn van meldingen door betrouwbare flaggers.
16.Transparantie over meldings- en actieprocedures
De transparantieverslagen moeten ook de resultaten van de toepassing van het contentmanagementbeleid van de platforms omvatten.
Onlineplatforms moeten transparantieverslagen publiceren met voldoende gedetailleerde informatie over het aantal en de aard van de ontvangen meldingen en de ondernomen acties, alsook over de tijd die nodig was voor de verwerking ervan en de bron van de melding
. Die verslagen moeten ook informatie bevatten over tegenmeldingen, indien die er zijn, en de respons daarop. De Commissie moedigt de platforms aan deze informatie op regelmatige basis en minstens eenmaal per jaar bekend te maken.
Enige normalisatie van de transparantieverslagen in de hele digitale eengemaakte markt, rekening houdend met inhoudelijk specifieke verschillen, zou deze verslagen ten goede komen. Dit zou de monitoring kunnen verbeteren, de elektronische bundeling van dergelijke informatie vergemakkelijken en helpen te voorkomen dat onnodige barrières worden opgeworpen voor de grensoverschrijdende verlening van hostingdiensten.
Er moet bijzondere aandacht aan worden besteed dat ook kleinere onlineplatforms en kleine en middelgrote ondernemingen in staat zijn dergelijke transparantiegegevens te verstrekken, en ondersteunende activiteiten, zoals normalisatie, moeten ervoor zorgen dat de administratieve lasten tot een minimum beperkt blijven.
De Commissie zal in gestructureerde dialoog met de branche verder onderzoek doen naar het potentieel van normalisatie met betrekking tot meldingsprocedures en transparantierapportage over verwijderingssystemen en de effecten hiervan.
17.Garanties tegen overmatige verwijdering en misbruik van het systeem
Snel optreden, bijvoorbeeld door maatregelen te treffen om inhoud al bij het uploaden ervan te filteren of door automatische detectie toe te passen voor de onverwijlde verwijdering van illegale inhoud, kan, zeker wanneer er geen sprake is van menselijke tussenkomst, de nauwkeurigheid van de beslissing negatief beïnvloeden, waardoor onder meer het risico ontstaat dat legale inhoud wordt verwijderd. Daarom is het belangrijk om voor voldoende garanties te zorgen dat inhoud die bij vergissing werd verwijderd, kan worden hersteld.
18.Betwisting van een melding
Wie de inhoud heeft verstrekt, moet in het algemeen in de gelegenheid worden gesteld dit besluit aan te vechten via een tegenmelding. Dit geldt ook wanneer de inhoud automatisch is verwijderd.
Zo wordt in artikel 28 bis van het voorstel tot wijziging van de richtlijn audiovisuele mediadiensten gesteld dat lidstaten moeten waarborgen dat klachten- en beroepsregelingen beschikbaar zijn voor de beslechting van geschillen tussen gebruikers en aanbieders van videoplatforms wat betreft de toepassing van de passende maatregelen die door deze platforms moeten worden genomen.
Indien met de tegenmelding goede redenen zijn verstrekt om aan te nemen dat de gemelde activiteit of informatie niet illegaal is, moet de aanbieder van het platform de verwijderde inhoud zonder onnodige vertraging herstellen of de gebruiker toelaten de inhoud opnieuw te uploaden, onverminderd de gebruiksvoorwaarden van het platform.
De mogelijkheid om de beslissing aan te vechten moet het aantal onterechte verwijderingen van legale inhoud doen dalen en zou ook bewijsmateriaal kunnen opleveren voor mechanismen voor buitengerechtelijke geschillenbeslechting of gerechtelijke beroepsprocedures.
In bepaalde omstandigheden zou het ongepast zijn om de aanbieder van de inhoud op de hoogte te brengen en/of hem de kans te bieden een tegenmelding te doen — met name wanneer dit zou indruisen tegen de onderzoeksbevoegdheden van de nationale autoriteiten die noodzakelijk zijn voor de preventie, opsporing en vervolging van strafbare feiten, zoals in het geval van materiaal dat seksueel misbruik van kinderen bevat.
De onlineplatforms moeten voorzien in eenvoudige procedures voor tegenmeldingen. Wanneer een tegenmelding wordt ingediend, moet het platform deze beantwoorden en in het geval van een negatief besluit de redenen hiertoe vermelden. Wanneer in de betrokken lidstaat organen voor buitengerechtelijke geschillenbeslechting bestaan, worden de platforms aangemoedigd hiervan gebruik te maken om geschillen over tegenmeldingen te beslechten.
19.Maatregelen tegen meldingen en tegenmeldingen te kwader trouw
Tegelijkertijd worden meldings- en actieprocedures soms met slechte praktijken of te kwader trouw misbruikt. Dergelijke praktijken moeten sterk worden ontmoedigd, bijvoorbeeld door een lagere prioriteit te verlenen aan de behandeling van meldingen van melders die procentueel veel ongeldige meldingen doen of een groot aantal tegenmeldingen krijgen, of door de status van betrouwbare flagger in te trekken, op basis van gevestigde en transparante criteria. Om de mate van verantwoordingsplicht van onlineplatforms te verhogen, moet dergelijk beleid ook duidelijk worden beschreven in de gebruiksvoorwaarden van het onlineplatform en deel uitmaken van de algemene transparantieverslagen. Soortgelijke maatregelen moeten worden getroffen met betrekking tot verkeerde tegenmeldingen.
20.Voorkomen dat illegale inhoud opnieuw verschijnt
Eenmaal opgespoord en verwijderd zou illegale inhoud niet opnieuw online mogen verschijnen. Voor een goed functionerend systeem is het van essentieel belang dat op basis van bestaande goede praktijken en passende garanties efficiënt en effectief wordt voorkomen dat verwijderde inhoud opnieuw online verschijnt. Om te verhinderen dat bekend illegaal materiaal via verschillende platforms wordt verspreid, moeten aanbieders van onlinediensten nauwer samenwerken, met volledige inachtneming van de toepasselijke regels van het mededingingsrecht. Het is ook belangrijk dat rechtshandhavingsautoriteiten nauwer gaan samenwerken met kleine, minder weerbare platforms, die wellicht de voorkeur genieten van criminelen en andere personen die betrokken zijn bij illegale onlineactiviteiten, als blijkt dat deze kwetsbaarder zijn dan andere platforms.
21.Maatregelen tegen recidivisten
Om te vermijden dat illegale inhoud opnieuw verschijnt doordat gebruikers gelijkaardige illegale inhoud telkens weer uploaden, hebben veel onlineplatforms al maatregelen getroffen tegen recidivisten, zoals de opschorting of beëindiging van gebruikersaccounts of “shadow banning”.
Onlineplatforms moeten maatregelen treffen die gebruikers ontraden gelijkaardige illegale inhoud herhaaldelijk te uploaden en die erop gericht zijn de verspreiding van dergelijke illegale inhoud effectief te verstoren.
Dit moet ook gelden wanneer het om dezelfde inbreukpleger gaat, de desbetreffende inhoud van dezelfde aard is, en, waar zulks gerechtvaardigd is, de gebruiker onmiddellijk op de hoogte is gebracht van de melding(en) die zijn ontvangen tegen hem/haar en van de aanstaande opschorting of beëindiging van zijn/haar account. Hierdoor kan de gebruiker de beslissing betwisten en krijgt hij gemakkelijker toegang tot gerechtelijk beroep tegen de maatregel, indien dit van toepassing is volgens het contract tussen de gebruiker en het platform, en overeenkomstig het toepasselijke recht. In dergelijke gevallen moeten de persoonsgegevens eveneens volledig overeenkomstig de desbetreffende gegevensbeschermingsregels worden verwerkt.
Ook hier mag de aanbieder van de inhoud geen informatie of kennisgeving ontvangen wanneer dit zou indruisen tegen de onderzoeksbevoegdheden van de nationale autoriteiten die noodzakelijk zijn voor de preventie, opsporing en vervolging van strafbare feiten, mits hiervoor de noodzakelijke rechtsgrondslag bestaat.
22.Automatische filters tegen herhaald uploaden
Naast de technologieën die worden gebruikt om potentieel illegale inhoud, als vermeld in punt 3.3, te identificeren, kunnen ook technologische instrumenten met een hogere mate van betrouwbaarheid worden gebruikt voor het herkennen en filteren (“take down en stay down”) van inhoud die al als illegaal werd aangemerkt en beoordeeld. Daarom moedigt de Commissie ten zeerste het verdere gebruik van dergelijke instrumenten aan, behoudens garanties zoals omkeerbaarheid en uitzonderingen zoals hieronder aangegeven.
Dit is wat er momenteel gebeurt met de “databank van hashcodes” die in het kader van het EU-internetforum wordt gebruikt met betrekking tot terroristische inhoud, of op het gebied van auteursrechten of met betrekking tot materiaal dat seksueel misbruik van kinderen bevat, maar ook voor producten waarvan rechtshandhavingsautoriteiten hebben gemeld dat ze niet in overeenstemming zijn met de toepasselijke wetgeving. Deze praktijken hebben tot goede resultaten geleid. Hun doeltreffendheid hangt echter af van verdere verbeteringen om de onjuiste aanduiding van inhoud te beperken, het nemen van contextafhankelijke beslissingen te vergemakkelijken, en de noodzakelijke omkeerbaarheid te waarborgen.
Zo heeft de Commissie zich gebaseerd op de praktijk van automatische inhoudsherkenning met betrekking tot auteursrechten om dergelijke technologieën in haar voorstel inzake auteursrecht op de digitale eengemaakte markt – in zoverre zij geschikt en evenredig zijn – te erkennen als een mogelijk middel om bijvoorbeeld te voorkomen dat niet-vergunde inhoud beschikbaar wordt gesteld op de desbetreffende onlinediensten.
Procedures voor automatische stay-down moeten ruimte laten voor contextgerelateerde uitzonderingen en uitzonderingen wanneer verwijderde inhoud wordt aangepast en in overeenstemming wordt gebracht met juridische of andere voorschriften. De reikwijdte en het tijdschema van contextgerelateerde uitzonderingen moeten de specifieke aard van de inhoud en eventuele bijbehorende beveiligingsdreigingen weerspiegelen en rekening houden met de mogelijkheid om dergelijke inhoud tijdelijk op te schorten in afwachting van een grondigere beoordeling.
De Commissie moedigt ten zeerste het verdere gebruik en de verdere ontwikkeling aan van automatische technologieën waarmee wordt voorkomen dat illegale inhoud opnieuw online verschijnt.
Indien automatische instrumenten worden gebruikt om te voorkomen dat illegale inhoud opnieuw verschijnt, moet de omkeerbaarheid worden gewaarborgd voor gevallen waarin onjuiste beslissingen zijn genomen, en moeten het gebruik en de prestaties van deze technologie transparant worden vermeld in de gebruiksvoorwaarden van het platform.
Alle onlineplatforms moeten toegang krijgen tot databanken die gebruikt worden om opnieuw verschijnende illegale inhoud automatisch te vergelijken en te identificeren, onder voorbehoud dat eventuele verwerking gebeurt overeenkomstig de toepasselijke wetgeving inzake de bescherming van persoonsgegevens en inzake mededinging. Het privacybeleid van bedrijven moet transparante informatie omvatten over de verwerking van persoonsgegevens in het kader van dergelijke databanken.
Om alle illegale inhoud te kunnen herkennen, moeten onlineplatforms hun instrumenten ook voortdurend actualiseren en daarbij rekening houden met de veranderende tactieken en het veranderende gedrag van criminelen en andere personen die betrokken zijn bij illegale activiteiten op het internet. Instrumenten die worden ingezet tegen terroristische inhoud, moeten worden aangepast om nieuwe en oude inhoud op te sporen en snel te onderzoeken en te verwijderen. Dergelijke inhoud moet worden toegevoegd aan platformoverschrijdende instrumenten, zoals de genoemde databank van hashcodes (die momenteel wordt ingezet tegen terroristische inhoud). Om deze technologische ontwikkeling te bewerkstelligen, moeten onlineplatforms, bevoegde autoriteiten en andere belanghebbenden, met inbegrip van het maatschappelijk middenveld, met elkaar samenwerken.
23.Conclusie
De groeiende hoeveelheid illegale inhoud op onlineplatforms brengt de maatschappij reële schade toe en brengt onder meer risico’s mee voor de integriteit, waardigheid en gezondheid van onze burgers; indien dit probleem niet naar behoren wordt aangepakt, zal dit het vertrouwen ondermijnen in digitale diensten, en uiteindelijk ook in de digitale eengemaakte markt — een belangrijke motor voor innovatie, groei en werkgelegenheid. Ook al wordt dergelijke inhoud door derden gecreëerd en geüpload, toch dragen de onlineplatforms door hun voortdurend toenemende invloed in de samenleving – als toegangspoort tot inhoud en informatie – meer verantwoordelijkheden ten aanzien van hun gebruikers en de maatschappij in het algemeen. Daarom moeten zij proactief illegale inhoud verwijderen, voorkomen dat deze opnieuw verschijnt, effectieve meldings- en actieprocedures instellen, voorzien in goed werkende interfaces met derde partijen (zoals betrouwbare flaggers), en bijzondere prioriteit verlenen aan meldingen van nationale rechtshandhavingsautoriteiten. Wanneer onlineplatforms zich uitspreken over het illegale karakter van inhoud, met inachtneming van het recht, moet passende controlemechanismen worden ingesteld.
Deze mededeling reikt richtsnoeren aan en brengt niet als zodanig wijzigingen aan in het toepasselijke rechtskader en bevat geen juridisch bindende regels, maar biedt onlineplatforms in de eerste plaats een leidraad over de manieren waarop zij zich van hun verantwoordelijkheid kunnen kwijten bij de aanpak van door hen gehoste illegale inhoud. Met deze mededeling wordt eveneens beoogd goede procedurele praktijken uit te breiden tot verschillende vormen van illegale inhoud, en nauwere samenwerking tussen platforms en bevoegde autoriteiten te bevorderen. Zo worden de contouren getekend van een Europese aanpak ter bestrijding van illegale inhoud op onlineplatforms, waarbij rekening wordt gehouden met de behoefte om illegale inhoud snel en doeltreffend te verwijderen en strafbare feiten te voorkomen en te vervolgen, én met de eerbiediging van het recht op vrije meningsuiting op het internet. Deze richtsnoeren vormen een aanvulling op en een versterking van de lopende sectorale dialogen.
Er moet in het bijzonder op worden gelet dat ook kleinere onlineplatforms dergelijke procedures kunnen toepassen, en veel van de elementen van deze mededeling zijn uitgewerkt met hun specifieke behoeften in gedachten. Toch zal de Commissie ook bekijken of de toepassing van deze richtsnoeren door kleine platforms met verdere middelen kan worden ondersteund.
Op de digitale eengemaakte markt is het nodig dat beleidsreacties samenhangender zijn over de geografische grenzen heen. Deze mededeling is dan ook een eerste stap waarmee de Commissie gemeenschappelijke instrumenten aanbiedt om de gezamenlijke uitdaging met betrekking tot het verwijderen van illegale inhoud aan te gaan.
In de intentieverklaring van 13 september 2017 van de voorzitter van de Europese Commissie, gericht aan de voorzitter van het Europees Parlement en de voorzitter van de Raad van de Europese Unie, worden, met het oog op een ruimte van recht en grondrechten op basis van wederzijds vertrouwen, verdere maatregelen aangekondigd voor een snelle en proactieve opsporing en verwijdering van illegale inhoud waarin wordt aangezet tot haat, geweld en terrorisme. Deze mededeling vormt een eerste element van deze maatregelen. De Commissie verwacht dat onlineplatforms in de komende maanden snel zullen handelen, onder meer in het kader van desbetreffende dialogen, met name op het gebied van terrorisme en illegale haatzaaiende uitlatingen.
De Commissie zal haar uitwisselingen en dialogen met onlineplatforms en andere relevante belanghebbenden voortzetten. Zij zal de vooruitgang monitoren en beoordelen of er aanvullende maatregelen nodig zijn met het oog op de snelle en proactieve opsporing en verwijdering van illegale online-inhoud, met inbegrip van eventuele wetgevingsmaatregelen ter aanvulling van het bestaande regelgevingskader. Deze werkzaamheden zullen in mei 2018 zijn afgerond.