Bruxelles, den 28.9.2017

COM(2017) 555 final

MEDDELELSE FRA KOMMISSIONEN TIL EUROPA-PARLAMENTET, RÅDET, DET EUROPÆISKE ØKONOMISKE OG SOCIALE UDVALG OG REGIONSUDVALGET

Bekæmpelse af ulovligt indhold på nettet

Større ansvar for onlineplatforme


1.Indledning

1 Onlineplatforme er vigtige for innovationen og væksten i den digitale økonomi. De har muliggjort en hidtil uset adgang til information og udveksling og åbnet op for nye markedsmuligheder, navnlig for små og mellemstore virksomheder (SMV'er). Onlineplatforme udgør også det væsentligste adgangspunkt til information og andet indhold for de fleste mennesker i dag på internettet, hvad enten de benytter søgemaskiner, sociale netværk, websteder til mikroblogging eller videodelingsplatforme. Platformenes forretningsmodeller er på det seneste også blevet udviklet, så der knyttes tættere bånd mellem brugere og indhold – navnlig til brug for målrettede reklamer. Disse platforme forbinder milliarder af brugere med store mængder indhold og information og leverer innovative tjenester til borgere og virksomheder.

2 Imidlertid giver den omfattende spredning af ulovligt indhold, der kan uploades og derfor tilgås online, anledning til alvorlige bekymringer, der kræver stærke og effektive svar. Hvad der er ulovligt offline, er også ulovligt online. I EU er det på lige linje med udbredelse af materiale med seksuelt misbrug af børn ulovligt at tilskynde til terrorisme og at fremsætte fremmedfjendske og racistiske ytringer, der i offentligheden ansporer til had og vold. Den øgede tilgængelighed af terrorrelateret materiale på internettet og dets udbredelse udgør en alvorlig trussel mod sikkerheden og mod beskyttelsen af ofrenes værdighed. EU har reageret på disse problemer gennem en række foranstaltninger. Imidlertid udgør påvisning og fjernelse af ulovligt indhold på internettet en presserende udfordring for det digitale samfund i dag.

3 4 Under indtryk af rækken af terroranslag i EU og spredningen af terrorpropaganda på internettet erklærede Det Europæiske Råd af 22.-23. juni 2017, at det "forventer, at industrien vil [...] udvikle nye teknologier og værktøjer til at forbedre automatisk påvisning og fjernelse af indhold, der tilskynder til terrorhandlinger. Dette bør i nødvendigt omfang suppleres af de relevante lovgivningsmæssige foranstaltninger på EU-plan". Disse opfordringer har fundet opbakning i erklæringer fra G7- og G20-lederne på deres seneste topmøder. Tilsvarende opfordrede Europa-Parlamentet i sin beslutning om onlineplatforme af juni 2017 disse platforme "til at styrke foranstaltninger til bekæmpelse af ulovligt og skadeligt indhold" og opfordrede Kommissionen til at fremlægge forslag til løsning af disse problemer.

De onlineplatforme, der formidler adgang til indhold for de fleste internetbrugere, bærer et betydeligt samfundsmæssigt ansvar med hensyn til at beskytte brugerne og samfundet som helhed og forebygge, at forbrydere og andre personer, der er involveret i krænkende aktiviteter på internettet, udnytter deres tjenester. De åbne digitale mødesteder, de stiller til rådighed, må ikke danne grobund for f.eks. terror, ulovlige hadefulde ytringer, seksuelt misbrug af børn eller menneskehandel eller undslippe retssamfundet. Det er klart, at udbredelsen af ulovligt indhold på internettet kan underminere borgernes tillid og tiltro til det digitale miljø, men den kan også true den videre økonomiske udvikling af platformsøkosystemer og det digitale indre marked. Med onlineplatformenes centrale rolle i samfundet følger et ansvar, der bør give dem anledning til resolut at intensivere deres indsats for at løse dette problem.

Bekæmpelsen af ulovligt indhold på internettet skal foregå med passende og robuste beskyttelsesforanstaltninger, der skal sikre beskyttelse af de forskellige relevante grundlæggende rettigheder. I betragtning af deres stadig større betydning for adgangen til information har onlineplatforme også en vigtig rolle at spille, for at denne balance opnås. Bekæmpelsen af ulovligt indhold på internettet i EU bør bygge på og også tage hensyn til EU's aktioner på globalt plan.

I denne meddelelse fastlægges en række retningslinjer og principper for onlineplatforme til at intensivere kampen mod ulovligt indhold på internettet 5 i samarbejde med de nationale myndigheder, medlemsstaterne og andre relevante interessenter. Den har til formål at lette og intensivere gennemførelsen af god praksis for at forebygge, påvise, fjerne og hindre adgang til ulovligt indhold, så der sikres en effektiv fjernelse af ulovligt indhold, øget gennemsigtighed og beskyttelse af de grundlæggende rettigheder på internettet. Den har også til formål at afklare, hvilket ansvar platformene har, når de handler proaktivt for at påvise, fjerne eller hindre adgangen til ulovligt indhold (de såkaldte "barmhjertige samaritaner"-tiltag).

2.Baggrund

6 7 8 9 EU har allerede reageret på udfordringen med ulovligt indhold på internettet, både gennem bindende og ikkebindende foranstaltninger. Disse politiske tiltag omfatter direktivet om bekæmpelse af seksuelt misbrug og seksuel udnyttelse af børn og børnepornografi, direktivet om bekæmpelse af terrorisme, de foreslåede foranstaltninger i forbindelse med reformerne på ophavsretsområdet og af direktivet om audiovisuelle medietjenester.

10 11 12 13 14 15 16 17 Disse eksisterende og foreslåede forslag til lovgivningsmæssige foranstaltninger er blevet suppleret af en række ikkelovgivningsmæssige foranstaltninger såsom adfærdskodeksen for bekæmpelse af ulovlige hadefulde ytringer på internettet, EU's internetforum med hensyn til terrorpropaganda, aftalememorandummet om salg af forfalskede varer, Kommissionens meddelelse om markedsovervågning af varer, der sælges online, onlinesalg af produkter i fødevarekæden, EU's handlingsplan mod ulovlig handel med vilde dyr og planter, vejledning vedrørende direktivet om urimelig handelspraksis og de nationale myndigheders fælles foranstaltninger inden for netværket for forbrugerbeskyttelsessamarbejde. Den europæiske strategi for et bedre internet for børn er et selvstyrende initiativ, der har til formål at forbedre internetmiljøet for børn og unge, på baggrund af risiciene for at blive udsat for materiale, der f.eks. indeholder elementer af vold eller seksuel udnyttelse eller cybermobning.

18 I sine meddelelser fra 2016 og 2017 understregede Kommissionen, at der er behov for, at onlineplatformene handler mere ansvarligt og intensiverer deres EU-dækkende selvregulerende tiltag for at bekæmpe ulovligt indhold. Kommissionen har desuden forpligtet sig til at forbedre koordineringen af de forskellige sektorspecifikke dialoger med platforme og til at undersøge behovet for vejledning om formelle indberetnings- og fjernelsesprocedurer. Dette bør ske i forlængelse af og uden at dette berører allerede igangværende dialoger og arbejde, der er igangsat på andre områder, f.eks. inden for rammerne af den europæiske dagsorden om sikkerhed eller med hensyn til ulovlige hadefulde ytringer.

19 20 21 22 De seneste rapporter vedrørende nogle af disse sektorspecifikke initiativer har påvist tegn på fremskridt. Det fremgår af rapporter fra juni 2017, at der er sket en stigning i andelen af fjernet anmeldt materiale fra 28 til 59 procent i nogle EU-lande over en seksmåneders periode, men med betydelige forskelle mellem platformene. Der er i samme periode også registreret forbedringer i hastigheden, hvormed materiale er blevet fjernet, dog fjernes materialet i 28 procent af tilfældene først efter en uge. Dette viser, at en ikkelovgivningsmæssig tilgang kan kaste visse resultater af sig, navnlig når der sideløbende iværksættes foranstaltninger til at sikre fremme af samarbejdet mellem alle de berørte aktører. Inden for rammerne af EU's internetforum til håndtering af terrorrelateret indhold er ca. 80-90 % af det af Europol påviste indhold blevet fjernet, siden forummet blev oprettet. Med hensyn til materiale med seksuelt misbrug af børn fremviste INHOPE-hotlinesystemet allerede i 2015 effektivitet for fjernelse på 91 % inden for 72 timer, hvor 1 ud af 3 indholdsemner blev fjernet inden for 24 timer.

De forskellige igangværende sektorspecifikke dialoger viste også, at der er betydelige ligheder, hvad angår procedurer for påvisning, identifikation, fjernelse og hindring af genupload på tværs af de forskellige sektorer. Disse resultater er indarbejdet i denne meddelelse.

23 På EU-plan er den overordnede retlige ramme for fjernelse af ulovligt indhold direktivet om elektronisk handel, der bl.a. harmoniserer de betingelser, hvorunder visse onlineplatforme kan drage fordel af fritagelsen for ansvar for ulovligt indhold, som de lagrer i det digitale indre marked.

24 25 26 Ulovligt indhold på onlineplatforme kan brede sig navnlig gennem onlinetjenester, der giver mulighed for upload af indhold fra tredjeparter. Sådanne "hostingtjenester" er på visse betingelser omfattet af artikel 14 i e-handelsdirektivet. I den artikel fastsættes det, at udbydere af hostingtjenester ikke kan drages til ansvar for information, der lagres efter anmodning af tredjemand, forudsat at a) de ikke har konkret kendskab til den ulovlige aktivitet eller information og, for så vidt angår erstatningskrav, ikke har kendskab til forhold eller omstændigheder, hvoraf den ulovlige aktivitet eller information fremgår, eller b) at de fra det øjeblik, hvor de får et sådant kendskab, straks tager skridt til at fjerne informationen eller hindre adgangen til den. Samtidig bør direktivet "udgøre det rette grundlag for at udarbejde hurtige og pålidelige ordninger, som gør det muligt at fjerne ulovlig information og at hindre adgangen til den".

Desuden forbydes det i artikel 15, at medlemsstater pålægger "tjenesteyderne [når de yder de i artikel 14 omhandlede tjenester] en generel forpligtelse til at overvåge den information, de fremsender eller oplagrer, eller en generel forpligtelse til aktivt at undersøge forhold eller omstændigheder, der tyder på ulovlig virksomhed." Samtidig mindes der i betragtning 47 i direktivet om, at dette alene vedrører overvågningsforpligtelser af en generel natur og "ikke overvågningsforpligtelser i særlige tilfælde og berører navnlig ikke de nationale myndigheders bekendtgørelser i henhold til national lovgivning."

I denne forbindelse forpligtede Kommissionen sig i sin meddelelse fra 2016 om onlineplatforme til at bevare en afbalanceret og forudsigelig ansvarsordning for onlineplatforme som en afgørende reguleringsmæssig ramme til støtte for digital innovation i hele det digitale indre marked.

Vejledningen i denne meddelelse berører ikke gældende EU-ret og vedrører onlineplatformes aktiviteter og navnlig hostingtjenester, der ydes via disse platforme 27 som omhandlet i artikel 14 i e-handelsdirektivet, og omfatter alle kategorier af ulovligt indhold og tager samtidig behørigt hensyn til den omstændighed, at forskellige typer indhold kan skulle behandles forskelligt.

For indeværende findes der ikke en harmoniseret og sammenhængende tilgang til fjernelse af ulovligt indhold i EU. Faktisk findes der forskellige tilgange i EU afhængigt af medlemsstaten, indholdskategorien eller typen af onlineplatform. En mere samordnet tilgang ville gøre bekæmpelsen af ulovligt indhold mere effektiv. Den ville også gavne udviklingen af det digitale indre marked og reducere onlineplatformenes omkostninger ved at overholde en lang række forskellige regler, herunder for nye markedsaktørers omkostninger.

28 Det er vigtigt at understrege, at det i denne retlige ramme ikke fastlægges, endsige harmoniseres, hvad der udgør "ulovligt" indhold. Hvad der er ulovligt er bestemt ved specifik lovgivning på EU-plan, samt ved den nationale lovgivning. Mens f.eks. arten af, egenskaberne og kendetegnene ved samt skadevirkningen af terrorrelateret materiale, ulovlige hadefulde ytringer eller materiale med seksuelt misbrug af børn eller med relation til menneskehandel er meget forskellige fra krænkelser af immaterielle ejendomsrettigheder, produktsikkerhedsregler, ulovlig handelspraksis online eller onlineaktiviteter af ærekrænkende karakter, hører alle disse forskellige former for ulovligt indhold under samme overordnede retlige rammer, der er fastsat i direktivet om e-handel. Idet der er betydelige ligheder mellem fjernelsesprocesserne for disse forskellige typer indhold, omfatter meddelelsen enhver form for illegalt indhold på nettet, men tager højde for sektorspecifikke forskelle, hvor det er hensigtsmæssigt og velbegrundet.

I EU har domstole og nationale kompetente myndigheder, herunder retshåndhævende myndigheder, kompetence til at retsforfølge forbrydelser og pålægge forskriftsmæssige strafferetslige sanktioner over for en given aktivitets eller onlineoplysnings retsstridighed. Samtidig har onlineplatforme ret til at hindre, at deres infrastruktur og virksomhed anvendes til at begå forbrydelser, samt ansvar for at beskytte deres brugere og forebygge ulovligt indhold på deres platform, og de er typisk i besiddelse af tekniske midler til at identificere og fjerne sådant indhold. At dette er meget vigtigt, ses ved, at onlineplatforme har investeret massivt i udvikling af avancerede teknologier til proaktivt at indsamle oplysninger om indhold, der cirkulerer på deres platforme, og om brugernes adfærd. Det er vigtigt, at der hurtigt træffes afgørelse om fjernelse af ulovligt indhold, men der er også behov for at træffe passende beskyttelsesforanstaltninger. Dette kræver også, at der er balance mellem offentlige og private organer.

De retningslinjer og principper, der er opstillet i denne meddelelse, fokuserer derfor ikke kun på påvisning og fjernelse af ulovligt indhold; de søger også at løse problemer i forbindelse med fjernelse af lovligt indhold, undertiden kaldet "over-removal", hvilket igen har konsekvenser for ytringsfriheden og mediepluralismen. Der bør derfor fastsættes passende beskyttelsesforanstaltninger tilpasset de pågældende specifikke typer af ulovligt indhold.

29 Der er uden tvivl indhold, der giver anledning til bekymring for offentligheden, som ikke nødvendigvis er ulovligt, men potentielt skadeligt, såsom falske nyheder eller indhold, der er skadeligt for mindreårige. De retningslinjer og principper, der er opstillet i denne meddelelse, fokuserer imidlertid på påvisning og fjernelse af ulovligt indhold.

3.Påvisning og anmeldelse af ulovligt indhold 

Formålet med dette afsnit er at fastsætte, hvad onlineplatforme, kompetente myndigheder og brugere bør gøre for at påvise ulovligt indhold hurtigt og effektivt.

Onlineplatforme kan blive bekendt med eksistensen af ulovligt indhold på en række forskellige måder gennem forskellige kanaler. Sådanne kanaler for anmeldelser omfatter i) retsafgørelser eller administrative afgørelser; ii) indberetninger fra kompetente myndigheder (f.eks. retshåndhævende organer), specialiserede "pålidelige indberettere", indehavere af immaterielle ejendomsrettigheder eller almindelige brugere, eller iii) gennem platformenes egne undersøgelser eller viden.

Ud over retlige forpligtelser, der stammer fra EU-lovgivning og national lovgivning og deres "pligt til omhu", hører det under onlineplatformes ansvar, at de bør sikre et sikkert onlinemiljø for brugerne, der yder modstand mod kriminel virksomhed og anden ulovlig udnyttelse, og som afskrækker og hindrer forbrydelser og andre krænkende aktiviteter på internettet.

4.Domstole og kompetente myndigheder

30 I overensstemmelse med EU-lovgivning og/eller national lovgivning kan nationale domstole og i visse tilfælde de kompetente myndigheder udstede bindende pålæg eller administrative afgørelser rettet til onlineplatforme, der forpligter dem til at fjerne eller hindre adgang til ulovligt indhold.

Da det for at begrænse udbredelsen og skaden ofte er afgørende, at ulovligt materiale fjernes hurtigt, bør onlineplatforme også være i stand til at træffe hurtige afgørelser, for så vidt angår mulige foranstaltninger med hensyn til ulovligt indhold på nettet, uden at være forpligtet hertil på grundlag af en retsafgørelse eller administrativ afgørelse, navnlig når en retshåndhævende myndighed identificerer og oplyser dem om angiveligt ulovligt indhold. Samtidig bør onlineplatforme indføre tilstrækkelige beskyttelsesforanstaltninger, når de søger at leve op til deres forpligtelser i denne henseende, med henblik på at sikre brugernes ret til effektive retsmidler.

31 Onlineplatforme bør derfor have de nødvendige ressourcer til at forstå de retlige rammer, som de opererer indenfor. De bør også arbejde tæt sammen med retshåndhævende myndigheder og andre kompetente myndigheder, hvor det er relevant, navnlig ved at sikre, at de hurtigt og effektivt kan kontaktes med anmodning om straks at få fjernet ulovligt indhold og, hvis det er relevant, gøre de retshåndhævende myndigheder opmærksomme på tegn på kriminel aktivitet online. For at undgå dobbeltarbejde og overlappende indberetninger, hvorved fjernelsesprocessens effektivitet og virkning mindskes, bør retshåndhævende myndigheder og andre kompetente myndigheder også på alle måder bestræbe sig på at samarbejde om fastlæggelsen af effektive digitale grænseflader, som letter hurtig og pålidelig indgivelse af anmeldelse, og sikre effektiv identifikation og indberetning af ulovligt indhold. Det er afgørende for, at et sådant samarbejde kan fungere korrekt, at platforme og myndigheder etablerer kontaktpunkter.

32 For så vidt angår terrorrelateret indhold, er der blevet etableret en EU-enhed for indberetning af internetindhold (IRU) i Europol, hvor sikkerhedseksperter vurderer og indberetter terrorrelateret indhold til onlineplatforme (nogle medlemsstater har imidlertid deres egne nationale IRU'er).

Onlineplatforme bør systematisk styrke deres samarbejde med kompetente myndigheder i medlemsstaterne, mens medlemsstaterne bør sikre, at domstolene er i stand til effektivt at reagere på ulovligt indhold på nettet, samt et stærkere (grænseoverskridende) samarbejde mellem myndighederne.

Onlineplatforme og retshåndhævende myndigheder eller andre kompetente myndigheder bør udpege effektive kontaktpunkter i EU og om nødvendigt opsætte effektive digitale grænseflader for at lette deres interaktion.

Platforme og retshåndhævende myndigheder opfordres også til at udvikle tekniske grænseflader, der gør det muligt for dem at samarbejde mere effektivt i hele indholdsforvaltningscyklussen. Det kan også være nyttigt at samarbejde med den tekniske sagkundskab for at opnå fremskridt med hensyn til udarbejdelse af effektive og teknisk forsvarlige løsninger på denne udfordring.

5.Indberetninger

6.Pålidelige indberettere

Fjernelse af ulovligt indhold på nettet sker hurtigere og mere pålideligt, når onlineplatforme indfører mekanismer, der giver indberettere med en særlig ekspertise en privilegeret kanal til indberetning af potentielt ulovligt indhold på deres websted. De såkaldte "pålidelige indberettere" er specialiserede enheder med særlig ekspertise i at identificere ulovligt indhold og særlige strukturer til at påvise og identificere sådant indhold online.

I forhold til almindelige brugere kan pålidelige indberettere forventes at besidde ekspertise og arbejde med høje kvalitetsstandarder, hvilket bør resultere i indberetninger af højere kvalitet og hurtigere fjernelse. Onlineplatforme tilskyndes til at gøre brug af de eksisterende netværk af pålidelige indberettere. Med hensyn til terrorrelateret indhold har Europols enhed for internetindberetning f.eks. den nødvendige ekspertise til at vurdere, hvorvidt et givet onlineindhold fremmer terrorisme eller voldelig ekstremisme, og bruger denne ekspertise til at handle som en pålidelig indberetter, og dette gør enheden i tillæg til sin retshåndhævende rolle. INHOPE-netværket af hotlines til indberetning af materiale med seksuelt misbrug af børn er et andet eksempel på en pålidelig indberetter; med hensyn til ulovlige hadefulde ytringer findes der civilsamfundsorganisationer og halvoffentlige organer, der har specialiseret sig i identificering og indberetning af ulovligt onlinemateriale med racistisk og fremmedfjendsk indhold.

Med henblik på at sikre indberetninger af høj kvalitet og hurtigere fjernelse af ulovligt indhold kunne sektoren på EU-niveau aftale kriterier baseret navnlig på respekt for de grundlæggende rettigheder og demokratiske værdier. Det kan ske gennem selvregulerende mekanismer eller inden for EU's rammer for standardisering, under hvilke en bestemt enhed kan betragtes som en pålidelig indberetter, og som giver tilstrækkelig fleksibilitet til at tage hensyn til indholdsspecifikke egenskaber og den pålidelige indberetters rolle. Sådanne andre kriterier kan bl.a. omfatte interne uddannelsesstandarder, metodestandarder og kvalitetssikring samt retlige garantier for uafhængighed, interessekonflikter, beskyttelse af privatlivets fred og personoplysninger, idet denne liste ikke udtømmende. Disse garantier er særligt vigtige i det begrænsede antal tilfælde, hvor platforme kan fjerne indhold efter underretning fra den pålidelige indberetter, uden at de undersøger lovligheden af indholdet nærmere. I disse begrænsede tilfælde kunne pålidelige indberettere også underkastes revision på grundlag af disse kriterier, og en certificeringsordning kunne benyttes til at bekræfte statussen som pålidelig. I alle tilfælde bør der være tilstrækkelige beskyttelsesforanstaltninger til at forhindre misbrug af systemet, som beskrevet i afsnit 4.3.

De kompetente myndigheder bør have mulighed for at deltage i indberetningsmekanismerne for pålidelige indberettere, hvor det er relevant.

Der skal findes en rimelig balance mellem at sikre en høj kvalitet af indberetninger fra pålidelige indberettere, omfanget af supplerende foranstaltninger, som virksomhederne vil træffe med hensyn til pålidelige indberettere, og den indsats, der skal ydes for at sikre disse kvalitetsstandarder. I tilfælde af misbrug af mekanismer til pålidelig indberetning, der hviler på etablerede standarder, bør indberetterens status som pålidelig tages fra vedkommende.

Kommissionen opfordrer til et tæt samarbejde mellem onlineplatforme og pålidelige indberettere. Meddelelser fra pålidelige indberettere bør kunne behandles hurtigt via platformen. Dette samarbejde bør gøre det muligt gensidigt at udveksle oplysninger med henblik på at evaluere og forbedre fjernelsesprocessen over tid.

Kommissionen vil yderligere undersøge, navnlig i dialoger med de relevante interessenter, muligheden for at nå til enighed om fælles EU-kriterier for en pålidelige indberettere.

7.Indberetninger fra brugere

Hvis ulovligt indhold på nettet skal bekæmpes effektivt, bør almindelige brugere gives mulighed for at gøre onlineplatforme opmærksomme på ulovligt indhold og have tillid til, at begrundede indberetninger undersøges og behandles hurtigt.

Onlineplatforme bør etablere en lettilgængelig og brugervenlig mekanisme, der gør det muligt for deres brugere at indberette indhold på platformene, der anses for ulovligt.

Hvis indholdet er offentligt tilgængeligt, bør sådanne indberetningsmekanismer også være tilgængelige for offentligheden, uden at man skal logge ind som bruger. For at forbedre effektiviteten og nøjagtigheden af vurderingen af potentielt ulovligt indhold, bør en sådan mekanisme give mulighed for nem elektronisk indberetning.

Kommissionens forslag om revision af direktivet om audiovisuelle medietjenester sigter mod at skabe en forpligtelse for udbydere af videodelingsplatforme til at etablere og drive mekanismer, som brugere kan bruge til at indberette audiovisuelt indhold, der kan skade den fysiske, psykiske eller moralske udvikling hos mindreårige, samt indhold, der tilskynder til vold eller had.

8.Det sikres, at indberetningerne er af god kvalitet

Onlineplatforme bør etablere effektive mekanismer til at lette indberetning af indhold, når indberetningerne er tilstrækkeligt præcise og velbegrundede til at gøre det muligt for platforme for at træffe en hurtig og velfunderet afgørelse om opfølgning. Dette bør medvirke til, at indberetningerne indeholder en redegørelse for årsagerne til, hvorfor indberetteren anser indholdet for at være ulovligt, og en klar angivelse af det ulovlige indholds placering (f.eks. URL-adressen).

Disse indberetningsmekanismer bør være synlige, let tilgængelige, brugervenlige og kontekstspecifikke. De bør også give mulighed for nem indberetning af forskellige typer af indhold, f.eks. ved at vælge fra en liste over kategorier af årsager til, at indholdet anses for ulovligt. Hvis det er teknisk muligt, kan der gives mulighed for f.eks. at indberette materiale, så snart man støder på det, ligesom der kan gives mulighed for at genanvende login-oplysninger.

Sådanne tilstrækkeligt dokumenterede og detaljerede indberetninger giver platformen mulighed for at finde potentielt ulovligt indhold, foretage en velfunderet evaluering af indholdets lovlighed og straks skride til handling, når det er relevant. Afhængigt af materialets type kan der være store forskelle mellem den nøjagtige detaljeringsgrad, som er nødvendig, for at en platform straks kan træffe velinformerede afgørelser.

Brugerne bør normalt ikke være forpligtede til at identificere sig, når de indberetter, hvad de betragter som ulovligt indhold, medmindre disse oplysninger er nødvendige for at fastslå, om indholdet er lovligt (f.eks. ved vurdering af ejendomsretten til immaterielle ejendomsrettigheder). Dette er navnlig tilfældet, når deres sikkerhed kan være truet, eller når det kan få juridiske konsekvenser at afsløre sin identitet. Brugere bør tilskyndes til at foretage indberetning gennem pålidelige indberettere, hvor sådanne findes, når de ønsker at bevare anonymitet over for platformene.

Imidlertid bør indberettere have mulighed for frivilligt at indsende deres kontaktoplysninger i en indberetning for at gøre det muligt for onlineplatformen at anmode om yderligere oplysninger eller at underrette indberetteren om en eventuel påtænkt opfølgning. I dette tilfælde bør indberetteren modtage en bekræftelse på modtagelse og en meddelelse om opfølgning af indberetningen.

En bekræftelse på modtagelse tjener ikke blot til at spare indberetteren for at kontrollere, om der er blevet fulgt op på dennes indberetning, men kan også anvendes som dokumentation i retssager eller i udenretslige procedurer i overensstemmelse med de regler, der anvendes ved sådanne procedurer.

9.Onlineplatformenes proaktive foranstaltninger

10.Proaktive foranstaltninger og ansvarsfritagelsen

I lyset af deres centrale rolle og muligheder og det dermed forbundne ansvar bør onlineplatforme vedtage effektive proaktive foranstaltninger for at påvise og fjerne ulovligt indhold på nettet og ikke blot begrænse sig til at reagere på indberetninger. Desuden kan det for visse kategorier af ulovligt indhold være umuligt fuldt ud at nå målet om at mindske risikoen for alvorlig skade, hvis ikke platformene træffer sådanne proaktive foranstaltninger.

Kommissionen finder, at anvendelsen af sådanne frivillige proaktive foranstaltninger ikke automatisk medfører, at onlineplatformen mister fordelen ved den ansvarsfritagelse, der er fastsat i artikel 14 direktivet om elektronisk handel.

For det første kan denne ansvarsfritagelse kun gælde for udbydere af hostingtjenester, der opfylder betingelserne i direktivets artikel 14; disse tjenesteudbydere er dem, hvis aktiviteter består i lagring af information efter tredjemands anmodning, og som ikke spiller en aktiv rolle på en måde, der giver dem viden om eller kontrol over denne information 33 . 

I betragtning 38 i Kommissionens forslag til et direktiv om ophavsret på det digitale indre marked af 14. september 2016 hedder det i den forbindelse: "Ved anvendelsen af artikel 14 [i direktivet om e-handel] er det nødvendigt at fastslå, om tjenesteyderen spiller en aktiv rolle, f.eks. ved at optimere præsentationen af de uploadede værker eller andre frembringelser eller gøre reklame for dem, uanset hvilke midler der anvendes dertil."

Specifikt med hensyn til artikel 14 direktivet om e-handel præciserede Domstolen i sagen L'Oréal mod eBay, at "den omstændighed alene, at [en onlineplatform] lagrer salgsudbud på sin server, fastsætter betingelser for levering af sine ydelser, oppebærer betaling herfor og giver en række generelle oplysninger til sine klienter, [har] ikke [...] til følge, at [onlineplatformen] ikke omfattes af de undtagelser fra ansvar, som er fastsat i [artikel 14 i direktivet om e-handel]" 34 . Imidlertid fastslog Domstolen, at denne følge gælder "[s]åfremt [onlineplatformen] derimod har ydet bistand bestående i bl.a. at optimere eller fremme de omhandlede slagsudbud" 35 .

Dette indebærer, at den blotte omstændighed, at en onlineplatform træffer visse foranstaltninger vedrørende levering af dens tjenesteydelser generelt, ikke nødvendigvis betyder, at den spiller en aktiv rolle med hensyn til det konkrete indhold, som den lagrer, og at onlineplatforme ikke kan nyde godt af ansvarsfritagelsen af denne grund. Efter Kommissionens opfattelse kan og bør sådanne foranstaltninger også omfatte proaktive foranstaltninger til at påvise og fjerne ulovligt indhold på nettet, navnlig når disse foranstaltninger træffes som led i anvendelsen af onlineplatformens vilkår for brug. Dette vil være i overensstemmelse med opnåelse af den balance mellem de forskellige interesser, der er på spil, som efterstræbes i direktivet om e-handel 36 . Af direktivet fremgår det således, at det er i alle involverede parters interesse at udarbejde og gennemføre hurtige og pålidelige procedurer for fjernelse af og hindring af adgang til ulovlig information 37 . Selv om dette direktiv er til hinder for, at onlineplatforme generelt pålægges aktivt at undersøge forhold 38 , anerkender det også betydningen af frivillige foranstaltninger 39 .

For det andet kan tjenesteudbydere, der er omfattet af artikel 14 i e-handelsdirektivet, alene drage fordel af ansvarsfritagelsen på to betingelser, nemlig: a) at de ikke har konkret kendskab til den ulovlige aktivitet eller information og, for så vidt angår erstatningskrav, ikke har kendskab til forhold eller omstændigheder, hvoraf den ulovlige aktivitet eller information fremgår, eller b) fra det øjeblik, hvor de får et sådant kendskab, straks tager skridt til at fjerne informationen eller hindre adgangen til den.

Domstolen har fastslået, at disse betingelser gælder "enhver situation, hvor [onlineplatformen] på den ene eller anden måde får kendskab til [forhold eller omstændigheder, som ville have fået en påpasselig erhvervsdrivende til at opdage ulovlighederne]", og at dette omfatter – ud over tredjeparts indberetning – enhver situation, hvor platformen "opdager en ulovlig aktivitet eller information på baggrund af en undersøgelse, der er foretaget på [platformens] eget initiativ" 40 . 

Det følger heraf, at proaktive foranstaltninger truffet af en onlineplatform til at påvise og fjerne ulovligt indhold kan medføre, at den pågældende platform får kendskab til ulovlige aktiviteter eller ulovlige informationer, hvilket kunne føre til tab af ansvarsfritagelsen i overensstemmelse med litra a) i artikel 14, stk. 1, i e-handelsdirektivet. I sådanne tilfælde har onlineplatformen imidlertid fortsat mulighed for at tage skridt til straks at fjerne eller hindre adgangen til de pågældende informationer fra det øjeblik, hvor platformen får et sådant kendskab. Gør den dette, vil den fortsat nyde godt af ansvarsfritagelsen i henhold til litra b) i artikel 14, stk. 1. Derfor bør bekymring for at miste fordelen ved ansvarsfritagelsen ikke afskrække fra eller hindre anvendelsen af de effektive proaktive frivillige forholdsregler, som denne meddelelse har til formål at fremme.

11.Anvendelse af teknologi til at påvise ulovligt indhold

I betragtning af den store mængde materiale, der formidles af onlineplatforme, samt de teknologiske fremskridt inden for informationsbehandling og maskinintelligens bliver automatisk påvisning og filterteknologier et stadig vigtigere redskab i bekæmpelsen af ulovligt indhold på nettet. Mange store platforme gør nu brug af en eller anden form for matchningalgoritme baseret på en række forskellige teknologier, fra simpel metadatafiltrering til hashing og fingerprinting.

I e-handelsdirektivet fastsættes det, at ansvarsbestemmelserne i dette direktiv ikke er til hinder for, at der udvikles og idriftsættes tekniske beskyttelses- og identifikationssystemer samt tekniske overvågningsinstrumenter, som den digitale teknik muliggør 41 . Som det også fremgår af direktivet, skal en sådan drift imidlertid finde sted inden for rammerne af de EU-regler og den nationale lovgivning, der finder anvendelse, navnlig vedrørende privatlivs- og databeskyttelse og forbuddet mod, at medlemsstater indfører generelle forpligtelser om overvågning 42 .

Der kan i sektorspecifik lovgivning fastsættes obligatoriske regler om, at onlineplatforme skal handle f.eks. med hensyn til ophavsret for at bidrage til at sikre påvisning og fjernelse af ulovligt indhold, også når de er omfattet af ansvarsfritagelsen i artikel 14 i e-handelsdirektivet.

Mere generelt opfordres der til at bruge og videreudvikle sådan teknologi, navnlig når der er risiko for alvorlig skade, jf. Det Europæiske Råds konklusioner af 22. juni 2017 43 . Der kan anvendes automatiske værktøjer og filtre til at identificere potentielt krænkende indhold, og privat og offentlig forskning gør fremskridt med at udvikle sådanne værktøjer. F.eks. har automatisk indholdsgenkendelse gennem flere år vist sig at være et effektivt redskab inden for ophavsret.

Kommissionen støtter yderligere forskning og innovative tilgange, der går videre end det aktuelle tekniske niveau med det formål at øge pålideligheden af de tekniske midler til at identificere ulovligt indhold 44 . Den opfordrer også branchen til at sikre en effektiv udbredelse af innovationer, der kan bidrage til at øge effektiviteten og virkningen af automatiske påvisningsprocedurer.

I de fleste tilfælde er den bedste nuværende praksis inden for branchen at anvende automatiske værktøjer til at indsnævre det omtvistede indhold, så det kan sikkerhedskontrolleres af eksperter, som så kan vurdere, om det er ulovligt. Det er generelt et vigtigt princip at inkludere mennesker i automatiske procedurer, der har til formål at fastslå, om et bestemt indhold er lovligt, især inden for områder, hvor fejlraterne er høje, eller hvis det er nødvendigt at forstå forholdene i deres kontekst. 

Kommissionen er af den opfattelse, at de proaktive foranstaltninger, som træffes af de onlineplatforme, der er omfattet af artikel 14 i direktivet om e-handel, for at påvise og fjerne ulovligt indhold, som de lagrer – herunder brugen af automatiserede værktøjer og værktøjer, der har til formål at sikre, at indhold, der tidligere er blevet fjernet, ikke genuploades – ikke i sig selv fører til et tab af ansvarsfritagelsen.

Navnlig indebærer sådanne foranstaltninger ikke nødvendigvis, at den pågældende onlineplatform spiller en aktiv rolle, som ikke længere gør det muligt at drage fordel af denne fritagelse. Hvis disse foranstaltninger fører til, at onlineplatformen får konkret kendskab til ulovlige aktiviteter eller ulovlig information, skal den straks tage skridt til at fjerne eller hindre adgangen til den pågældende ulovlige information for at opfylde betingelsen for, at der fortsat kan drages fordel af denne fritagelse.

Onlineplatforme bør gøre deres yderste for proaktivt at påvise, identificere og fjerne ulovligt indhold på nettet. Kommissionen opfordrer kraftigt onlineplatforme til at anvende frivillige, proaktive foranstaltninger til påvisning og fjernelse af ulovligt indhold og til at intensivere samarbejdet om, investering i og anvendelse af teknologier til automatisk påvisning.

12.Fjernelse af ulovligt indhold 

45 Det er i hele samfundets interesse, at platforme bør fjerne ulovligt indhold så hurtigt som muligt. Samtidig bør fjernelse af sådant indhold ikke hindre retsforfølgning af eller anden opfølgning af eventuel underliggende lovovertrædelse. I den henseende er det en vigtig politik at udveksle dokumentation mellem offentlige myndigheder og onlineplatforme. Det kommende lovgivningsinitiativ om dette spørgsmål bør lette grænseoverskridende adgang til dokumentation. Det bør ikke påvirke undersøgelser eller retsforfølgelse af overtrædelser med udgangspunkt i EU-ret eller national lovgivning, at platforme fjerner ulovligt indhold.

Der bør også være robuste beskyttelsesforanstaltninger, der begrænser risikoen for fjernelse af lovligt indhold til rådighed, som understøttes af meningsfulde gennemsigtighedsforpligtelser, så ansvarligheden i fjernelsesprocedurerne øges.

13.Sikring af hurtig fjernelse af kriminalitet og indberetning af forbrydelser til de retshåndhævende myndigheder

I henhold til direktivet om e-handel skal onlineplatforme "straks" tage skridt til at fjerne ulovligt indhold, efter de har fået kendskab dertil, hvis de fortsat ønsker at drage fordel af ansvarsfritagelsen. Hvad dette betyder i praksis, afhænger af de specifikke forhold, der kendetegner den foreliggende sag, navnlig arten af ulovligt indhold, indberetningens nøjagtighed og de potentielle skadevirkninger.

I praksis kræver forskellige indholdstyper forskellige mængder af kontekstuelle oplysninger, for at lovligheden af et bestemt indhold kan vurderes. Det er let at fastslå, om materiale, der viser seksuelt misbrug af børn, er ulovligt, men det kræver grundig analyse af konteksten at afgøre, om ærekrænkende udtalelser er ulovlige.

Hvor der er risiko for alvorlig skade, f.eks. i tilfælde af tilskyndelse til terrorhandlinger, er det særlig vigtigt at foretage hurtig fjernelse, som kan være underlagt specifikke tidsfrister. 

I nogle frivillige procedurer såsom adfærdskodeksen for bekæmpelse af ulovlige hadefulde ytringer på nettet er der fastsat vejledende tidsfrister for fjernelse, hvilket i dette adfærdskodeks er 24 timer i de fleste tilfælde.

Det kan være særligt effektivt med fuldt automatiseret sletning eller suspendering af indhold, og denne fremgangsmåde bør anvendes, når omstændighederne ikke efterlader megen tvivl om, at materialet er ulovligt, f.eks. i tilfælde af fjernelse af materiale, som er indberettet af retshåndhævende myndigheder, eller af kendt ulovligt indhold, der tidligere er blevet fjernet under anvendelse af de beskyttelsesforanstaltninger, der er omhandlet i afsnit 4.3.

Som en generel regel bør der reageres hurtigere på henvendelser om fjernelse fra pålidelige indberettere på grund af kvaliteten og nøjagtigheden af de oplysninger, der gives i indberetningen, og indberetternes pålidelighed.

I tilfælde hvor der er risiko for økonomisk skade som følge af overtrædelse af immateriel ejendomsret, kan den potentielle økonomiske skade som følge af en sådan krænkelse i høj grad afhænge af, hvor hurtigt den fjernes.

Det vil lette vurderingen af, hvor hurtigt platformene handler og øge platformenes ansvarliggørelse, hvis platformene på tydelig vis indberetter den tid, det tager dem at behandle anmodninger om fjernelse afhængigt af typen af indhold. 

I visse tilfælde, navnlig når onlineplatforme har svært ved at vurdere lovligheden af et bestemt indhold, og det vedrører en potentielt kontroversiel afgørelse, kan de drage fordel af at forelægge tvivlstilfælde for en tredjepart for at få rådgivning. Selvregulerende organer eller kompetente myndigheder spiller denne rolle i forskellige medlemsstater. Det anbefales kraftigt at indgå i et sådant samarbejde som en del af det styrkede samarbejde mellem onlineplatforme og kompetente myndigheder.

46 Endelig bør onlineplatforme varsko de retshåndhævende myndigheder, når de gøres bekendt med eller støder på dokumentation for strafbare handlinger eller andre overtrædelser med henblik på at varsle og sætte de kompetente myndigheder i stand til at efterforske og retsforfølge enkeltpersoner, der skaber et sådant indhold, eller misbrug af tjenesterne af organiserede kriminelle grupper eller terrorgrupper. Når platformene gør dette, bør de overholde de gældende lovgivningsmæssige krav, herunder forordning (EU) 2016/679 om beskyttelse af personoplysninger. Dette kan også være hensigtsmæssigt i tilfælde af produktsalg og handelspraksisser, som ikke overholder EU-lovgivningen.

I nogle tilfælde kan behovet for at samarbejde med retshåndhævende myndigheder om undersøgelsen og retsforfølgelsen af forbrydelser også medføre, at platformene afstår fra at fjerne det pågældende ulovlige indhold, når dette er et krav i forbindelse med en bestemt igangværende undersøgelse, der foretages i tæt samarbejde med nationale myndigheder og i fuld overensstemmelse med nationale retsplejebestemmelser.

47 48 49 De retshåndhævende myndigheder bør opbygge den kapacitet, der er nødvendig for at træffe passende foranstaltninger til at reagere på platformenes indberetninger. Et eksempel på bedste praksis for kontraktpunkter er SIRIUS-portalen, der er oprettet af Europol til at støtte medlemsstaternes terrorbekæmpende undersøgelser, herunder fremme af samarbejdet mellem platforme og retshåndhævelse i EU.

I overensstemmelse med artikel 14 i e-handelsdirektivet skal onlineplatforme straks fjerne ulovligt indhold, når de bliver gjort opmærksomme på eller selv bliver opmærksomme på det, hvis de ønsker at drage fordel af ansvarsfritagelsen. Navnlig er hurtig fjernelse vigtig, når det drejer sig om ulovligt indhold, der kan forårsage alvorlig skade, f.eks. i tilfælde af tilskyndelse til terrorhandlinger. Den tid, det tager at fjerne indholdet, og procedurerne for fjernelse af forskellige former for ulovligt indhold bør tydeligt fremgå af gennemsigtighedsrapporter.

Spørgsmålet om, hvorvidt der skal indføres faste tidsfrister for fjernelse, vil blive analyseret yderligere af Kommissionen.

Dokumentation for strafbare handlinger, der er tilvejebragt i forbindelse med fjernelse af ulovligt indhold, bør indberettes til de retshåndhævende myndigheder, forudsat at dette er i overensstemmelse med bl.a. kravene i forordning (EU) 2016/679, navnlig de lovlige grunde til behandling af personoplysninger.

14.Øget gennemsigtighed 

15.Gennemsigtighed vedrørende onlineplatformenes regler for indhold

Spørgsmålet om, hvorvidt indhold er lovligt eller ulovligt, reguleres af EU-lovgivning og national lovgivning. Samtidig kan der i onlineplatformenes egne brugsvilkår være bestemmelser om, at bestemte typer af indhold er uønsket eller upassende.

50 Onlineplatforme bør oplyse om detaljerne i deres bestemmelser om indhold i deres brugsvilkår og tydeligt formidle disse til deres brugere. I disse vilkår bør det ikke blot fastsættes, hvordan indhold fjernes eller adgangen dertil hindres, men det bør også tydeligt fremgå, hvordan beskyttelsesmekanismer sikrer, at der ikke fjernes lovligt indhold ("over-removal"). Onlineplatformes brugsvilkår bør tydeligt redegøre for, hvordan brugerne kan anfægte afgørelser om fjernelse af indhold som led i en indsats for at øge gennemsigtigheden af platformenes generelle bestemmelser om fjernelse af indhold. Dette bør hjælpe til at reducere den potentielle negative virkning af brugernes grundlæggende ret til ytrings- og informationsfrihed.

Onlineplatforme bør give en tydelig, let forståelig og tilstrækkeligt detaljeret forklaring om bestemmelserne om indhold i deres brugsvilkår. Disse vilkår bør både tage højde for behandlingen af ulovligt indhold og indhold, der ikke er i overensstemmelse med platformens brugsvilkår. Der bør klart redegøres for enhver begrænsning i arten af tilladt indhold på en bestemt platform, ligesom denne bør formidles til brugerne. Denne redegørelse bør også omfatte de procedurer, der findes til at anfægte afgørelser om fjernelse af indhold, herunder procedurer, der igangsættes af pålidelige indberettere.

16.Gennemsigtighed med hensyn til indberetnings- og fjernelsesprocedurer

Indberetning om gennemsigtighed bør også omfatte resultatet af anvendelsen af platformenes bestemmelser om forvaltning af indhold.

Onlineplatforme bør offentliggøre rapporter om gennemsigtighed med tilstrækkeligt detaljerede oplysninger om antallet og typen af modtagne meddelelser og de foranstaltninger, der er truffet, samt behandlingstiden og kilden til indberetningen 51 . Disse rapporter bør også indeholde oplysninger om eventuelle anfægtelser af afgørelser og svar herpå. Kommissionen opfordrer til, at disse oplysninger offentliggøres med jævne mellemrum og mindst en gang om året.

Med forbehold af forskelle, der skyldes indholdets beskaffenhed, ville disse gennemsigtighedsrapporter have gavn af en vis standardisering på tværs af det digitale indre marked. Det ville gøre det muligt at foretage bedre overvågning og lette den elektroniske aggregering af sådanne oplysninger, og det kunne bidrage til at undgå unødvendige barrierer for grænseoverskridende ydelse af hostingtjenester.

Der bør lægges særlig vægt på at sætte mindre onlineplatforme og SMV'er i stand til at tilvejebringe sådanne data om gennemsigtighed, og eventuelle støtteaktiviteter såsom standardisering bør sikre, at den administrative byrde holdes på et minimum.

Kommissionen vil gennem strukturerede dialoger med erhvervslivet yderligere undersøge standardiseringspotentialet med hensyn til indberetningsprocedurer og rapportering om gennemsigtighed, hvad angår systemer til og resultater for fjernelse.

17.Beskyttelsesmekanismer mod fjernelse af lovligt indhold og mod misbrug af systemet

Hurtig handling, bl.a. foranstaltninger til filtrering af upload eller automatiseret påvisning med henblik på at sikre øjeblikkelig fjernelse af ulovligt indhold, navnlig når der ikke er nogen "menneskelig medvirken", kan indvirke på afgørelsens nøjagtighed, herunder risikoen for, at lovligt indhold fjernes. Det er derfor vigtigt at sikre, at der er truffet tilstrækkelige forholdsregler, således at indhold, der fejlagtigt er blevet fjernet, kan genoprettes.

18.Anfægtelse af en afgørelse

Generelt bør leverandøren af indholdet gives mulighed for at anfægte denne afgørelse. Dette gælder også, når fjernelsen af indhold er automatiseret.

I henhold til artikel 28a i forslaget om ændring af direktivet om audiovisuelle medietjenester skal medlemsstaterne sikre, at der findes klage- og prøvelsesmekanismer til afgørelse af tvister mellem brugere og videodelingsplatforme vedrørende anvendelsen af de passende foranstaltninger, der skal træffes af disse platforme.

Hvis der på grundlag af anfægtelsen af afgørelsen er rimelig grund til at mene, at den indberettede aktivitet eller information ikke er ulovlig, bør udbyderen af platformen uden unødigt ophold genetablere det indhold, som blev fjernet, eller tillade, at brugeren genuploader det, med mindre andet er fastsat i platformens brugsvilkår.

Muligheden for at anfægte afgørelser bør føre til et fald i antallet af uberettigede fjernelser af lovligt indhold og kan også bidrage til, at der foreligger dokumentation til brug i udenretslige tvistbilæggelsesordninger eller retlige klageprocedurer.

Under visse omstændigheder er det ikke hensigtsmæssigt at underrette indholdsleverandøren og/eller gøre det muligt at anfægte en afgørelse – navnlig i sager, hvor dette ville gribe ind i de undersøgelsesbeføjelser, som er nødvendige, for at medlemsstaternes myndigheder kan forebygge, påvise og retsforfølge lovovertrædelser, f.eks. i tilfælde af materiale med seksuelt misbrug af børn.

Onlineplatforme bør have enkle onlineprocedurer til at anfægte afgørelser. Når en anfægtelse af en afgørelse modtages, bør onlineplatformen give et svar, og såfremt afgørelsen går anfægtelsen imod, bør årsagerne forklares nærmere. Når det er muligt i den pågældende medlemsstat, opfordres platformene til at tillade anvendelse af udenretslige organer til bilæggelse af tvister om anfægtelse af afgørelser.

19.Foranstaltninger til forebyggelse af indberetninger og anfægtelser, der afgives i ond tro

52 Indberetnings- og fjernelsesprocedurer kan undertiden misbruges gennem dårlig praksis eller i ond tro. Der bør søges slagkraftige midler til at dæmpe disse praksisser, f.eks. ved at nedprioritere behandlingen af henvendelser fra en indberetter, der sender en høj andel af ugyldige indberetninger eller modtager et stort antal anfægtelser, eller ved trække vedkommendes privilegie som pålidelig indberetter tilbage i henhold til veletablerede og gennemsigtige kriterier. Disse politikker bør også være klart beskrevet i en onlineplatforms brugsvilkår og indgå i onlineplatformes almindelige indberetning med henblik på at øge ansvarligheden over for offentligheden. Der bør indføres lignende foranstaltninger vedrørende misbrug af anfægtelser af afgørelser.

20.Hindring af at ulovligt indhold vises igen

Når ulovligt indhold er påvist og fjernet, bør det ikke vises igen på nettet. Det er afgørende for opbyggelsen af et effektivt og virkningsfuldt system til forebyggelse af, at et sådant indhold vises igen, at der tages udgangspunkt i gode praksisser og velfungerende beskyttelsesmekanismer. Det kræver tæt samarbejde mellem onlinetjenesteudbydere under fuld overholdelse af de gældende regler i konkurrencelovgivningen at hindre, at kendt ulovligt materiale spredes på tværs af platformene. Det er også vigtigt at øge de retshåndhævende myndigheders samarbejde med små, mindre modstandsdygtige virksomheder, der kan blive den foretrukne platform for forbrydere og andre personer, der er indblandet i krænkende aktiviteter på internettet, hvis de anses for at være mere sårbare end andre.

21.Foranstaltninger mod brugere, der gentagne gange offentliggør krænkende indhold

53 For at undgå at ulovligt indhold vises igen af brugere, der offentliggør krænkende indhold af samme art gentagne gange, har mange onlineplatforme allerede indført foranstaltninger over for brugere, der gentagne gange offentliggør krænkende indhold såsom suspendering eller lukning af konti eller "shadow-banning".

Onlineplatforme bør træffe foranstaltninger, der afskrækker brugere fra gentagne gange at uploade ulovligt indhold af samme art, og søge virkningsfuldt at bringe udbredelsen af et sådant ulovligt indhold til ophør.

Dette bør også gælde, når krænkeren er den samme, og det pågældende indhold i al væsentlighed er af samme art, og, hvor det er berettiget, brugeren straks er blevet underrettet om de(n) indberetning(er), der er modtaget angående vedkommende, og om den forestående suspension eller opsigelse. Dette gør det muligt for brugeren at anfægte afgørelsen og lette adgangen til domstolsprøvelse af foranstaltningen, hvis det er relevant i henhold til kontrakten mellem brugeren og platformen og den gældende lovgivning. I et sådant tilfælde skal enhver behandling af personoplysninger også leve fuldt ud op til de relevante databeskyttelsesregler.

Det gælder også, at der ikke bør gives oplysninger eller sendes meddelelse til indholdsleverandøren, når dette griber ind i de undersøgelsesbeføjelser, som er nødvendige, for at medlemsstaterne kan forebygge, påvise og retsforfølge lovovertrædelser, når det nødvendige retsgrundlag foreligger.

22.Automatisk filtrering af genupload

Foruden de teknologier, der anvendes til at identificere potentielt ulovligt indhold, som er nævnt i afsnit 3.3, kan der anvendes teknologiske værktøjer med en højere grad af pålidelighed til at "fingerprinte" og bortfiltrere (fjerne) indhold, der allerede er blevet identificeret og vurderet som ulovligt. Kommissionen opfordrer derfor kraftigt til yderligere brug af sådanne værktøjer, når disse er underlagt beskyttelsesmekanismer såsom den reversibilitet og de undtagelser, der er beskrevet nedenfor.

Disse værktøjer tages pt. i brug ved udarbejdelsen af "hashdatabasen", der anvendes i forbindelse med terrorrelateret indhold, og som udvikles under EU's internetforum, og inden for ophavsretsområdet samt i forbindelse med materiale med seksuelt misbrug af børn, men også med hensyn til produkter som retshåndhævende myndigheder har angivet som værende i uoverensstemmelse med relevant lovgivning. Disse praksisser har givet gode resultater. Deres effektivitet afhænger imidlertid af yderligere forbedringer, for at problemet med fejlagtig påvisning af indhold kan begrænses, og for at fremme beslutningstagning på baggrund af konteksten samt de nødvendige beskyttelsesforanstaltninger vedrørende reversibilitet.

F.eks. anerkendes det i Kommissionens forslag om ophavsret i det digitale indre marked, på grundlag af praktiske erfaringer med ophavsret inden for automatisk indholdsgenkendelse, at sådanne teknologier – så længe de er passende og forholdsmæssige – kan anvendes som et muligt middel til bl.a. at hindre, at indhold, hvortil der ikke er meddelt licens, er tilgængeligt på de relevante onlinetjenester.

Det bør være muligt at benytte kontekstbestemte undtagelser i forbindelse med automatiske stay down-procedurer, og når fjernet indhold ændres og bringes i overensstemmelse med retlige eller andre krav. Omfanget og varigheden af kontekstbestemte undtagelser bør tage højde for indholdets specifikke natur og en eventuel relateret sikkerhedstrussel samt muligheden for midlertidigt at suspendere et sådant indhold i afventning af en mere tilbundsgående vurdering.

Kommissionen opfordrer på det kraftigste til yderligere brug og udvikling af automatiserede teknologier til at hindre, at ulovligt onlinemateriale vises igen.

Hvor der anvendes automatiserede værktøjer til at hindre, at ulovligt indhold vises igen, bør der findes beskyttelsesforanstaltninger, der sikrer reversibilitet i tilfælde af fejl, og denne teknologis brug og ydeevne bør være gennemsigtig i platformenes brugsvilkår.

Alle onlineplatforme bør have adgang til databaser til automatisk at matche og identificere ulovligt indhold, der vises igen, forudsat at enhver behandling af data finder sted i overensstemmelse med gældende lovgivning om beskyttelse af personoplysninger og konkurrence. Virksomhedernes politik for beskyttelse af privatlivets fred bør omfatte gennemsigtige oplysninger om behandling af personoplysninger i sådanne databaser, såfremt de findes.

Onlineplatformene bør også sikre, at deres værktøjer løbende ajourføres for at sikre, at alt ulovligt indhold opdages i takt med, at forbrydere og andre personer, der er involveret i ulovlige aktiviteter online, ændrer taktik og adfærd. For så vidt angår redskaber, der anvendes i forbindelse med terrorrelateret indhold, bør disse tilpasses for at tage højde for nyt og historisk indhold og sikre en hurtig gennemgang og fjernelse. Sådant indhold bør føjes til værktøjer, der benyttes på tværs af platforme, såsom den nævnte hashdatabase (der pt. anvendes i forbindelse med terrorrelateret indhold). En sådan teknologisk udvikling bør foregå i samarbejde med onlineplatforme, kompetente myndigheder og andre interessenter, herunder civilsamfundet.

23.Konklusioner

Stigningen i mængden af ulovligt indhold, der lagres på onlineplatforme, forårsager reel skade i samfundet, herunder risici for vores borgeres integritet, værdighed og sundhed; hvis den ikke håndteres korrekt, vil skaden også undergrave tilliden til digitale tjenester mere generelt, og i sidste ende tilliden til det digitale indre marked, der en vigtig drivkraft bag innovation, vækst og beskæftigelse. Selv om et sådant indhold udarbejdes og uploades af tredjeparter, øges onlineplatformenes ansvar over for brugerne og samfundet som helhed i takt med deres konstant stigende indflydelse i samfundet, som følger af deres rolle som vogtere af indhold og information. De bør derfor være proaktive i deres arbejde med at luge ud i ulovligt indhold og med at hindre, at det vises igen, indføre effektive indberetnings- og fjernelsesprocedurer og etablere velfungerende grænseflader med tredjeparter (såsom pålidelige indberettere) samt give særlig prioritet til indberetninger fra nationale retshåndhævende myndigheder. I tilfælde hvor onlineplatforme afgør, hvilket indhold der bør anses for at være ulovligt i henhold til lovgivningen, bør der indføres passende kontrolforanstaltninger.

Denne meddelelses retningslinjer ændrer ikke den gældende retlige ramme og indeholder ikke retligt bindende regler; den har først og fremmest til formål at vejlede onlineplatforme om, hvordan de kan leve op til deres ansvar, hvad angår bekæmpelse af ulovligt indhold, som de lagrer. Den tager også sigte på at integrere gode proceduremæssige praksisser på tværs af forskellige former for ulovligt indhold og på at fremme et tættere samarbejde mellem platforme og kompetente myndigheder. Den skitserer en europæisk tilgang til at håndtere ulovligt indhold for onlineplatforme, der kombinerer behovet for hurtig og effektiv fjernelse af ulovligt indhold og forebyggelse og retsforfølgning af kriminalitet med beskyttelse af retten til ytringsfrihed online. Retningslinjerne supplerer og styrker de igangværende sektorspecifikke dialoger.

Der bør lægges særlig vægt på at sætte mindre onlineplatforme i stand til at gennemføre sådanne procedurer, og mange elementer i denne meddelelse er blevet udformet under hensyntagen til deres specifikke behov. Ikke desto mindre vil Kommissionen søge yderligere midler til at støtte udbredelsen af disse retningslinjer også til mindre platforme.

Det digitale indre marked afføder et behov for bedre samordning af de offentlige politikker på tværs af geografiske grænser. Med denne meddelelse giver Kommissionen derfor som et første skridt fælles værktøjer til at håndtere den fælles udfordring med fjernelse af ulovligt indhold.

I hensigtserklæringen af 13. september 2017 fra formanden for Europa-Kommissionen, stilet til formanden for Europa-Parlamentet og formanden for Rådet for Den Europæiske Union, med det formål at sikre et område med retfærdighed og grundlæggende rettigheder baseret på gensidig tillid blev der bebudet yderligere foranstaltninger til at sikre hurtig og proaktiv påvisning og fjernelse af ulovligt indhold, der tilskynder til had, vold og terrorisme. Denne meddelelse udgør en første sådan foranstaltning. Kommissionen forventer, at onlineplatformene vil træffe hurtige foranstaltninger i de kommende måneder, herunder i forbindelse med relevante dialoger, navnlig med hensyn til terrorisme og ulovlige hadefulde ytringer.

Kommissionen vil fortsætte udvekslinger og dialoger med onlineplatforme og andre relevante interessenter. Den vil overvåge fremskridtene og vurdere, om der er behov for yderligere foranstaltninger for at sikre hurtig og proaktiv påvisning og fjernelse af ulovligt indhold på nettet, herunder mulige lovgivningsmæssige foranstaltninger til supplering af den eksisterende lovramme. Dette arbejde vil blive afsluttet i maj 2018.

(1)

I dag lægges der hvert sekund ca. 8 000 tweets på Twitter og 1 000 fotos på Instagram, der foretages 60 000 Google-søgninger og ses 70 000 YouTube-videoer. See http://www.internetlivestats.com/.

(2)

Se afsnit 2.

(3)

Det Europæiske Råds konklusioner, ST 8 2017 INIT, af 22. og 23. juni 2017, G7-Taorminaerklæring af 26. maj 2017 og G20-ledernes erklæring af 8. juli 2017.

(4)

Europa-Parlamentets beslutning af 15. juni 2017 om onlineplatforme (2016/2274(INI)).

(5)

Meddelelsen hviler på en lang række offentlige og målrettede høringer og workshopper med interessenter.

(6)

Se den seneste rapport fra Kommissionen til Europa-Parlamentet og Rådet med en vurdering af gennemførelsen af foranstaltningerne i artikel 25 i direktiv 2011/93/EU af 13. december 2011 om bekæmpelse af seksuelt misbrug og seksuel udnyttelse af børn og børnepornografi.

(7)

I direktiv (EU) 2017/541 om bekæmpelse af terrorisme forpligtes medlemsstaterne til at træffe de nødvendige foranstaltninger til at sikre øjeblikkelig fjernelse af onlineindhold, der anstifter til at begå terrorhandlinger (artikel 21). På dette område og i sammenhæng med EU's internetforum fjerner platforme frivilligt terrorrelateret indhold på baggrund af anmodninger fremsendt af Europols internetindberetningsenhed (IRU).

(8)

COM(2016) 593.

(9)

COM(2016) 287.

(10)

http://ec.europa.eu/justice/fundamental-rights/files/hate_speech_code_of_conduct_en.pdf.

(11)

http://europa.eu/rapid/press-release_IP-15-6243_en.htm.

(12)

http://ec.europa.eu/transparency/regdoc/rep/3/2016/EN/3-2016-3724-EN-F1-1.PDF.

(13)

EUT C 250 af 1.8.2017

(14)

  http://ec.europa.eu/environment/cites/pdf/WAP_EN_WEB.pdf.  

(15)

SWD(2016)163 af 25.5.2016.

(16)

http://ec.europa.eu/internal_market/scoreboard/performance_by_governance_tool/consumer_protection_cooperation_network/index_en.htm.

(17)

Meddelelse COM(2012)196 final (bedre internet for børn): https://ec.europa.eu/digital-single-market/en/alliance-better-protect-minors-online.  

(18)

COM(2016)288 og COM(2017)228.

(19)

  http://europa.eu/rapid/press-release_IP-17-1471_en.htm.  

(20)

http://ec.europa.eu/newsroom/just/item-detail.cfm?item_id=71674.

(21)

http://europa.eu/rapid/press-release_IP-17-544_en.htm.

(22)

http://www.inhope.org/Libraries/Annual_reports/INHOPE_Annual_Report_2015.sflb.ashx?download=true.

(23)

Direktivet om e-handel 2000/31/EF af 8. juni 2000.

(24)

Det skal bemærkes, at det i henhold til e-handelsdirektivet kun er de leverandører af informationssamfundstjenester, der betragtes som mellemliggende tjenesteydere (dvs., at de alene foretager videreformidling eller leverer caching- eller hostingtjenester), som kan benytte sig af ansvarsfritagelsen i artikel 12-14. Af betragtning 42 fremgår det, at denne aktivitet for at være omfattet af ansvarsfritagelsen skal være "udelukkende teknisk, automatisk og passiv, hvilket indebærer, at leverandøren af informationssamfundstjenesten hverken har kendskab til eller kontrol over de informationer, der transmitteres eller oplagres."

(25)

De fleste platforme tilbyder hostingtjenester for indhold, som uploades af deres brugere.

(26)

Betragtning 40 i direktivet om e-handel. Bemærk at denne meddelelse fokuserer på hosting-tjenesteudbydere, snarere end på ren videreformidling (artikel 12) eller på udbydere af cachingtjenester (artikel 13).

(27)

En hostingtjeneste er en informationssamfundstjeneste, som består i lagring af information leveret af en tjenestemodtager. Denne kategori kan omfatte en række aktører, fra onlinemarkedspladser, videodelingsplatforme, sociale netværk, bloggingwebsteder eller anmeldelseswebsteder til pladsen til brugernes kommentarer på nyhedssider.

(28)

Eksempler på områder, der er omfattet (eller foreslået omfattet) af EU-retten, er tilskyndelse til terrorisme, ulovlige hadefulde ytringer, seksuelt misbrug af børn, immaterielle ejendomsrettigheder, produktsikkerhed, udbud og salg af føde- og tobaksvarer samt varemærkeforfalskede lægemidler, regler om forbrugerbeskyttelse og produktsikkerhedsforanstaltninger osv. I 2016 præciserede Kommissionen også onlineplatformenes forpligtelser til gennemsigtighed og professionel fornøden omhu i henhold til direktiv 2005/29/EF om urimelig handelspraksis, hvor platforme handler som handlende over for forbrugere.

(29)

Forslaget til revision af direktivet om audiovisuelle medietjenester tager højde herfor med hensyn til audiovisuelt indhold.

(30)

Af artikel 14, stk. 3, i direktivet om e-handel fremgår det, at artikel 14 ikke "berører en domstols eller en administrativ myndigheds mulighed for i overensstemmelse med medlemsstaternes retssystem at kræve, at en tjenesteyder bringer en overtrædelse til ophør eller forhindrer den." F.eks. kræves det artikel 11 i direktiv 2004/48/EF om håndhævelse af immateriel ejendomsret, at "[m]edlemsstaterne [endvidere] sikrer, at rettighedshaverne har mulighed for at ansøge om udstedelse af et påbud til en mellemmand, hvis tjenesteydelser anvendes af tredjemand til at krænke en intellektuel ejendomsrettighed, jf. dog artikel 8, stk. 3, i direktiv 2001/29/EF."

(31)

I artikel 15, stk. 2, i direktivet om e-handel fastsættes det, at "[m]edlemsstaterne kan kræve, at leverandører af informationssamfundstjenester straks underretter de kompetente offentlige myndigheder om påståede ulovlige aktiviteter, der udøves, eller information, der leveres af deres tjenestemodtagere, eller at de på anmodning giver de kompetente myndigheder oplysninger, som gør det muligt at identificere de tjenestemodtagere, de har oplagringsaftaler med."

(32)

Jf. artikel 5 i direktiv (EU) 2017/541 om bekæmpelse af terrorisme.

(33)

Betragtning 42 i direktivet om e-handel. Se Google France, 114 og 120; dom af 12. juli 2011, sag C-324/09, L'Oréal mod eBay, præmis 113.

(34)

eBay 115.

(35)

eBay 116.

(36)

Betragtning 41 i direktivet om e-handel.

(37)

Betragtning 40 i direktivet om e-handel.

(38)

Artikel 15, stk. 1, i direktivet om e-handel.

(39)

Betragtning 40 i direktivet om e-handel.

(40)

eBay 120 -121.

(41)

Betragtning 40 i direktivet om e-handel.

(42)

Betragtning 40 og artikel 15, stk. 1, i direktivet om e-handel.

(43)

http://www.consilium.europa.eu/en/press/press-releases/2017/06/22-euco-security-defence/.

(44)

Branchens nuværende F&U-indsats er rettet mod udvikling af analytiske værktøjer til en bedre forståelse af naturligt sprog, informationskaskader i sociale netværk, identifikation af kilder til information, udbredelsesmønstre og falske identiteter. Kommissionen har også støttet F&U på dette område ved at finansiere projekter, der sigter mod at udvikle værktøjer til automatisk kontrol af, om brugerskabt indhold på sociale netværk er ægte. Disse værktøjer kan bidrage til påvisning af potentielle forfalskninger af tekst, billede eller video og udgør en hjælp til sporing af falske nyheder. For indeværende går det går imidlertid ud over sådanne værktøjers funktionelle formåen at fastslå, om der er tale om ulovligt indhold.

(45)

Se https://ec.europa.eu/info/law/better-regulation/initiatives/ares-2017-3896097_en og https://ec.europa.eu/home-affairs/what-we-do/policies/organized-crime-and-human-trafficking/e-evidence_en for yderligere oplysninger.

(46)

Artikel 6, stk. 1, litra c), sammenholdt med artikel 6, stk. 4.

(47)

I artikel 15, stk. 2, i direktivet om e-handel fastsættes det, at "[m]edlemsstaterne kan kræve, at leverandører af informationssamfundstjenester straks underretter de kompetente offentlige myndigheder om påståede ulovlige aktiviteter, der udøves, eller information, der leveres af deres tjenestemodtagere, eller at de på anmodning giver de kompetente myndigheder oplysninger, som gør det muligt at identificere de tjenestemodtagere, de har oplagringsaftaler med."

(48)

Udformning af et samordnet system for internetundersøgelser

(49)

Europol vil yderligere lette skabelsen af nye enkeltkontaktpunkter ved at tilbyde relevant uddannelse for de retshåndhævende myndigheder i lande, hvor der endnu ikke findes sådanne kontaktpunkter.

(50)

Hvis der behandles personoplysninger, skal platformene sikre gennemsigtige bestemmelser for beskyttelse af privatlivets fred, jf. artikel 12 i den generelle forordning om databeskyttelse.

(51)

Rapporter vedrørende egne undersøgelser, generelle indberetninger fra brugere, indberetninger fra retshåndhævende myndigheder osv.

(52)

Der er dokumentation, der tyder på, at sådanne oplysninger anvendes af konkurrenter (J. Urban m.fl.:Notice and Takedown in Everyday Practice, UC Berkeley, 2016), og at automatisk generering af indberetninger er blevet misbrugt til at linke til kunstigt skabt indhold (Google's gennemsigtighedsrapport).

(53)

"Shadow-banning" består i at udelukke en bruger fra et onlinefællesskab på en måde, så brugeren ikke opdager, at vedkommende er blevet udelukket.