Skadeligt og ulovligt indhold

Ord som skadeligt og ulovligt indhold bruges ofte i sammenhæng, men det beskriver nødvendigvis ikke det samme.

No items found.
No items found.
No items found.
No items found.

Skadeligt eller ulovligt?

Ulovligt indhold er indhold, som i lovgivningen er klassificeret som ulovligt, fx opfordring til terror eller racistiske ytringer, mens skadeligt indhold er indhold, som en person tager skade af i produktionen eller ved konsumption.

Ofte når vi taler om skadeligt indhold i relation til sociale medier, taler vi om indhold, der er skadeligt for personers sundhed, sikkerhed og/eller moralske udvikling. De fleste mennesker har set både skadeligt og ulovligt indhold på sociale medier. Det er et udtryk for, at de sociale medier ikke i tilstrækkelig grad prioriterer moderation på deres platforme.

Forholdet mellem skadeligt indhold og ulovligt indhold kan bedst beskrives i nedenstående Venn-diagram.
Der kan således være indhold, som er skadeligt for privatpersoner, men ikke ulovligt (fx selvskademateriale der ”trigger” andre til at selvskade), og indhold kan være ulovligt, men ikke skadeligt for privatpersoner (fx piratkopier af film, der bryder ophavsretten). Ligesom indhold både kan være  ulovligt og skadeligt (fx en halshugningsvideo produceret af en terrororganisation).

Hvad der er ulovligt indhold, er nemmere at definere end skadeligt, da vi i førstnævnte kategori kan referere til lovgivningen. Når der er tale om skadeligt indhold, bliver det straks sværere. Det kan både være svært at finde evidens for skadelighed, da det vil være uetisk at bevidst eksponere personer for indhold i et eksperiment, der forventes at skade dem, mens observeret data ude fra virkelighed er svært at anvende til at vise klare medieeffekter og årsagssammenhænge.

Skadelighed kan også defineres ud fra gældende normer i samfundet. I visse lande vil LGTBQ+-positivt indhold anses som skadeligt for børn og unge, mens dette selvfølgelig ikke er tilfældet i Danmark. Hvad der er skadeligt indhold, vil derfor altid være til forhandling.

Skadeligt indhold kan være skadeligt enten ved en enkelt eksponering eller ved længere tids eksponering. Overgrebsmateriale mod børn og ekstrem vold vil have en skadelig effekt ved en enkelt eksponering, mens et Instagram-feed fyldt med ét bestemt kropsideal formodentligt vil have en skadelig effekt efter en periode med længere tids eksponering.

Vigtigheden af moderation

Moderation er en hjørnesten i digitale tjenesters produkt, da sociale medier uden moderation ville flyde over med pornografi, vold og spam. Hvis dette var tilfældet, ville ingen annoncører reklamere for deres produkter, og de digitale tjenesters forretningsmodel ville ikke fungere. Omvendt kan voldsomt, forargende og misvisende indhold også engagere og fastholde brugere. Flere moderatorer, der fjerner mere indhold kan derfor også betyde, at sociale medier mister brugere, fastholdelseskraft og dermed penge. Spørgsmålet om moderation er derfor ikke, hvorvidt der skal modereres, men hvor meget og for hvad.
Sociale medier moderer både pba. egne retningslinjer og lovgivning. Forordningen om digitale tjenester pålægger digitale tjenester at fjerne ulovligt indhold, som anmeldes til platformen. Her er sondringen mellem skadeligt og ulovligt indhold vigtig, da visse former for skadeligt men lovligt indhold – fx selvskademateriale – ikke som udgangspunkt er lovpligtigt at fjerne, medmindre det udgør en systematisk risiko mod platformens brugere. Digitale tjenester modererer dog også indhold, der ikke strider mod lovgivningen, men i stedet deres egne retningslinjer.

Moderation på digitale tjenester foretages hovedsageligt vha. af kunstig intelligens, specifikt maskinlæring. Her kan disse maskinlæringssystemer automatisk opdage og fjerne indhold, som strider mod platformens regler eller lovgivningen. Visse typer af indhold er nemmere for kunstig intelligens at opdage, fx billedmateriale med grov vold eller pornografi, mens andre former for indhold kan være svært at detektere automatisk, hvis overskridelsen af lovgivningen eller platformens retningslinjer er mere subtil.  

I disse situationer det vigtigt med dansktalende menneskelige moderatorer, der kan gennemgå anmeldelser og tage stilling til, hvorvidt indholdet skal fjernes. Der skal være ansat nok moderatorer til at behandle anmeldelser indenfor en rimelig tidsperiode (for ulovligt indhold er det et krav jf. DSA’en), men de skal også være kvalificerede til at vurdere lovligheden af indhold.  

Det er dog ikke tilfældet i dag, som er illustreret i nedenstående overblik.

Antal dansktalende moderatorer på digitale tjenester

Visualisering af antal moderatorer med danske sprogkundskaber på en række af de største digitale platforme
Kilde: Kulturministeriet

Søgemaskiners ansvar

Søgemaskiner og deres rolle i at tilgængeliggøre skadeligt og ulovligt indhold får ikke nok fokus. Derfor arbejder vi i Digitalt Ansvar også med deres rolle. Søgemaskiner som Google og Bing er ofte indgangen til hele internettet, og deres algoritmer har stor indflydelse på, hvad brugerne ser. De skal derfor ikke blot betragtes som neutrale platforme, men bør holdes ansvarlige for det skadelige og ulovlige indhold, de hjælper brugere med at finde.

Hvordan fungerer en søgemaskine?

Søgemaskiner som Google og Microsoft Bing fungerer ved at crawle, indeksere og rangere indhold.

Crawling: En søgemaskine crawler hjemmesider på internettet for at finde nyt eller opdateret indhold. Søgemaskinen navigerer gennem hjemmesider ved at følge links fra én side til en anden.

Indeksering: Når en ”crawler” har identificeret en hjemmeside, oprettes en kopi af siden i søgemaskinens indeks. Indekset fungerer som en enorm database, der indeholder alle de sider, som søgemaskinen finder via crawling. Når en bruger søger på en søgeterm, returnerer søgemaskinen indholdet til brugeren i form af søgeresultater.  

Rangering: Når en bruger foretager en søgning, anvender søgemaskinen sin algoritme til at afgøre, hvilke sider i indekset, der er mest relevante for brugerens søgning. Søgemaskinen præsenterer derefter siderne i en bestemt rækkefølge alt efter, hvad søgemaskinens algoritmer vurderer mest relevant for brugeren. Rangeringen af søgeresultater afgøres efter relevans og autoritet. Relevans afgøres af, hvor godt en side matcher den enkelte søgning, mens autoritet er udtryk for antallet og kvaliteten af andre sider, der linker til siden. Hvis en populær side derfor linker til en anden side, stiger dennes relevans og dermed rangering.

Digitalt ansvar anbefaler

EU skal nedsætte en minimumsgrænse for antal moderatorer

I Digitalt Ansvar anbefaler vi, at EU skal stille konkrete krav om en minimumsgrænse for moderatorer baseret på antal brugere i hvert enkelt land. Hvis vi skal gøre os forhåbninger om, at sociale medier i fremtiden bliver et tryggere sted, er der behov for, at sociale medier bruger en større del af deres milliardomsætning på moderation.

September 2019

digitalt ansvar anbefaler

Søgemaskiner skal mere aktivt fjerne hjemmesider på domæneniveau fra deres indeks, hvis de indeholder ulovligt indhold. De har en pligt jf. DSA’en til at begrænse systemiske risici (læs her om DSA og systemiske risici).

Søgemaskiner skal deindeksere ulovligt indhold

September 2019

digitalt ansvar anbefaler

Bedre rapporteringssystemer

Der er behov for bedre systemer, hvor brugere hurtigt og nemt kan rapportere ulovligt og skadeligt indhold til sociale medier og søgemaskiner. Dette vil hjælpe med at identificere og fjerne ulovligt og skadeligt materiale hurtigere.

September 2019
No items found.
Clear
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Hjælp til digital vold