børn og sociale medier

Mange børn og unge bliver eksponeret for ulovligt, stødende eller ikke alderssvarende indhold, når de er på sociale medier. Det er udfordrende at beskytte dem, da platformenes indholdsmoderation ofte er mangelfuld, ligesom de heller ikke effektivt verificerer, om brugerne faktisk lever op til alderskravene.
No items found.
No items found.
No items found.
No items found.
Nedtrykt eller fortvivlet dreng tager sig til nakken, mens han kigger ned ved siden af en computer på gulvet

Børns sikkerhed på nettet

Børn og unge kan nemt støde på skadeligt, ulovligt eller ikke alderstilsvarende indhold, når de bruger internettet og sociale medier. Derfor er der et stigende behov for løsninger, der kan skabe bedre beskyttelse for børn og unge – herunder mere præcise metoder til aldersverifikation.

Aldersverifikation på sociale medier i dag bygger ofte på selvangivelse, hvor brugerne selv oplyser deres alder, når de opretter en profil. Dette gør det let at påstå, at man er ældre, end man er. Problemet forstærkes, når platformene ikke efterfølgende tjekker eller håndhæver, om oplysningerne er korrekte.

Derfor er det bl.a. muligt for flertallet af børn og unge i Danmark at oprette en profil på sociale medier, før de opfylder alderskravet på 13 år.
Læs mere om: Aldersverifikation på sociale medier

Hvad kan sociale medier gøre for at beskytte børn og unge i højere grad?

De sociale medier kan gøre meget mere for at beskytte børn på deres platforme. De kan bl.a. sikre, at børn ikke nemt og enkelt kan oprette en profil, før de er 13 år og derfor reelt håndhæve aldersgrænsen. De kan ansætte flere til at finde og fjerne det skadelige og ulovlige, og de kan bygge sikkerhedsmekanismer ind i deres algoritmer.

Mere indbygget sikkerhed i fx anbefalingsalgoritmen vil bl.a. betyde, at den ikke giver mere og mere af det samme, når det drejer sig om skadeligt eller ulovligt indhold. Et barn, som fx viser interesse for en enkelt depressiv video, vil derfor ikke efterfølgende blive præsenteret for flere videoer bl.a. selvskadende børn, som det er tilfældet i dag. Det kan du læse mere om her.

Hvad siger lovgivningen?

EU's Digital Services Act (DSA) er en milepæl i reguleringen af sociale medier. Forordningen stiller større krav til bl.a. store sociale medier om at fjerne ulovligt indhold, beskytte børn mod risici, ligesom loven skal sikre, at platformene ikke opererer med funktioner, som er skadelige, som fx visse former for algoritmer og fastholdelsesmekanismer.

Loven, der trådte i kraft fuldt ud i februar 2024, har dog stadig ikke stået sin endelige prøve ved EU-domstolen, trods flere igangværende sager. Det skyldes bl.a., at Kommissionen er afhængig af solid dokumentation, som præcist og systematisk kan bevise, at et navngivet socialt medie fx ikke beskytter børn mod overgreb eller mod ulovligt indhold. Den slags dokumentation er omfangsrig at indsamle, og fordi Kommissionen ikke selv indsamler dokumentation, er de afhængige af medlemsstaterne for at igangsætte sager mod fx sociale medier. I Digitalt Ansvar er vi i tæt kontakt med Kommissionen og sender dokumentation til EU ifm. vores undersøgelser.
      Læs mere om: DSA'en

        Spørgsmål og svar

        Hvor mange børn og unge har en profil på et eller flere sociale medier?
        Hvad er eksempler på ubehageligt indhold, som børn og unge eksponeres for på sociale medier?
        Hvorfor kan børn under 13 år overhovedet få en profil på sociale medier, hvis aldersgrænsen er 13?

        Relaterede emner:

        Fastholdelsesmekanismer
        Skadeligt og ulovligt indhold
        Aldersverifikation
        Senest opdateret 07-12-2025.
        Hjælp til digital vold