DIREKTØR I DIGITALT ANSVAR: VI KAN SAGTENS BESKYTTE VORES BØRN PÅ NETTET - LØSNINGEN LIGGER ENDDA LIGE FOR

Digitalt Ansvar Kontaktperson:
Andrea Nielsen
ani@digitaltansvar.dk

I dag udkommer DR med sidste afsnit af dokumentarserien ’Alene hjemme på nettet’, som skildrer, hvad der egentlig møder vores børn på sociale medier og italesætter det komplette kontroltab, som mange forældre oplever i relation til deres børns digitale liv.

Jeg forsøger i dokumentaren at forklare, at børn og unge støder på voldsomt, skadeligt og til tider ulovligt indhold, fordi de sociale medier fungerer ved at afkode, hvad brugerne reagerer på. Det er som sådan ikke et problem, hvis børn præsenteres for videoer med dans eller sjove dyr, men anderledes når videoer med fx selvmord og tips og tricks til at skjule barberblade og selvskade dukker op.

Forældre til børnene i dokumentarserien er chokerede over åbenbaringen af deres børns parallelle, digitale liv og tilslutter sig hurtigt koret af politikere og organisationer, som mener, at vi må gøre noget – bare et eller andet - for at beskytte vores børn bedre online. Men spørgsmålet om, hvordan og hvad præcist der skal gøres, står tilbage, også i dokumentarserien. Og tilbage sidder børnene på sociale medier uden tilstrækkelig beskyttelse.

Simple tiltag vil beskytte vores børn i langt højere grad

De sociale medier kan gøre meget mere for at beskytte vores børn på deres platforme. Helt konkret kan de sikre, at børn ikke nemt og enkelt kan oprette en profil, før de er 15 år og derfor reelt håndhæve den nedsatte aldersbegrænsning. De kan ansætte flere til at finde og fjerne det skadelige og ulovlige, og de kan bygge sikkerhedsmekanismer ind i deres algoritmer. Sikkerhed i algoritmen vil betyde, at den ikke giver mere og mere af det samme, når det drejer sig om skadeligt eller ulovligt indhold.

Et barn, som viser interesse for en enkelt depressiv video, vil derfor ikke efterfølgende blive præsenteret for den ene efter den anden video med bl.a. selvskadende børn, som det er tilfældet i dag.

Men hvorfor gør platforme som Meta, Snapchat og TikTok ikke mere for børns sikkerhed og opprioriterer de tre tiltag, kan man spørge? Her nærmer vi os kerneproblematikken. Sociale mediers forretningsmodel og deres indbyrdes konkurrence synes nemlig at stå direkte i vejen for en bedre sikkerhed.

Anbefalingsalgoritmen skelner ikke mellem børne- og voksenindhold

Kort fortalt, fungerer sociale mediers forretningsmodel ved at overvåge vores færden for at finde frem til hvilket indhold, som vi reagerer på og fanger vores opmærksomhed for så derefter at fodre os med mere og mere af samme type indhold. Det er algoritmens logik, den mekanisme som gør os til storforbrugere, og som tech-virksomheder som Meta, Snapchat og Google i sidste ende tjener deres annoncepenge på.

Sociale medier og søgemaskiners forretningsmodel består med andre ord af at få os til at være online så meget som overhovedet muligt, så de kan indsamle mest mulige data om vores interesser for bedre at målrette annoncer til os.

I mange sammenhænge giver det naturligvis god mening, at indhold bliver filtreret og målrettet den enkelte bruger, så vi ikke bliver eksponeret for indhold, som vi ikke har interesse for. Problemet består dog i, at tech-virksomheders anbefalingsalgoritme fungerer på samme måde uafhængigt, om indholdet omhandler katte, fodbold eller eksplicit vold.

Det betyder i praksis, at et barn, der ser sjove, uskyldige dansevideoer på TikTok på et tidspunkt nok vil blive præsenteret for skadeligt indhold i mængden af børneindhold, fx en video af et andet barn, der viser ar efter selvskade. Hvis barnet i den pågældende situation ikke med det samme klikker sig videre, men bliver hængende og interagerer med videoen, måske pga. chokeffekt, fascination eller fordi barnet selv har det svært eller endda selv selvskader, så bider algoritmen sig fast, som Digitalt Ansvar dokumenterede i en undersøgelse af TikTok-algoritme tilbage i december.

Derfor er det ikke nok med dialog og vejledning af tech-virksomhederne

Sociale medier ligger i intens konkurrence med hinanden. Bedre adgangskontrol, flere moderatorer, der fjerner mere indhold og mindre effektive algoritmer kan betyde, at sociale medier mister brugere, fastholdelseskraft og dermed annonceindtægter. Det taler for lovgivning, der skaber ensartede konkurrencevilkår med specifikke krav til designet af anbefalingsalgoritmer og aldersverifikation.

Der er ingen tvivl om, at politikerne har kastet sig ind i kampen for at regulerer tech-virksomhederne. Spørgsmålet er, hvilken model, der fungerer bedst, og hvor hurtigt vi får den. Den nuværende model, som EU-lovgivningen bygger på, giver frihed med meget begrænset ansvar.  

Det vil sige frihed for de sociale medier til at redigere i indhold, introducere nye features, apps, sociale platforme etc., uden vi som samfund først skal godkende, at produkterne er forsvarlige.

Udgangspunktet for EU’s nye forordning for digitale tjenester er fx, at tech-virksomhedernes ansvar først kommer i spil, når en bruger gør opmærksom på noget, der er decideret ulovligt. Herefter skal platformen, som forordningen formulerer det, “straks tage skridt” til at fjerne det ulovlige indhold eller hindre adgangen til det. Det rejser i sig selv en del spørgsmål. For hvor hurtigt skal et socialt medie som fx Instagram reagere, når de får en anmeldelse om ulovligt indhold? Og er det overhovedet realistisk at tage et opgør med ulovligt og skadeligt indhold, hvis systemet for fjernelse er så brugerafhængigt? Loven omhandler derudover kun det ulovlige og ikke det skadelige indhold, som dokumentaren netop tydeliggør problemet med. Og vigtigst: Det er først efter indholdet er delt, og skaden er sket, at platformenes ansvar træder i kraft. De helt store sociale medier og søgemaskiner skal ifølge EU-reglerne godt nok rapportere om, hvad de gør for at undgå ”systemiske risici”, men der ikke krav om, at de skal have godkendt deres digitale produkter, før de kommer på markedet.

Tech-virksomheder skal reguleres med samme udgangspunkt som fødevare- og medicinalindutrien

Men der er god grund til at tænke i krav til sikkerhed, før fx manipulerede billeder eller selvmordsvideoer ender på sociale medier, eller før en ny app, når ud på Appstore. For systemet med, at folk kan anmelde og sociale medier skal fjerne, kommer nemt til kort pga. Den enorme mængde af indhold på sociale medier og den begrænsede hastighed med at fjerne indholdet.

Det er jo heller ikke nyt, at vi som samfund stiller krav, før nye produkter kommer på markedet. Medicin, fødevarer og biler er som bekendt underlagt alverdens sikkerhedsforanstaltninger, både før de godkendes til brug og løbende.

Tech-virksomheder bør derfor også kunne stilles til ansvar, hvis det senere viser sig, at deres produkt forvolder skade på brugerne og ikke i tilstrækkelig grad er sikkert designet, og der bør tænkes i godkendelse af deres platforme og produkter, før de ender på børn og unges mobiler.

Hjælp til digital vold