NY ANALYSE AF TIKTOKS MØRKE UNIVERSER

Digitalt Ansvar Kontaktperson:
Andrea Nielsen
ani@digitaltansvar.dk
Flere undersøgelser peger på, at børn og unge mistrives. Af og til i så voldsom grad, at de selvskader eller forsøger selvmord. Sideløbende har der været en voksende opmærksomhed på sociale mediers rolle og det indhold og de netværk om selvskade og selvmord som eksisterer på sociale medier. For hvad er det, børn møder, når de kommer på et socialt medie som TikTok? Og hvad betyder TikToks algoritmer for dem, der i forvejen udviser interesse for selvskade- og depressionsrelateret indhold?

Du kan læse analysen her: ANALYSE AF TIKTOKS MØRKE UNIVERSER

Vores undersøgelse viser bl.a.:

TikToks algoritme er designet til at give mere af den type indhold, som den enkelte bruger interagerer med, også selvom det er indhold om selvskade, selvmord, psykisk sygdom og svære følelser rettet mod individet selv.

Hvor hurtigt en sårbar brugers Til dig-side ender med en høj frekvens af depressions- og selvskaderelateret indhold, afhænger af, hvornår brugeren for første gang eksponeres for en video, som falder inden for denne kategori.

Ud af fire sårbare profiler har to af profilerne allerede efter et kvarter et feed, der i intervaller eksponerer brugeren for mellem 70-80% depressions- og selvskaderelateret indhold. De to andre profiler er på samme tidspunkt få minutter fra at ende i et lignende feed.

Efter første eksponering bliver de sårbare brugeres Til dig-side dog alle præget af en høj frekvens af selvskade- og selvmordsrelateret indhold – i kortere sekvenser på op til 80-100%.

Det depressions- og selvskaderelaterede indhold, forsøgets brugere er blevet eksponeret for på TikTok, består kun sjældent af ord som selvskade og selvmord. Brugerne er heller ikke blevet eksponeret for visuelle gengivelser af udført selvskade. Derimod refereres til fænomenerne gennem omskrivninger, der dog ofte er ret entydige.

Hjælp til digital vold