manipuleret seksuelt materiale (msm)

Digitalt Ansvar arbejder indgående med manipuleret seksuelt materiale (MSM), som også går under navnet 'deepfakes' eller 'deepfake porno.'

Hvad er manipuleret seksuelt materiale?

Manipuleret seksuelt materiale (MSM) er kunstigt skabt eller manipuleret billed-, video-, tekst- eller lydmateriale, der fremstiller en eksisterende person i en seksuel situation, som den pågældende ikke har deltaget i.  

Digitalt Ansvar anvender ikke termerne ”deepfakes” eller ”deepfake porno”, da de ikke er retvisende for det skadelige fænomen, som MSM i realiteten er.

“Deepfake porn” er ikke pornografisk materiale i traditionel forstand, men derimod materiale, der oftest er lavet uden de afbildedes samtykke. Dernæst stammer ”deepfake” fra brugernavnet på en Reddit-bruger, der introducerede og populariserede manipuleret seksuelt materiale. Endelig henviser ”deepfake” eller ”deepfake porn” til teknologien deep learning.
No items found.
No items found.
No items found.
No items found.

Manipuleret seksuelt materiale i tal

300 mio.

visninger har de ti største hjemmesider dedikeret til MSM (2023).

54%

flere videoer med MSM i de første ni måneder af 2023 end i hele 2022. Antallet af MSM-videoer online er derfor i kraftig stigning.

1/3

af alle deepfake-værktøjer på nettet tillader brugere at producere MSM (2023).

0.9%

af den danske befolkning over 15 år har været udsat for det, der i undersøgelsen kaldes ”fake porn” indenfor det seneste år. Det svarer til ca. 45.000 personer (2023).

Kilde: Epinion, på vegne af Digitalt Ansvar, survey om Digital Vold, 2023.

99%

af videoer med MSM har kvinder som ofre (2023).

Omfang og udbredelse

MSM udbredes i dag til et bredt publikum via ’klassiske’ pornohjemmesider. I 2019 indeholdt 8 ud af 10 af de mest besøgte klassiske pornohjemmesider MSM, mens det i 2023 var 7 ud af 10. MSM findes også på hjemmesider, der er særskilt dedikeret til MSM-indhold. På en af mest besøgte MSM-hjemmesider kan der gratis ses korte videoklip, som ved betaling kan ses i fuld længde på en anden hjemmeside.

Der findes også eksempler på, at enkeltpersoner betaler for produktion af videoer med bestemte personer og ud fra specifikke ønsker. Sådanne køb og salg bliver bl.a. faciliteret igennem den krypterede beskedtjeneste Telegram og gaming-platformen Discord.

MSM produceres både af kommercielle årsager, men efterspørgslen kan også være begrundet i ønsket om bl.a. at se andre lide eller af kønspolitiske årsager, herunder at skabe indhold, der fx diskriminerer, chikanerer og begrænser kvinders ytringsfrihed.

Der eksisterer allerede et marked og efterspørgsel af MSM, og en amerikansk survey fra 2023 viste, at 48% af amerikanske mænd har set MSM, og at 74% af disse ikke følte skyld over dette. Søgemaskinerne spiller også en stor rolle i udbredelsen, det kan du læse mere om her.
Stigningen i uploadet indhold skyldes, at den bagvedliggende teknologi er blevet billigere og nemmere at anvende. Apps, open source-software og guides er let tilgængelige på internettet. Det er ikke længere nødvendigt at være ekspert i kunstig intelligens for at producere denne type indhold. I modsætning til for få år tilbage, er det heller ikke længere nødvendigt med mange billed-, video- eller lydfiler for at kunne producere vellignende og overbevisende indhold.

Hvordan produceres MSM?

Deepfake-teknologier har revolutioneret måden, hvorpå digitale billeder og videoer kan manipuleres. Ved at udnytte avancerede teknikker inden for kunstig intelligens kan disse teknologier skabe realistiske videoer, billeder og lyd, som kan være næsten umulige at skelne fra det ægte.  

Overordnet set bliver MSM produceret ved hjælpe af tre forskellige former for maskinlæring:
  • GANs: Generative Adversarial Networks (GANs) består af to neurale netværk: en generator og en diskriminator, som arbejder imod hinanden i en konkurrence:   Generatoren prøver at skabe falske billeder, der er så realistiske som muligt. Diskriminatoren prøver at skelne mellem rigtige billeder og de falske billeder, som generatoren laver.  Begge netværk forbedres gradvist ved at lære af hinandens fejl, hvilket resulterer i meget realistiske billeder over tid, når diskriminatoren ikke længere kan se forskel på et ægte billede og et falskt billede.  
  • Diffusionmodeller: Nyere udvikling inden for maskinlæring og kunstig intelligens, som bruges til at generere realistiske billeder. I mange af de nyeste udgaver af disse modeller er der indarbejdet filtre eller ”guardrails”, der sikrer, at modellerne ikke kan anvendes til at skabe manipuleret seksuelt materiale (MSM). Disse ”guardrails” er designet til at forhindre misbrug af teknologien og beskytte mod uetisk og ulovlig anvendelse. Dog er det i visse tilfælde teknisk muligt at omgå disse beskyttelsesmekanismer, f.eks. ved at "finetune" modellen, hvilket indebærer, at man træner modellen yderligere med specifikke datasæt for at ændre dens output. Stable Diffusion og DALL·E er eksempler på denne type model.
  • Nudify apps: Ofte simplere og mindre sofistikerede end GANs og diffusionsmodeller. De bruger allerede trænede modeller og billedmanipulationsteknikker til at fjerne tøj fra billeder og skabe falske nøgenbilleder. Disse apps bruger typisk maskinlæring for at forstå, hvordan en menneskekrop ser ud under tøjet og anvender denne viden til at skabe realistiske nøgenbilleder. Typisk vil brugeren have mulighed for at uploade et billede af en person med tøj på og så få samme billede tilbage, hvor personen fremstår afklædt.
No items found.

Herunder kan du se vores seneste analyser og undersøgelser om manipuleret seksuelt materiale

maj 2024

ANALYSE: BAG OM GOOGLE OG BINGS ANMELDELSESSYSTEM

Vi har undersøgt Google Search og Microsoft Bings anmeldelsessystem ved at indgive en række anmeldelser af søgeresultater, der henviser til hjemmesider med manipuleret seksuelt materiale – også kendt som ’deepfake porno’.

februar 2024

GOOGLE OG BING: EN REKLAMESØJLE FOR FALSKE NØGENBILLEDER

En analyse af søgemaskinernes ansvar for spredningen af manipuleret seksuelt materiale - også kendt som 'deepfake porno'.

Hvad er digital krænkelse?

De mest omtalte sager om digitale krænkelser, har de seneste år været om ulovlig deling af nøgenbilleder og -videoer.
Men begrebet dækker også over mange andre forhold, som fx usande beskyldninger (injurier), trusler, digital chikane og stalking med uønsket vedvarende kontakt eller overvågning eller forhånende eller nedværdigende udtalelser om bl.a. hudfarve, national eller etnisk oprindelse.

Begrebet er nyt, men kriminaliteten er velkendt. Digitale krænkelser er nemlig krænkelser og voldsformer, som vi har kendt til i mange år i den fysiske verden, som er rykket over på nettet eller har fået et digitalt liv, som vold, chikane, afpresning og misbrug af private oplysninger.

Dyk ned i vores fokusområder

Den teknologiske udvikling med smartphones, sociale medier og kunstig intelligens påvirker vores liv og samfund. Vores privatliv, børne- og familieliv, arbejdsliv, rettigheder og demokrati. For selvom den teknologiske udvikling giver nye muligheder, skaber den også nye udfordringer. Nye former for vold, risici og skadeligt indhold er vokset frem i ly af en lovgivning og forebyggelse, som har haltet efter den digitale udvikling.  

Vores arbejde for en ansvarlig digital udvikling fordeler sig på fire fokusområder, som du kan læse mere om herunder.

MANGE VED IKKE, HVOR DE KAN FÅ HJÆLP OG KENDER IKKE REGLERNE

56%

ved ikke, at arbejdsrelateret digital chikane er omfattet af arbejdsmiljøloven, som noget arbejdspladsen har pligt til at håndtere og forebygge på linje med fysisk vold og trusler om vold.

28%

Selvom at arbejdsrelateret digital chikane er udbredt, er der mange, som ikke fortæller deres arbejdsgiver om deres oplevelser med digital chikane.

Hjælp til digital vold