Hvad er manipuleret seksuelt materiale?
Digitalt Ansvar arbejder indgående med manipuleret seksuelt materiale (MSM), som også går under navnet 'deepfakes' eller 'deepfake porno.'
Hvad er manipuleret seksuelt materiale?
Manipuleret seksuelt materiale (MSM) er kunstigt skabt eller manipuleret billed-, video-, tekst- eller lydmateriale, der fremstiller en eksisterende person i en seksuel situation, som den pågældende ikke har deltaget i.
Digitalt Ansvar anvender ikke termerne ”deepfakes” eller ”deepfake porno”, da de ikke er retvisende for det skadelige fænomen, som MSM i realiteten er.
“Deepfake porn” er ikke pornografisk materiale i traditionel forstand, men derimod materiale, der oftest er lavet uden de afbildedes samtykke. Dernæst stammer ”deepfake” fra brugernavnet på en Reddit-bruger, der introducerede og populariserede manipuleret seksuelt materiale. Endelig henviser ”deepfake” eller ”deepfake porn” til teknologien deep learning.
Læs også: Hvad er ulovlig billeddeling?
Omfang og udbredelse
MSM udbredes i dag til et bredt publikum via ’klassiske’ pornohjemmesider. I 2019 indeholdt 8 ud af 10 af de mest besøgte klassiske pornohjemmesider MSM, mens det i 2023 var 7 ud af 10. MSM findes også på hjemmesider, der er særskilt dedikeret til MSM-indhold. På en af mest besøgte MSM-hjemmesider kan der gratis ses korte videoklip, som ved betaling kan ses i fuld længde på en anden hjemmeside.
Der findes også eksempler på, at enkeltpersoner betaler for produktion af videoer med bestemte personer og ud fra specifikke ønsker. Sådanne køb og salg bliver bl.a. faciliteret igennem den krypterede beskedtjeneste Telegram og gaming-platformen Discord.
MSM produceres både af kommercielle årsager, men efterspørgslen kan også være begrundet i ønsket om bl.a. at se andre lide eller af kønspolitiske årsager, herunder at skabe indhold, der fx diskriminerer, chikanerer og begrænser kvinders ytringsfrihed.
Der eksisterer allerede et marked og efterspørgsel af MSM, og en amerikansk survey fra 2023 viste, at 48% af amerikanske mænd har set MSM, og at 74% af disse ikke følte skyld over dette. Søgemaskinerne spiller også en stor rolle i udbredelsen, det kan du læse mere om her.
Stigningen i uploadet indhold skyldes, at den bagvedliggende teknologi er blevet billigere og nemmere at anvende. Apps, open source-software og guides er let tilgængelige på internettet. Det er ikke længere nødvendigt at være ekspert i kunstig intelligens for at producere denne type indhold. I modsætning til for få år tilbage, er det heller ikke længere nødvendigt med mange billed-, video- eller lydfiler for at kunne producere vellignende og overbevisende indhold.
Læs også: Hvordan påvirker AI individet og samfundet?
Hvordan produceres MSM?
Deepfake-teknologier har revolutioneret måden, hvorpå digitale billeder og videoer kan manipuleres. Ved at udnytte avancerede teknikker inden for kunstig intelligens kan disse teknologier skabe realistiske videoer, billeder og lyd, som kan være næsten umulige at skelne fra det ægte.
Overordnet set bliver MSM produceret ved hjælpe af tre forskellige former for maskinlæring:
- GANs: Generative Adversarial Networks (GANs) består af to neurale netværk: en generator og en diskriminator, som arbejder imod hinanden i en konkurrence: Generatoren prøver at skabe falske billeder, der er så realistiske som muligt. Diskriminatoren prøver at skelne mellem rigtige billeder og de falske billeder, som generatoren laver. Begge netværk forbedres gradvist ved at lære af hinandens fejl, hvilket resulterer i meget realistiske billeder over tid, når diskriminatoren ikke længere kan se forskel på et ægte billede og et falskt billede.
- Diffusionmodeller: Nyere udvikling inden for maskinlæring og kunstig intelligens, som bruges til at generere realistiske billeder. I mange af de nyeste udgaver af disse modeller er der indarbejdet filtre eller ”guardrails”, der sikrer, at modellerne ikke kan anvendes til at skabe manipuleret seksuelt materiale (MSM). Disse ”guardrails” er designet til at forhindre misbrug af teknologien og beskytte mod uetisk og ulovlig anvendelse. Dog er det i visse tilfælde teknisk muligt at omgå disse beskyttelsesmekanismer, f.eks. ved at "finetune" modellen, hvilket indebærer, at man træner modellen yderligere med specifikke datasæt for at ændre dens output. Stable Diffusion og DALL·E er eksempler på denne type model.
- Nudify apps: Ofte simplere og mindre sofistikerede end GANs og diffusionsmodeller. De bruger allerede trænede modeller og billedmanipulationsteknikker til at fjerne tøj fra billeder og skabe falske nøgenbilleder. Disse apps bruger typisk maskinlæring for at forstå, hvordan en menneskekrop ser ud under tøjet og anvender denne viden til at skabe realistiske nøgenbilleder. Typisk vil brugeren have mulighed for at uploade et billede af en person med tøj på og så få samme billede tilbage, hvor personen fremstår afklædt.
Herunder kan du se vores seneste analyser og undersøgelser om manipuleret seksuelt materiale
Søgemaskiners ansvar for udbredelsen af falske nøgenbilleder
Digitalt Ansvar har gentaget vores undersøgelse af søgemaskinernes ansvar for udbredelsen af manipuleret seksuelt materiale (også kendt som deepfake porno) fra 2024. Analysen viser, at Google fortsat leder brugere videre til materialet, men at Bing og DuckDuckGo har forbedret deres praksis væsentligt.


