Digitalt Ansvar er ikke fremtidsforskere. Hvorvidt en supercomputer med ”general intelligence” er lige på trapperne, og om den vil udrydde menneskeligheden eller reducere arbejdstiden for alle danskere er uden for vores arbejdsområde. I stedet beskæftiger vi os med AI-faciliteret kriminalitet og negative samfundsmæssige konsekvenser, der finder sted lige nu.
AI's uigennemsigtighed (Black Box)
Et af de største problemer med AI er, at det er svært at forstå for både brugere og udviklere, hvordan systemet er kommet frem til sin beslutning, med andre ord er teknologien gemt i en såkaldt 'black box'.
Det skyldes bl.a., at:
AI-systemer er baseret på komplekse matematiske modeller, der kan være svære at forstå for folk, der ikke er eksperter i matematik eller programmering. På dette punkt adskiller AI sig ikke for andre former for ekspertviden, såsom jura og revision.
Mange AI-modeller er beskyttet som forretningshemmeligheder, hvilket betyder, at virksomheder ikke deler detaljer om, hvordan deres systemer fungerer. I visse situationer giver det god mening, at det er en forretningshemmelighed. Offentlighedens viden om, hvordan algoritmen bag Googles rangering af søgeresultater i grove træk fungerer betyder bl.a., at erhvervslivet aktivt arbejder med SEO-optimering, hvis formål grundlæggende er at 'hacke' algoritmen.
Nogle moderne AI-modeller er så store og komplicerede, at selv udviklerne af modellerne ikke kan gennemskue præcis, hvordan systemet når frem til sine svar. Denne uigennemsigtighed gør det udfordrende at stole fuldt ud på de svar, kunstig intelligens giver, lige så vel som forskellige former for bias i systemet kan være svære at identificere.
Indflydelse på samfundet
Bias
AI-systemer kan have en indbygget bias, hvilket kan føre til uretfærdige eller diskriminerende resultater. Dette gør sig især gældende for maskinlæring og generativ AI, hvor systemet lærer fra eksisterende data. For hvis den eksisterende data er et resultat af en diskriminerende proces, vil modellen også være det.
Dette er kendt som "garbage in, garbage out", hvor dårlige eller forudindtagede inputs leder til tilsvarende dårlig eller forudindtagende outputs. Dette kan lede til en status quo bias, hvor systemet forstærker eksisterende diskrimination.
Hvis en AI-model fx bruges til rekruttering og er trænet på data fra en tidligere ansættelsesproces, der har været biased mod kvinder, vil modellen sandsynligvis også diskriminere mod kvinder.
Databehandlet propaganda
Siden 2016 og Ruslands indflydelse på det amerikanske valg har der været fokus på desinformation og statsorkestreret ”fake news”, som er det, man overordnet kan kalde databehandlet propaganda (”computational propaganda”). Udbredelsen af generativ AI som ChatGPT har forstærket denne form for propaganda. Før disse store sprogmodeller var offentligt tilgængelige, kunne desinformation kun automatiseres via simple bots, som ikke kunne indgå i en rigtig dialog eller variere deres indlæg, men fx bare automatisk skrev den samme ting til alle Facebook-opslag omhandlende et specifikt emne. Disse bots var derfor mulige at identificere og få fjernet fra sociale medier. Alternativet var at få ægte mennesker til at styre profiler, såkaldte ”sock puppets”, men dette var ressourcetungt at skalere op. Med ChatGPT og andre store sprogmodeller er det nu muligt at producere enorme mængder af højkvalitet, databehandlet propaganda, som er svært at klassificere som produceret af en maskine.
Manglende ansvarlighed
Når en AI-model træffer en forkert beslutning, kan det være svært at placere ansvaret. Er det programmøren, virksomheden, eller selve teknologien, der skal holdes ansvarlig? Denne uklarhed kan gøre det vanskeligt at rette fejl og forbedre systemerne, ligesom det kan være sværere at forhindre fremtidige forkerte beslutninger eller imødekomme ofres retsfølelse.
Frygten for at blive offer for MSM kan forhindre kvinder i at deltage i den offentlige debat
Kunstig intelligens kan bruges til at skabe manipuleret seksuelt materiale (læs mere om MSM her). Frygten for at blive udsat for MSM kan forhindre især kvinder fra at deltage i den offentlige debat eller tage offentlige embeder. Et eksempel på dette er Sabrina Javellana, der som lokalpolitiker i Florida fik delt MSM af sig selv på det sociale medie 4chan i en sådan grad, at hun begyndte af klæde sig anderledes på sit arbejde, døjede med angst og blev bange for at gå alene om aftenen.
I 2022 samlede hun mod til at fortælle om sin sag offentligt og til en udvalgshøring angående en lovændring i Florida, der ville beskytte ofre bedre mod MSM. Reaktionen på dette var voldtægtstrusler, deling af hendes telefonnummer online samt at en anonym person sendte de falske nøgenbilleder til hendes mor.
Javellana besluttede sig for ikke at genopstille for at beskytte sig selv. Deter et eksempel på, at vi som samfund kan tabe talent på gulvet, fordi risikoen ved at indtage offentlige positioner inkluderer at blive offer for MSM. Hvis offentligheden er en markedsplads for ideer, bliver vi nødt til at sikre os, at alle kan deltage – og kvinders legitime frygt for at blive udsat for MSM modarbejder dette ideal.
Kunstig intelligens kan bruges til at skabe manipuleret seksuelt materiale (læs mere om MSM her). Frygten for at blive udsat for MSM kan forhindre især kvinder fra at deltage i den offentlige debat eller tage offentlige embeder. Et eksempel på dette er Sabrina Javellana, der som lokalpolitiker i Florida fik delt MSM af sig selv på det sociale medie 4chan i en sådan grad, at hun begyndte af klæde sig anderledes på sit arbejde, døjede med angst og blev bange for at gå alene om aftenen.
I 2022 samlede hun mod til at fortælle om sin sag offentligt og til en udvalgshøring angående en lovændring i Florida, der ville beskytte ofre bedre mod MSM. Reaktionen på dette var voldtægtstrusler, deling af hendes telefonnummer online samt at en anonym person sendte de falske nøgenbilleder til hendes mor.
Javellana besluttede sig for ikke at genopstille for at beskytte sig selv. Deter et eksempel på, at vi som samfund kan tabe talent på gulvet, fordi risikoen ved at indtage offentlige positioner inkluderer at blive offer for MSM. Hvis offentligheden er en markedsplads for ideer, bliver vi nødt til at sikre os, at alle kan deltage – og kvinders legitime frygt for at blive udsat for MSM modarbejder dette ideal.
Indflydelse på individet
Ofre for MSM
”I øjeblikket er enhver med en profil på sociale medier et oplagt mål for at blive forfalsket” Homeland Security, 2023
Citatet fra Homeland Security understreger, at alle personer er potentielle ofre for manipuleret seksuelt materiale (MSM). Dog er det i langt overvejende grad kvinder, som bliver udsat for denne forbrydelse.
Det er skræmmende, da vi ved, at konsekvenserne for det enkelte offer er enorme. Ofre for MSM lider både personlig, professionel og emotionel skade. Samtidigt er der intet, der tyder på, at der antallet af ofre vil aftage helt naturligt, da apps, der tilbyder værktøjer til at fremstille MSM, Nudify Apps, stiger i popularitet, ligesom open source-AI-modeller udvikles/og eller finetunes specifikt til at producere MSM.
Potentielle ofre er både voksne og børn. Der er eksempler fra både Spanien og USA, hvor den samme app er blevet brugt til at producere MSM af børn, som sidenhen er blevet distribueret blandt studerende i disse børns skoleklasser og lokalsamfund.
Ofre for scams
Generativ AI bliver i stigende grad udnyttet af svindlere til at skabe overbevisende falsk indhold på tværs af forskellige platforme. Teknologien muliggør produktionen af realistisk tekst, billeder og lyd, hvilket gør det lettere for svindlere at bedrage ofre.
Se fx dette nyhedsindslag, der beskriver, hvordan en mor blev forsøgt afpresset til at betale en løsesum for sin datter, som var blevet ”kidnappet”. Faktum var bare, at datteren slet ikke var kidnappet, hendes stemme var nemlig blevet klonet via kunstig intelligens af gerningsmænd for at afpresse moren.