Syntetiske medier og deepfakes: Beskyttelse af valgcyklussen i 2025

juni 30, 2025
Synthetic Media and Deepfakes: Safeguarding the 2025 Election Cycle

Fremskridt inden for kunstig intelligens har muliggjort skabelsen af syntetiske medier – indhold, der er genereret eller manipuleret af AI – i hidtil uset omfang. Mens demokratiske nationer går ind i valgcyklussen i 2025, lyder der advarsler fra embedsmænd og eksperter om AI-drevet desinformation. I en nylig undersøgelse gav 85% af amerikanerne udtryk for bekymring over “vildledende video og lyd-deepfakes,” som kan påvirke valg brennancenter.org. Avisoverskrifter advarer om, at AI-genererede “deepfakes” kan skabe kaos i valgkampagner og undergrave vælgernes tillid brennancenter.org, hvilket understreger nødvendigheden af at beskytte valgets integritet. Denne rapport undersøger, hvad syntetiske medier og deepfakes er, hvordan de truer demokratiet, og hvad der kan gøres – fra teknologiske løsninger til politik – for at sikre valgene i 2025 og fremover.

Hvad er syntetiske medier og deepfakes?

Syntetiske medier er en bred betegnelse for digitalt indhold (billeder, video, lyd, tekst), der kunstig skabes eller ændres ved automatiserede metoder, især AI-algoritmer en.wikipedia.org. Nutidens generative AI-systemer kan skabe realistisk, menneskelignende output i alle medier – fra livagtige fotos af folk, der aldrig har eksisteret, til klonede stemmer og AI-skrevne artikler. Deepfakes er en særlig undergruppe af syntetiske medier: meget realistiske falske billeder, videoer eller lydfiler skabt med AI (deraf “deep” learning + “fake”) for at imitere rigtige personer encyclopedia.kaspersky.com. I praksis kan en deepfake være en video, hvor en politikers ansigt overbevisende er byttet ind på en andens krop, eller et lydklip, der imiterer en kandidats stemme og får vedkommende til at sige ting, de aldrig har sagt.

Hvordan skabes deepfakes? De fleste genereres via avancerede deep learning-teknikker. En gængs tilgang anvender generative adversarial networks (GANs) – to neurale netværk, der træner mod hinanden icct.nl. Det ene netværk (generatoren) skaber falske medier (f.eks. et billede af en persons ansigt), mens det andet (diskriminatoren) forsøger at afsløre, om det er falsk. Gennem tusindvis af gentagelser lærer generatoren at producere mere og mere realistisk output, indtil diskriminatoren ikke længere kan se forskel icct.nl. Oprindeligt krævede det store mængder træningsdata og kraftig hardware at lave en sømløs deepfake – for eksempel tog et forsøg på at deepfake skuespilleren Tom Cruise to måneders træning på avancerede GPU’er icct.nl. Men værktøjerne har udviklet sig hurtigt. Avanceret deepfake-software er nu bredt tilgængeligt og hurtigere, og i nogle tilfælde kan det endda fungere i realtid (for eksempel ved at ændre et live video feed eller et opkald undervejs) encyclopedia.kaspersky.com. Ud over GANs spiller andre AI-arkitekturer en rolle: transformer modeller kan generere deepfake-tekst eller assistere stemmekloning encyclopedia.kaspersky.com. Sammenfattende har de seneste AI-gennembrud gjort det let og billigt for næsten alle at skabe vildledende audio-visuelt indhold – hvilket dramatisk sænker tærsklen for desinformationsoperationer.

Det er vigtigt at bemærke, at ikke alle syntetiske medier er skadelige. AI-genereret indhold kan bruges til harmløse og kreative formål – personlige avatarer, at dubbe en talers stemme til andre sprog, satire og underholdning osv. Faktisk var under globale valg i 2024 ca. halvdelen af de dokumenterede AI-anvendelser i politisk indhold ikke-vildledende (f.eks. en kandidat, der åbent bruger en AI-stemme efter tab af deres egen, eller journalister, der bruger en AI-avatar for at beskytte deres identitet) knightcolumbia.org knightcolumbia.org. Men denne rapport fokuserer på den skadelige side af syntetiske medier – deepfakes, der har til hensigt at vildlede, bedrage eller manipulere vælgere og den offentlige mening.

Risici for demokratiske processer

Syntetiske medier og deepfakes udgør betydelige risici for demokratiet, især under valg, hvor en informeret vælgerbefolkning og tillid til information er altafgørende. Centrale trusler omfatter:

  • Desinformation og vælgermanipulation: AI-genererede falske videoer, billeder eller lydfiler kan bruges til at sprede falsk information om kandidater eller emner og således vildlede vælgerne. For eksempel kan en deepfake vise en kandidat fremsige hadefulde udsagn, de aldrig har sagt. Sådant fabrikeret indhold kan indføre giftig løgn i den offentlige debat. Eksperter advarer om, at deepfakes “udgør en høj risiko” for vælgere ved at indsætte falsk indhold i kampagner og undergrave den offentlige tillid aljazeera.com. En overbevisende manipuleret video udsendt kort før valgdagen – uden tid til at faktatjekke – kan endda påvirke tøvende vælgere eller reducere fremmødet og potentielt ændre udfaldet citizen.org. Denne trussel er ikke bare teoretisk: som beskrevet senere, blev en deepfake-lydfil i 2024 brugt til at imitere den amerikanske præsident, der opfordrede sine tilhængere til ikke at stemme – tilsyneladende for at afskrække valgdeltagelse aljazeera.com aljazeera.com.
  • Erosion af tillid (“Løgnens udbytte”): Udover enhver specifik forfalskning kan selve eksistensen af deepfakes underminere den offentlige tillid til ægte information. Vælgere kan begynde at tvivle på autentiske beviser, usikre på, om en viral video er ægte eller et AI-bedrag. Endnu værre kan kyniske aktører udnytte denne tvivl: ægte skandaler eller sande optagelser kan afvises som “bare en deepfake,” og forbrydere kan slippe for ansvar. Forskere har kaldt dette for “løgnens udbytte,” hvor øget bevidsthed om deepfakes gør det lettere for løgnere at påstå, at autentiske optagelser er falske brennancenter.org. Den øgede offentlige bevidsthed om AI’s muligheder betyder, at en politiker, der afsløres i et rigtigt fejltrin, lettere kan narre offentligheden ved at kalde afslørende lyd eller video for et AI-ængeri brennancenter.org. Denne dynamik truer den fundamentale tillid, som demokratiske samtaler bygger på. Valgovervågere bemærkede, at nogle kandidater i 2024 og deres støtter på forhånd råbte “AI-falsk” for at afvise ubehagelige historier brennancenter.org brennancenter.org. På længere sigt, hvis borgerne føler “man kan ikke stole på noget, man ser eller hører”, undergraver det den fælles virkelighed, der er nødvendig for frie og fair valg cetas.turing.ac.uk cetas.turing.ac.uk.
  • Forstærket polarisering og konflikt: Hidtil tyder evidensen på, at deepfake-propaganda ofte forstærker folks forudindtagede holdninger fremfor at overbevise tværs af skel cetas.turing.ac.uk. Skadeligt AI-indhold omfavnes og spredes ofte af personer med ekstreme holdninger, hvilket forstærker ekkokamre. Under det amerikanske præsidentvalg 2024 fandt forskere, at AI-genererede usandheder mest bidrog til at intensivere partiske fortællinger og polarisere debatten snarere end at vinde nye tilhængere cetas.turing.ac.uk. For eksempel fik falske videoer rettet mod præsident Biden eller vicepræsident Harris millioner af visninger online og blev især delt af brugere, der i forvejen var negative cetas.turing.ac.uk cetas.turing.ac.uk. Ved at befæste ideologiske lejre med dramatiske falske “beviser” på modpartens nederdrægtighed kan deepfakes drive samfund længere fra hinanden og forgifte valgmiljøet. Desuden skaber den forvirring og mistillid, som deepfakes spreder, grobund for konspirationsteorier cetas.turing.ac.uk, da borgerne nemmere kan afvise enhver ubehagelig virkelighed som AI-fabrikation.
  • Undergravning af valgadministrationen: Risikoen går ud over vildledning af vælgere om kandidater – deepfakes kan også forstyrre selve valgprocessen. Myndigheder har forestillet sig scenarier, hvor AI-stemmekloner eller falske beskeder udgiver sig for at komme fra valgstyrelsen og beder valgtilforordnede om at lukke valgsteder tidligt eller give vælgerne forkerte instrukser (f.eks. “valget er udsat”) aljazeera.com. En dygtig modstander kan simulere en meddelelse fra valgbestyrelsen eller en lokal embedsmands stemme for at sabotere valghandlingen. Sådanne tricks kan reducere stemmeafgivningen eller skabe kaos på valgdagen. Det amerikanske Brennan Center bemærker, at manipulerede medier kan bruges til at narre både offentligheden og valgtilforordnede/embedsmænd, hvilket kræver nye træningsprogrammer og procedurer aljazeera.com.
  • Chikane og karaktermord: Deepfakes er også et effektivt våben til personlige angreb på kandidater, aktivister eller journalister. En særlig ondartet kategori er ikke-samtykkebaseret syntetisk pornografi – hvor en persons ansigt sættes ind i eksplicit seksuelt indhold. Denne strategi har allerede været brugt til at chikanere kvindelige journalister og politikere verden over. Den mest ekstreme form for deepfake-chikane er falske intime billeder, som bruges til at ydmyge eller afpresse personer weforum.org. I en valgkampssammenhæng kunne operatører udsende en falsk kompromitterende video af en kandidat (f.eks. en deepfake-sexvideo eller en falsk optagelse af ulovlig adfærd) lige før en afstemning. Selv hvis den hurtigt bliver afkræftet, kan skaden på kandidatens omdømme være sket. Kvinder og minoriteter udsættes uforholdsmæssigt ofte for denne slags “syntetiske smædekampagner”, hvilket kan afskrække mangfoldige kandidater fra at stille op policyoptions.irpp.org policyoptions.irpp.org. Kort sagt tilfører deepfakes ny benzin til gamle beskidte tricks – fra falske skandaler til opdigtede citater – og forstærker forsøg på karaktermord under valg.

Afslutningsvis skal det bemærkes, at vi indtil nu ikke har været vidne til en valgkatastrofe forårsaget af deepfakes. Empiriske analyser af valg verden over i 2024 fandt få beviser for, at AI-genereret desinformation ændrede noget valgresultat cetas.turing.ac.uk weforum.org. Traditionel misinformation (billigt redigerede “cheapfakes”, rygter, partisk spin) var stadig meget mere udbredt end højteknologiske deepfakes knightcolumbia.org knightcolumbia.org. Eksperter advarer dog om, at manglen på en katastrofe hidtil ikke må føre til selvtilfredshed cetas.turing.ac.uk weforum.org. Teknologien udvikler sig hastigt, og fjendtligt indstillede aktører lærer hurtigt. Selv hvis deepfakes ikke ændrede udfaldet i en større valgkamp i 2024, prægede de stadig debatten – for eksempel blev virale AI-genererede løgne om kandidater til diskussionsemner i de store debatter cetas.turing.ac.uk. Derudover bidrog selve den opfattede trussel fra deepfakes til offentlig uro og mistillid omkring valgene cetas.turing.ac.uk cetas.turing.ac.uk. Risikoen for et mere ødelæggende tilfælde består, især op mod det spændingsfyldte valgår 2025. Demokratiske samfund må derfor tage deepfakes alvorligt som et spørgsmål om sikkerhed og troværdighed og håndtere både direkte risici fra forfalskede medier og den bredere udhuling af sandheden i valgsfæren.

Nylige hændelser: Deepfakes forstyrrer politik

Virkelige eksempler fra de seneste år illustrerer, hvordan syntetiske medier allerede er blevet brugt som våben i politiske sammenhænge. Nedenfor gennemgår vi flere bemærkelsesværdige hændelser og casestudier af deepfakes og AI-genereret misinformation, der har påvirket valg eller den offentlige debat:

  • Ukraine (marts 2022) – “Overgivelses”-video: I de tidlige dage af Ruslands krig mod Ukraine dukkede der en video op, som tilsyneladende viste Ukraines præsident Volodymyr Zelensky opfordre sine tropper til at lægge våbnene og overgive sig. Videoen var en deepfake, hvor Zelenskys billede og stemme syntetisk blev ændret icct.nl. Afslørende fejl (slørede kanter, uoverensstemmende hudtone på halsen) afslørede forfalskningen, og ukrainske medier afslørede hurtigt bedraget. Denne hændelse – den første kendte brug af en deepfake i en væbnet konflikt – antydede, hvordan AI-propaganda kunne bruges til at underminere ledere under kriser icct.nl. Selvom den falske Zelensky-video ikke lykkedes med at demoralisere Ukraines modstand, viste det intentionen og evnen hos ondsindede aktører (i dette tilfælde formodede russiske operatører) til at bruge deepfakes til informationskrigsførelse.
  • Slovakiet (september 2023) – Valgmisinformation: Få dage før Slovakiets parlamentsvalg gik deepfake-lydoptagelser viralt, hvor Michal Šimečka, leder af partiet Progressive Slovakia, angiveligt tilstod valgsvindel og endda foreslog at fordoble prisen på øl brennancenter.org. Nogle versioner havde en svag ansvarsfraskrivelse om, at de var AI-genererede, men det fremgik først i slutningen af klippet – sandsynligvis et bevidst trick for at vildlede lyttere brennancenter.org. Tidspunktet var tydeligvis strategisk, umiddelbart før afstemningen. Šimečkas pro-vestlige parti tabte knebent til en pro-Kreml-modstander, og nogle kommentatorer spekulerede i, at den sidste-øjebliks-deepfake-kampagne kan have påvirket resultatet brennancenter.org. Denne sag understreger, hvordan udenlandske eller indenlandske aktører kan indsætte deepfakes for at påvirke et tæt valg, og hvor svært det kan være at modvirke falske narrativer i de sidste øjeblikke af en kampagne.
  • Taiwan (januar 2024) – Udenlandsk indflydelsesoperation: Op til Taiwans præsidentvalg i 2024 dokumenterede observatører en kinesisk desinformationskampagne, der brugte deepfakes til at underminere kandidaten Lai Ching-te. Falske videoer cirkulerede online, hvor Lai (fra det regerende pro-uafhængighedsparti) kom med udtalelser, han aldrig havde fremsat – for eksempel fejlagtigt at antyde, at han støttede modstanderens politik policyoptions.irpp.org. I et tilfælde blev AI-genereret lyd af Lai udgivet, hvor han tilsyneladende kritiserede sit eget parti policyoptions.irpp.org i et forsøg på at splitte hans støtte. Disse syntetiske medieangreb, sporet til Kina, havde til formål at påvirke den offentlige mening og så forvirring i Taiwans demokrati policyoptions.irpp.org. Til sidst vandt Lai valget, og analytikere vurderede, at den kinesiske deepfake-kampagne ikke væsentligt ændrede udfaldet policyoptions.irpp.org. Dog var det et skoleeksempel på et fjendtligt fremmed regime, der brugte AI-propaganda mod et demokratisk valg policyoptions.irpp.org policyoptions.irpp.org. Bekymringen består: i et tættere valg andetsteds kan sådanne taktikker få større indflydelse.
  • USA (2024) – Deepfakes i valgkampen: Valgkampen i USA i 2024 oplevede en bølge af AI-genereret politisk indhold, som, selvom det ikke afsporede valget, skabte bekymring. I begyndelsen af 2024 modtog vælgere i New Hampshire et forvirrende robocall: en stemme, der lignede præsident Joe Biden, der sagde til demokraterne, “for at redde din stemme, brug den ikke ved dette valg.” Stemmen lød autentisk for nogle, men budskabet var åbenlyst mistænkeligt – Biden ville aldrig opfordre sine tilhængere til ikke at stemme. I virkeligheden var det en deepfake-stemme-klon af Biden, udsendt til tusindvis af vælgere i et tilsyneladende forsøg på vælgerundertrykkelse aljazeera.com aljazeera.com. Denne hændelse, der nåede anslået 5.000 telefonnumre i New Hampshire, viste, hvor billigt og let sådanne beskidte tricks kan udføres – konsulenten, der lavede Biden-deepfaken, sagde, at det kun tog 20 minutter og cirka 1 dollar i computeromkostning policyoptions.irpp.org policyoptions.irpp.org. Imens nåede AI-genererede billeder de officielle kampagnematerialer på sociale medier. Især udgav Florida-guvernør Ron DeSantis’ team en attack-annonce med manipulerede billeder af Donald Trump, der krammer Dr. Anthony Fauci – implicitten var, at Trump stod for tæt på den tidligere COVID-rådgiver, som er upopulær på højrefløjen. Det viste sig, at billederne af Trump, der omfavnede Fauci, var AI-genererede forfalskninger indsat i videoen af kampagnen brennancenter.org, hvilket udløste offentlig kritik, da det blev opdaget. I et andet tilfælde spredte en AI-skabt video af præsident Biden, der “taler” til nationen med sløret tale sig online, men blev hurtigt afvist som falsk. Nogle falske videoer af Biden og vicepræsident Harris opnåede millioner af visninger på sociale medier cetas.turing.ac.uk, hvilket viser, hvor hurtigt sådant indhold kan sprede sig. Selv teknologimoguler blandede sig: Elon Musk delte berygtet en groft redigeret video af VP Harris (mærket som “satire”), der viste hende udspyde volapyk – hvilket udviskede grænsen mellem meme-humor og desinformation cetas.turing.ac.uk cetas.turing.ac.uk. Selvom ingen af disse deepfakes ændrede valgets gang, forstærkede de falske narrativer (f.eks. om Bidens mentale kapacitet eller Trumps loyalitet) og yderligere forgiftede informationslandskabet. Amerikanske embedsmænd frygter også deepfakes, der retter sig mod valg-infrastrukturen – f.eks. falske lydoptagelser af valgtilsynsførende, der instruerer personale i at handle forkert aljazeera.com – selvom ingen større hændelse af den slags blev offentliggjort i 2024.

Disse eksempler fremhæver truslens globale omfang. Deepfakes er blevet brugt af statslige aktører i geopolitiske konflikter, af provokatører i nationale valg fra Europa til Asien, samt af kampagner og støtter i USA. De har antaget form af falske taler, billeder, telefonopkald og videoer – rettet mod både vælgere og valgfunktionærer. Hændelserne giver også visse erfaringer: mange deepfakes er blevet afsløret forholdsvis hurtigt (ofte af opmærksomme journalister eller faktatjekkere), og i flere tilfælde gav modreaktionen mod brugen af deepfakes (f.eks. DeSantis-reklamen) negativ omtale for bagmændene. Det tyder på, at gennemsigtighed og årvågenhed kan dæmpe skadevirkningen. Men tendensen er klar – sådanne syntetiske løgne bliver mere hyppige og sværere at adskille fra virkeligheden med det samme. Hvert valg bringer nye førstegangs-episoder (2024 oplevede de første AI-“robocall”-svindelnumre for at påvirke stemmeafgivelse, første kampagnebrug af deepfake-annoncer osv.), og risikoen for en mere ødelæggende deepfake-hændelse vokser, efterhånden som vi nærmer os 2025.

Opdagelse og modvirkning af deepfakes: Værktøjer og teknologier

En afgørende del af at beskytte valg er at udvikle pålidelige værktøjer til opdagelse og afbødning mod deepfakes. Forskere, teknologivirksomheder og regeringer kæmper for at skabe teknologier, der kan afsløre AI-forfalskninger og autentificere ægte indhold. Her giver vi et overblik over det nuværende landskab for deepfake-opdagelse og tilhørende modforanstaltninger:

  • Automatiserede deepfake-detektorer: Den primære forsvarslinje er AI, der bekæmper AI – algoritmer, der er trænet til at analysere medieindhold og identificere typiske tegn på manipulation. Disse opdage­systemer leder efter subtile artefakter eller uoverensstemmelser, som generative modeller efterlader. Tidlige deepfakes havde for eksempel ofte uregelmæssig blinkning med øjnene eller ufuldkommen læbesynkronisering. Dagens detektorer bruger dybe neurale netværk til nøje at undersøge ting som belysning og skygger i ansigter, lydfrekvensmønstre eller biologiske signaler (f.eks. puls i video), som AI kan have svært ved at efterligne. Teknologivirksomheder har opbygget interne værktøjer – for eksempel udgav Microsoft en “Video Authenticator” i 2020, der kunne markere falske videoer via frame-analyse. Platforme som Facebook og X (Twitter) har investeret i opdagelsesforskning og implementeret filtre for at identificere kendte forfalskninger. Akademiske initiativer og konkurrencer (såsom Facebook Deepfake Detection Challenge og IEEE-konferencer) har fremskyndet udviklingen, og startups som Sensity og Reality Defender tilbyder kommercielle deepfake-opdagelsestjenester. Dette er dog en reel våbenkapløbssituation: Efterhånden som opdagelsen forbedres, tilpasser deepfake-skabere sig for at producere mere sømløse forfalskninger, der undgår automatiske checks. Bemærkelsesværdigt er det, at en Meta-rapport fra 2023 viste, at ud af al den misinformation, der blev markeret under valgcyklussen i 2024, “mindre end 1%” blev identificeret som AI-genereret indhold weforum.org, hvilket enten antyder, at deepfakes var forholdsvis sjældne eller at mange undgik opdagelse.
  • Vandmærkning og indholdsoprindelse: En anden strategi er at tagge AI-genereret indhold allerede ved skabelsen, så downstream-brugere let kan genkende det som syntetisk. EU arbejder ihærdigt for denne tilgang – den nye EU AI Act forpligter eksplicit til, at alt AI-genereret eller -manipuleret indhold tydeligt skal mærkes eller vandmærkes realitydefender.com. Virksomheder bliver pålagt at indlejre en indikator (et digitalt vandmærke eller et metadata-mærke), når billede, video eller lyd produceres af AI. I teorien kan browsere eller sociale medier derefter automatisk markere eller filtrere indhold med disse mærker. Vandmærkning har potentiale, især for at afskrække uformisbrugt anvendelse. Store AI-modeludbydere (som OpenAI, Google og andre) har drøftet frivillig vandmærkning af billeder eller tekst, deres systemer genererer. Desuden udvikler en koalition af medie- og teknologivirksomheder oprindelsesstandarder (fx C2PA, Coalition for Content Provenance and Authenticity) for at kryptografisk registrere oprindelse og redigeringshistorik for digitalt medieindhold. For eksempel kan et pressefoto eller kampagneannonce bære et sikkert ægthedscertifikat, så alle kan verificere, hvem der har lavet det, og at det ikke er manipuleret cetas.turing.ac.uk. Den amerikanske regering har taget dette til sig; Det Hvide Hus pålagde føderale myndigheder at udvikle retningslinjer for “autenticitet som standard”, hvor oprindelsesmetadata indlejres i alt digitalt indhold de fremstiller inden 2025 cetas.turing.ac.uk. Hvis sådanne tiltag bliver bredt adopteret, vil det blive meget sværere for fake-indhold at udgive sig for at være ægte.
  • Begrænsninger ved mærkater: Selvom gennemsigtighedsværktøjer er vigtige, er de ikke ufejlbarlige. Vandmærker kan fjernes eller ændres af målrettede modstandere. Faktisk har forskere allerede vist metoder til at fjerne eller skjule AI-vandmærker realitydefender.com, og en ondsindet aktør, der bygger sin egen generative model, kan blot vælge ikke at inkludere mærkning. Oprindelsesmetadata hjælper kun, hvis det er bredt implementeret og hvis forbrugere faktisk tjekker det. En deepfake-skaber kan også bruge et “provenance piggybacking”-trick – at tage et autentisk foto eller video og lægge falske elementer ovenpå, så slutproduktet stadig har den originale fils digitale signatur. Disse udfordringer betyder, at vi ikke kun kan stole på indholdsmærkater. Som et AI-sikkerhedsfirma bemærkede, virker vandmærkning og oprindelse kun, når indholdsskabere samarbejder om at mærke deres output – det forhindrer ikke dedikerede ondsindede aktører realitydefender.com. Derfor er inference-baseret opdagelse (analyse af selve indholdet for AI-manipulation) fortsat afgørende realitydefender.com. Det bedste forsvar bliver sandsynligvis en kombination af begge tilgange: robuste, automatiserede detektorer, der scanner for forfalskninger, og autentificeringssystemer til verificering af ægte medier.
  • Opdagelse i realtid for video-/lydstrømme: Et fremvoksende behov er værktøjer, der kan fange deepfakes i live-sammenhæng. Forestil dig et hypotetisk scenarie med et svigagtigt “live” videoopkald med en kandidat eller embedsmand – som i 2023, da kriminelle i Hong Kong deepfake’ede en virksomhedsleder på Zoom for at godkende en svindeloverførsel på 25 millioner dollars weforum.org. I dette tilfælde var flere personer på opkaldet – herunder en CFO-bedrager – alle AI-genererede. At opdage sådanne realtidsfakes er ekstremt udfordrende. Virksomheder arbejder på løsninger som plugins til videomøder, der kan advare brugere, hvis et billede eller en stemme virker syntetisk ændret (fx ved at analysere lydlatens og spektralanomalier eller tjekke, om et ansigts bevægelser matcher nøjagtigt med en rigtig persons bevægelser fanget af kamera). Nogle startups hævder at kunne levere realtids deepfake-detektion-API’er, som kan integreres i streamingplatforme eller til autentificering af oplægsholdere ved live events. Foreløbigt halter realtidsdetektionen dog ofte efter angriberne, så forebyggende foranstaltninger (fx brug af adgangskoder eller “kodeord” under telefonopkald til verifikation, som anbefalet af politiet weforum.org) vægtes højest.
  • Menneskelig faktatjek og fællesskabsflagning: Teknologi alene er ikke en mirakelkur. Et årvågent menneskeligt lag forbliver afgørende. Nyhedsorganisationer, faktatjek-grupper og platforme har oprettet særlige hold til at overvåge virale deepfakes under valgperioder. Disse hold anvender OSINT-teknikker (open source intelligence) og retsmedicinske værktøjer til at analysere mistænkeligt materiale – for eksempel tjekke tidsstempler, kigge efter uoverensstemmelser (som manglende øreringe på en politiker i en video eller mærkelige mundbevægelser) og hurtigt offentliggøre tilbagevisninger. Crowdsourcet indsats hjælper også: på X/Twitter bruges funktionen “Community Notes” til at markere opslag med AI-genereret indhold med forklarende kontekst. Under nylige valg afslørede brugere ofte deepfakes inden for få timer efter de dukkede op – med side-om-side-sammenligninger eller ved at påpege fejl. Denne form for fælles årvågenhed, understøttet af digital dannelse, er et stærkt værktøj. Platformene læner sig i stigende grad op ad brugere og uafhængige faktatjekkere for at identificere tvivlsomt indhold, givet det enorme antal opslag automatiske filtre skal scanne. Ulempen er, at en deepfake kan gå viralt før den er gennemskuet. Ikke desto mindre vil hurtigere respons og bredere bevidsthed (så flere kan spotte en forfalskning selv) mindske skaden.

Sammenfattende er deepfake-opdagelse et aktivt og hastigt udviklende felt. Der gøres fremskridt – fx er detektorer i dag langt bedre end i 2018, og initiativer som Content Authenticity Initiative arbejder for at gøre verifikation standard. Men der er stadig udfordringer pga. kattens-leg-med-musen med modstandere og behovet for bred implementering af værktøjerne. De kommende år vil sandsynligvis byde på, at opdagelsesteknologi integreres bedre i sociale medier, nyhedsarbejdsgange og endda enheder (forestil dig din smartphone advare dig, hvis en indkommende video muligvis er AI-genereret). Det er afgørende, at detektions- og oprindelsesværktøjer kobles sammen med folkeoplysning, så brugere forstår og handler hensigtsmæssigt, når der kommer en advarsel eller mærkat. Den teknologiske del er kun én søjle i en større strategi mod truslen fra syntetiske medier.

Politiske reaktioner og lovgivningsmæssige rammer

Beslutningstagere verden over er blevet opmærksomme på deepfake-truslen og er begyndt at formulere love og regler for at håndtere den. Emnet er nyt, men der opstår et kludetæppe af respons blandt store demokratier. Nedenfor gives et overblik over de lovgivende og regulatoriske tiltag i gang:

  • USA: I USA findes der endnu ingen føderal lov mod politiske deepfakes, men der er stigende momentum for at udfylde dette hul. Der er fremsat flere lovforslag i Kongressen, der skal dæmme op for ondsindede deepfakes. F.eks. blev der i begyndelsen af 2024 foreslået No AI FRAUD Act som svar på opsigtsvækkende hændelser (som AI-genererede krænkende billeder af berømtheder) policyoptions.irpp.org. Dette lovforslag skal etablere et føderalt system, der kriminaliserer visse skadelige anvendelser af AI, såsom bedrageriske politiske deepfakes og vildledende pornografiske forfalskninger policyoptions.irpp.org. Et andet forslag er at stille krav om oplysning om AI-genereret indhold i valgannoncer (så kampagner tydeligt skal markere annoncer med syntetisk medie). Imens har Federal Communications Commission (FCC) taget et målrettet skridt ved at forbyde brug af AI-stemme-kloner i robocalls med hensigt om at bedrage eller skade policyoptions.irpp.org. Dette skete efter svindelsager, hvor personer blev imiteret med AI-stemmer. FCC-forbuddet gør det ulovligt for telefonsælgere eller politiske aktører at anvende syntetiske talemeddelelser til at vildlede modtagere. Meget af deepfake-reguleringen i USA foregår på delstatsniveau. Siden 2019 har flere stater, bl.a. Californien og Texas, vedtaget love mod valg-deepfakes. Californien forbyder distribution af materielt vildledende deepfake-videoer af kandidater inden for 60 dage før valg (med undtagelser for satire/parodi) brennancenter.org. Texas har gjort det til en statslig forbrydelse at skabe eller dele deepfake-videoer med henblik på at skade en kandidat eller påvirke vælgere brennancenter.org. Pr. midt 2025 har mindst fjorten amerikanske stater vedtaget eller diskuterer lovgivning for at regulere deepfakes i valgkontekst citizen.org. Bemærkelsesværdigt har disse tiltag fået opbakning fra begge partier – lovgivere er enige om, at AI-manipuleret valgdesinformation truer demokratiet citizen.org citizen.org. Delstatslovene varierer: nogle har kriminelle sanktioner for at offentliggøre skadelige deepfakes om en kandidat, andre fokuserer på krav om advarsler på syntetiske valgannoncer. Desuden har interessegruppen Public Citizen opfordret Federal Election Commission til at opdatere sine regler og forbyde føderale kandidater at bruge vildledende deepfakes i kampagner brennancenter.org. FEC har endnu ikke offentliggjort nye regler, men emnet er på dagsordenen. Amerikanske lovgivere skal dog også balancere ytringsfriheden – alt for brede forbud mod manipuleret medieindhold kan komme på kant med First Amendment. Satire og parodi (beskyttet politisk ytring) involverer ofte manipulerede billeder eller videoer; lovene skal udformes, så de kun rammer ondsindet vildledning. Dette afspejles i mange delstatslove, der udtrykkeligt undtager satire, parodi eller journalistisk brug brennancenter.org brennancenter.org. Den generelle konsensus er dog, at falsk AI-genereret indhold, der bevidst vildleder vælgere eller skaber uro, ikke har nogen berettigelse i et demokrati og kan begrænses uden at indskrænke ytringsfriheden brennancenter.org brennancenter.org.
  • EU: EU bevæger sig hurtigt mod bred AI-regulering, herunder tiltag rettet direkte mod deepfakes. Den banebrydende EU AI Act, aftalt i 2024 (fuldt gældende fra 2026, enkelte dele tidligere), indfører et gennemsigtighedskrav for syntetiske medier. Under AI Act skal ethvert AI-system, der kan generere “deepfake”-indhold, sikre, at indholdet er mærket som AI-genereret (undtagen ved visse undtagelsestilfælde som kunst eller sikkerhedsforskning) realitydefender.com. I praksis betyder det, at udviklere af generative billed- eller videomodeller i EU er forpligtet til at indbygge vandmærkning eller metadata, der signalerer, at resultatet er syntetisk. Manglende overholdelse kan give store bøder efter Aktens regler. Desuden nævner EU’s opdaterede Code of Practice on Disinformation (en frivillig kodeks, som store platforme har tilsluttet sig), at deepfakes er en trussel og forpligter platformene til at udvikle “politikker, tiltag og værktøjer mod manipuleret indhold” brennancenter.org brennancenter.org. For eksempel er platforme blevet enige om at indføre systemer til at opdage og enten mærke eller fjerne deepfake-videoer, som kan forvolde skade, og om at samarbejde med faktatjekkere om hurtig modbevisning. Under Digital Services Act (DSA) – trådt i kraft i 2023 – skal meget store onlineplatforme i EU vurdere og imødegå “systemiske risici”, herunder spredning af AI-genereret misinformation. Dette regulative pres har fået selskaber som Meta, Google og TikTok til at annoncere nye sikkerhedsforanstaltninger for valgsæsonen 2024–2025: fra forbedret deepfake-detektion til øget markering af syntetiske medier. Kort sagt tager Europa et gennemsigtighedsbaseret regulatorisk standpunkt: krav om mærkater og ansvar for platforme. Kritikere påpeger, at håndhævelse bliver vanskelig (hvordan finder man alle ikke-mærkede fakes i mængden?), men EU signalerer klart, at uindskrænkede deepfakes er uacceptable og uforenelige med europæisk digitalforvaltning realitydefender.com realitydefender.com.
  • Storbritannien: Storbritannien har endnu ikke vedtaget valg-specifik deepfake-lovgivning, men håndterer problemet gennem bredere indsatser for onlinesikkerhed og AI. I 2023 indførte UK Online Safety Act, en gennemgribende lov, der regulerer skadelig online-adfærd. Denne lov kriminaliserede deling af ikke-samtykkebaseret deepfake-porno – det blev ulovligt at skabe eller distribuere eksplicit syntetisk materiale af en person uden samtykke policyoptions.irpp.org. Dette tackler harassment-delen af deepfakes. For valgmisinformation kan Ofcom (kommunikationsmyndighed) udstede praksiskodekser om misinformation. Eksperter opfordrer Ofcom til at udvikle en praktisk kodeks om misinformation, med standarder for håndtering af AI-manipuleret indhold cetas.turing.ac.uk. En sådan kodeks – eventuelt inspireret af EU – kunne få sociale medier og politiske aktører til at afstå fra deepfakes og tydeligt mærke syntetisk indhold. Der er også opfordringer til, at UK Electoral Commission giver vejledning til politiske partier om ansvarlig AI-brug og røde linjer for vildledende deepfakes cetas.turing.ac.uk. Senest i 2024 anbefalede et tværpolitisk udvalg at stramme valglover for at straffe deepfake-desinformation, men konkret lovudkast er endnu ikke fremsat. Regeringen undersøger om gældende lov (fx om bagvaskelse, bedrageri og valgforbrydelser) er nok mod deepfakes, eller om der skal ny lovgivning til cetas.turing.ac.uk. Storbritannien har desuden oprettet et AI Safety Institute og var vært for AI-topmøde i 2023, hvor informationsmanipulation var tema. De britiske myndigheder ser ud til at satse lige så meget på teknisk forsvar og oplysning af borgerne (nævnt nedenfor) som på regulering. Alligevel viser forbuddet mod deepfake-porno og flere beføjelser til myndighederne, at AI-baseret falskt indhold kræver politisk respons.
  • Canada: Pr. 2024 havde Canada ingen specifik lov mod brug af deepfakes i valg. Canada Elections Act forbyder ikke eksplicit AI-genereret misinformation eller deepfakes, så det ville skulle retsforfølges efter generelle bestemmelser (fx bedrageri/bedrag), der ikke nødvendigvis er tilstrækkelige cef-cce.ca. Dette hul er blevet fremhævet af eksperter, der advarer om, at Canada er “et par skridt bagefter” andre demokratier på dette punkt policyoptions.irpp.org. I efteråret 2023 oplevede Canada et mindre deepfake-tilfælde, hvor et falsk lydklip, der lød som en politiker, cirkulerede. Det fik dog lille effekt, men øgede opmærksomheden. Elections Canada har siden markeret AI-misinformation som en fremvoksende trussel og undersøger mulige løsninger cef-cce.ca. Analytikere opfordrer til ny lovgivning “allerede i går” – måske med flere beføjelser til valgmyndigheden til at slå ned på manipuleret syntetisk medie policyoptions.irpp.org. Canada kan tage idéer fra allierede – fx oplysning om AI i politiannoncer eller forbud mod materiale, der vitterligt er deepfake og skulle vildlede vælgere. Indtil midten af 2025 var der ikke fremsat noget lovforslag, men presset vokser for at få Canada til at indgå i rækken af lande, der lovgiver mod valg-deepfakes policyoptions.irpp.org.
  • Andre demokratier: Rundt om i verden har flere demokratier allerede iværksat tiltag:
    • Australien: Den australske regering, bekymret for AI-“sandhedsforfald” før kommende valg, har annonceret planer for “sandhed i politisk reklame”-lovgivning, der skal forbyde vildledende deepfake-video og -lyd i valgkampen innovationaus.com. Forslaget, fremsat i 2023, ville forbyde udgivelse af syntetiske medier, der imiterer rigtige kandidater eller kan vildlede vælgere under valgperioder innovationaus.com. Lovarbejdet går dog langsomt – det forventes, at disse bestemmeler først gælder fra 2026 innovationaus.com, så valget i 2025 kan foregå uden. I mellemtiden har landets valgkommission udsendt vejledninger og understreget behovet for proportioner (de påpeger, at overdreven fokus på deepfakes kan nedslide tilliden til ægte information) ia.acs.org.au. Australske politikere på tværs af partier støtter bekæmpelse af AI-misinformation, og debatten fortsætter om, hvordan dette balanceres i forhold til den politiske ytringsfrihed theguardian.com sbs.com.au.
    • Taiwan: Efter deepfake-indblanding fra Kina har Taiwan opdateret sin lov om valghandlinger. I 2023 ændrede Taiwans parlament loven, så det nu er ulovligt at dele manipuleret lyd eller video af kandidater med det formål at falsk påvirke valgresultatet policyoptions.irpp.org. Dette gav et klart juridisk redskab mod deepfake-smædekampagner som set i 2024. Taiwan har også investeret i folkeoplysning og et hurtigt respons-system (med myndigheder, civilsamfund og platforme) for at tilbagevise falske oplysninger, hvilket begrænsede skaden policyoptions.irpp.org policyoptions.irpp.org.
    • Europæiske demokratier: Udover EU-regler har flere europæiske lande taget fat på deepfakes via eksisterende lovgivning. Fx kan Frankrigs lov mod “falsk information” under valg (vedtaget i 2018) bruges mod deepfake-videoer, der forsøger at påvirke valg, og Tysklands strenge ærekrænknings- og valglove kan dog også gælde. Der er dog også forslag om nye tiltag: I Tyskland er der drøftelser om krav til politiske partier om at erklære brugen af syntetiske medier i valgmateriale. I UK, som tidligere nævnt, kan fremtidige valg-love (f.eks. imprintkrav for digitale annoncer) inkludere AI-indholdsoplysning cetas.turing.ac.uk.
    • Internationale initiativer: Der er voksende forståelse for, at globalt samarbejde er nødvendigt, da desinformation krydser grænser. G7 har en arbejdsgruppe om “AI Governance”, som i 2024 udsendte en udtalelse om at bekæmpe ondsindet brug af AI i informationsrummet. Biden-administrationen i USA har indgået frivillige tilsagn med store AI-udviklere (OpenAI, Google, Meta m.fl.) om at indføre vandmærkning på AI-indhold og investere i misbrugsforebyggelse. Selvom dette ikke er bindende, indikerer det en international norm for gennemsigtighed og ansvarlighed i AI-brug.

Opsummerende accelererer de politiske reaktioner på deepfakes. Lovgivningen halter stadig efter teknologien, men retningen er klar: myndigheder går mod at kriminalisere de mest skadelige anvendelser af syntetiske medier i valg, at påbyde gennemsigtighed (mærkater/oplysninger) for AI-genereret indhold og at styrke regulerende myndigheders eller valgmyndigheders mulighed for at gribe ind mod digitale forfalskninger. Samtidig skal man beskytte legitim ytring som satire og undgå drakoniske regler, der kan misbruges til censur. Det er en svær balancegang. De forskellige tilgange – fra amerikanske delstatslove til EU-mandater – giver et laboratorium i 2025 for, hvad der virker. Beslutningstagerne vil naturligvis justere disse værktøjer, efterhånden som vi lærer mere. Men at gøre ingenting er ikke en mulighed: som en policy-tracker formulerede det, “Uden regulering vil deepfakes sandsynligvis gøre vælgerne mere forvirrede og undergrave tilliden til valg.” citizen.org citizen.org Næste afsnit opstiller strategiske anbefalinger, der bygger videre på disse tiltag og retter sig mod alle aktører i den demokratiske proces.

Strategiske anbefalinger til beskyttelse af valg

At forsvare valgintegriteten i AI-alderen vil kræve en flerstrenget strategi. Intet enkelt værktøj eller lov kan løse deepfake-problemet; i stedet er der behov for en koordineret indsats fra regeringer, teknologiplatforme, medier og civilsamfundet. Nedenfor er strategiske anbefalinger på tværs af disse sektorer for at mindske risici og sikre, at vælgerne kan træffe informerede beslutninger i 2025 og fremover:

Regeringer og beslutningstagere

1. Styrk lovgivningen og afskrækkelsen: Regeringer bør vedtage eller opdatere lovgivning, der udtrykkeligt forbyder ondsindet brug af syntetiske medier i valg. Dette indebærer at gøre det ulovligt at skabe eller distribuere, med hensigt at bedrage offentligheden eller sabotere et valg, enhver deepfake, der falsk fremstiller en kandidat eller manipulerer valgrelevant information (såsom stemmeprocedurer). Snæver skræddersyning er nøglen – lovene bør målrette bevidst bedrag (desinformation), med klare undtagelser for satire, parodi eller åbenlys kunstnerisk udtryk. Sanktioner (bøder eller strafferetlige sigtelser) vil fungere afskrækkende, især hvis de håndhæves hurtigt. For eksempel kan Australiens foreslåede forbud mod vildledende deepfakes under valgkampe og Taiwans nye bestemmelser mod AI-manipuleret valgindhold tjene som modeller innovationaus.com policyoptions.irpp.org. I USA kunne føderale tiltag (som det foreslåede No AI FRAUD Act) fastsætte en landsdækkende baseline, der supplerer statslige love. Derudover bør regeringer opdatere regler for kampagnefinansiering og annoncering: kræv, at enhver politisk annonce (online eller broadcast), der indeholder syntetiske medier, har en klar ansvarsfraskrivelse (f.eks. “Dette billede/video er AI-genereret”), så seere ikke bliver vildledt. Sandhed-i-reklame-regler for kampagner skal udvides til også at omfatte AI-indhold.

2. Implementer protokoller for håndtering af hændelser under valg: Valgmyndigheder bør etablere formelle protokoller for at reagere på alvorlige deepfake-hændelser i realtid. Et godt eksempel er Canadas Critical Election Incident Public Protocol, der samler højtstående embedsmænd for at vurdere og informere offentligheden om udenlandsk indblanding eller desinformationstrusler under et valg cetas.turing.ac.uk cetas.turing.ac.uk. Andre demokratier bør tage lignende mekanismer i brug. Hvis en farlig deepfake dukker op (for eksempel en fabrikeret video af en kandidat, der lader som om vedkommende indrømmer nederlag på valgdagen), vil protokollen blive aktiveret – embedsmænd, efterretningseksperter og teknologiplatforme vil hurtigt verificere sandheden og udsende en offentlig meddelelse, der afviser det falske og opklarer fakta cetas.turing.ac.uk. Denne evne til hurtigt modspil er afgørende for at bremse virkningen af “brandhanesprøjt” af desinformation. Regeringer bør øve disse svar på forhånd (simulere forskellige deepfake-scenarier), så de kan reagere hurtigt og entydigt, når det er nødvendigt.

3. Invester i infrastruktur til detektion og autentificering: Offentlige myndigheder bør investere ressourcer i at fremme deepfake-detektions- og indholdsautentificering. Det indebærer finansiering af forskning og udvikling (fx DARPA-lignende programmer med fokus på AI-formidlet misinformation), støtte til udrulning af detektionsværktøjer til valgbrug og vedtagelse af autentificeringsstandarder i offentlige kommunikationer. Et konkret skridt er, at statslige medier (statslige tv-stationer, officielle sociale medier osv.) skal begynde at tilføje beviselig proveniens-metadata til alle officielle fotos, videoer og lydfiler, de udgiver cetas.turing.ac.uk. På denne måde skaber de et fundament af “verificeret ægte” information. Vælgere og journalister vil derefter kunne stole på, at enhver video med regeringssegl i metadataene er autentisk – og omvendt være mere skeptiske over for lignende optagelser uden disse oplysninger. Regeringer kan gå forrest med denne “autenticitet-by-design”-tilgang cetas.turing.ac.uk, som USA og Storbritannien allerede undersøger. Desuden bør politi og valgovervågningsorganer udstyres med retsmedicinske analyseenheder til at vurdere mistænkelige medier under kampagner. Viden om, at myndigheder har de tekniske redskaber til at spore og tildele deepfakes (og muligvis identificere gerningsmænd), vil også afskrække ondsindede aktører.

4. Klargør og moderniser eksisterende love: Mange lande vil opdage, at eksisterende love om bedrageri, identitetstyveri, bagvaskelse eller valgindblanding kan bruges på visse deepfake-sager – men der kan også være huller. Regeringer bør gennemgå deres lovgivning for at se, om der er behov for nye kategorier. Har vi for eksempel bestemmelser mod AI-genereret efterligning af offentlige embedsmænd? Hvis ikke, indfør dem. Sørg for, at databeskyttelses- og privatlivslovgivning omfatter ikke-autoriseret AI-brug af andres udseende/stemme som en krænkelse. At klargøre den retlige status for skadelige deepfakes (og informere offentligheden om det) er vigtigt, så potentielle gerningsmænd ved, at de kan holdes ansvarlige. Det giver også ofre (kandidater eller borgere) mulighed for at søge erstatning, hvis de rammes. Denne gennemgang skal også omfatte valglovgivningen: definitionen af ulovlig valgannoncering eller vildledning om meningsmålinger bør opdateres til udtrykkeligt at inkludere syntetisk medie-manipulation cetas.turing.ac.uk. Målet er at fjerne enhver tvetydighed – en potentiel desinformationsaktør skal ikke kunne påstå, “teknisk set er det ikke ulovligt, for det er AI.” Hvis lovene er entydige, bliver håndhævelse og retsforfølgning enklere.

5. Styrk internationalt samarbejde: Fordi desinformationskampagner ofte starter i udlandet (eller spredes over grænser), bør demokratiske regeringer samarbejde om problemet. Efterretningstjenester og cybersikkerhedsenheder bør dele information om nye deepfake-taktikker (for eksempel hvis ét land opdager en udenlandsk deepfake-operation, skal det advare andre). Fora som Alliance for Securing Democracy, G7, EU-USA-dialoger og andre kan koordinere fælles erklæringer og normer mod valg-deepfakes. Der kan lægges diplomatisk pres på statslige aktører, der sponsorerer eller tolererer sådan indblanding. Der er også plads til fælles forskning – f.eks. kunne et internationalt center for deepfake-detektion samle data for at forbedre algoritmer. Organisationssom overvåger valg (fx OSCE eller internationale observatørmissioner) bør opdatere deres metoder, så de ser efter syntetisk mediepåvirkning, og stater kan inkludere deepfake-beredskab i gensidige forsvarsaftaler for demokratiske processer. En samlet front gør det sværere for skadelige aktører at udnytte ét lands sårbarheder.

6. Frem arbejd offentlig bevidsthed og digital dannelse: I sidste ende har regeringer et ansvar for at uddanne vælgerne om deepfakes. Mange lande overvejer eller indfører nu digitale dannelsesprogrammer i skolen og for offentligheden cetas.turing.ac.uk. Disse programmer lærer folk at verificere online information, genkende tegn på manipulerede medier og tænke kritisk over kilder. Da AI-forfalskninger er blevet så overbevisende, er det afgørende, at enhver vælger ved, at sådanne forfalskninger findes, og føler sig tryg ved at dobbelttjekke opsigtsvækkende indhold (i stedet for at tro på eller dele det blindt). Regeringer bør samarbejde med uddannelsesinstitutioner og NGO’er for at inkludere deepfake-bevidsthed i læseplaner og oplysningskampagner. Et eksempel er at køre kampagner, der viser ægte og deepfake-optagelser side om side af en politiker og forklarer forskellen for at skabe opmærksomhed. Forskning viser, at personer med højere mediekompetencer og kritisk sans er langt bedre til at opdage deepfakes og modstå misinformation cetas.turing.ac.uk. Derfor er finansiering af mediedannelsesinitiativer en af de mest effektive langsigtede forsvarsmekanismer. Når offentligheden bliver et aktivt sensornetværk – der opdager og kalder falske nyheder ud – kan virkningen af deepfake-propaganda mindskes betydeligt.

Teknologiplatforme og AI-udviklere

1. Styrk platformspolitik og håndhævelse: Sociale medier og online platforme er hovedkanal for udbredelse af virale deepfakes. Disse virksomheder bør indføre strenge politikker mod manipulerede medier, der vildleder brugere, især i valgkontekst. Mange platforme er begyndt på dette: for eksempel har Facebook og Twitter (X) politikker om at fjerne eller mærke “manipulerede medier”, der kan forvolde skade. Men håndhævelse skal være robust. Platformene bør forbedre deres automatiserede detektion af deepfakes (med brug af de nyeste værktøjer, som tidligere nævnt) og sikre hurtig gennemgang af menneskelige moderatorer, når brugere rapporterer mistænkeligt indhold. I valgperioder kan virksomhederne etablere særskilte krisestyrings- og samarbejdskanaler med valgmyndigheder for at håndtere potentielle deepfake-hændelser i realtid. Når en forfalskning identificeres, bør platformene mærke den som falsk eller fjerne den straks, og nedprioritere den i algoritmer for at bremse yderligere udbredelse brennancenter.org brennancenter.org. Gennemsigtighed er også afgørende: Platformene kan offentliggøre regelmæssige rapporter om de deepfakes, de har opdaget, og hvilke tiltag der er taget, hvilket styrker offentlighedens tillid. De bør også dele eksempler på opdagede deepfakes med forskere for at forbedre den fælles forståelse.

2. Implementer afsløring og sporing af deepfakes: Med inspiration fra EU bør platforme globalt kræve, at AI-genereret indhold mærkes og afsløres. Hvis der for eksempel uploades en politisk reklame med et AI-genereret billede eller stemme, kunne platformen kræve, at uploadere markerer en boks med “dette indhold indeholder syntetiske elementer” – og derefter vise en meddelelse til seerne (“Denne video er ændret eller delvist genereret af AI”). Selv udenfor formelle reklamer kan platforme bruge detektionsværktøjer til visuelt at markere mistænkte deepfake-videoer (f.eks. en advarsels-overlay om, at videoens ægthed ikke er verificeret). Derudover kan sociale netværk og beskedtjenester integrere funktioner til indholdsautenticitet: ved at bruge standarder som C2PA, kan de vise brugere et ikon, hvis en billedkilde og redigeringshistorik er verificeret, eller omvendt advare, hvis dataene mangler. Nogle teknologivirksomheder (Adobe, Microsoft, Twitter) er allerede involveret i sådanne initiativer. Ved at indbygge provenienssignaler i deres brugergrænseflader, kan platforme hjælpe brugere med at skelne mellem ægte og falsk. De bør også arbejde på sporingsmekanismer – for eksempel, hvis en skadelig deepfake spredes, kan de så spore, hvem der oprindeligt uploadede den, selv hvis den er blevet genudgivet tusindvis af gange? Samarbejde med myndighederne ved større hændelser (mens man respekterer privatlivslovgivning) vil være vigtigt for at fange gerningsmændene.

3. Forbyd ondsindede deepfake-brugere og -netværk: Platforme skal være årvågne over for organiserede aktører, der gentagne gange anvender deepfakes. Det betyder ikke kun at fjerne enkeltstående indhold, men lukke konti, sider eller bots, der deltager i koordinerede deepfake-kampagner. Hvis beviser forbinder en operation til en statssponsoreret indsats eller en kendt troldefarm, bør platformen offentliggøre dette og eliminere deres tilstedeværelse. Mange desinformationsnetværk er blevet taget ned i de senere år; den samme aggressive tilgang skal gælde for AI-drevne påvirkningsoperationer. Platforme bør opdatere deres servicevilkår for eksplicit at forbyde ondsindet oprettelse eller deling af syntetiske medier med henblik på at vildlede andre. Disse regler giver grundlag for at udelukke overtrædere. I politisk annoncering bør enhver kampagne eller komité, der afsløres i at bruge vildledende deepfakes, få straffe såsom tab af annonceadgang. Teknologivirksomheder kan også samarbejde om at opretholde en fælles sortliste over berygtede deepfake-hashes eller signaturer, så når en forfalskning identificeres på én platform, kan den blokeres på andre (på samme måde som terroristindhold deles via konsortier). Grundlæggende: gør det umuligt at få udbytte af deepfakes på mainstream-platforme – enten fjernes indholdet hurtigt, eller brugeren bag mister sin konto.

4. Samarbejd med faktatjekkere og myndigheder: Ingen platform kan polstre indhold perfekt alene. Samarbejde er vitalt. Sociale medievirksomheder bør uddybe partnerskaber med uafhængige faktatjek-organer for at vurdere viralt indhold. Når faktatjekkere afslører en video som falsk, skal platformen forstærke den korrektion – f.eks. ved at tilføje et link til en faktatjek-artikel, hver gang videoen deles, eller underrette alle brugere, der så forfalskningen. Virksomheder som Facebook har gjort dette mod misinformation og bør fortsætte det med deepfakes. Derudover bør platforme koordinere med valgkommissioner og sikkerhedsmyndigheder – især under valgperioder. De kan etablere direkte hotlines eller kanaler for embedsmænd til at rapportere mistænkte deepfakes, der påvirker valg, og platforme kan tilsvarende advare regeringer, hvis de registrerer udenlandsk desinformation rettet mod landet. I nogle jurisdiktioner er der formelle aftaler (for eksempel opfordrer EU’s Code of Practice til informationsdeling med regeringer om desinformations-trusler brennancenter.org). Selv i USA arbejder Department of Homeland Security’s cybersikkerhedsafdeling sammen med platforme om overvågning af valgdesinformation. Disse samarbejder skal naturligvis respektere ytringsfriheden og ikke føre til censur af legitim tale. Men for åbenlyst fabrikeret, skadeligt materiale, kan en hurtig, koordineret indsats mellem platforme og offentlige institutioner stoppe udbredelsen af en forfalskning. Dette kan inkludere fælles pressemeddelelser, der afkræfter en viral falskhed, eller algoritmer, der fremhæver autoritative kilder for at modvirke spredningen.

5. Forstærk sikkerhed i AI-modeller: Virksomheder, der bygger generative AI-modeller (OpenAI, Google, Meta m.fl.), har et ansvar ved kilden. De bør implementere foranstaltninger, der forhindrer misbrug af deres AI til valgindblanding. Dette kunne indebære vandmærkning af AI-output, som tidligere diskuteret (så alle billeder genereret af f.eks. DALL-E eller Midjourney har en indlejret signatur). Det kan også omfatte kurateret træningsdata – f.eks. at sikre, at deres modeller er trænet til at afvise anmodninger om at efterligne virkelige personer på skadelig vis. Allerede nu vil nogle AI-værktøjer ikke generere deepfake-billeder af virkelige politiske figurer på grund af indbyggede indholdsfiltre. Disse sikkerhedsforanstaltninger skal løbende forbedres (selvom open source-modeller udgør en udfordring, da de kan finjusteres af ondsindede aktører uden sådanne begrænsninger). AI-udviklere bør også investere i forskning i detektionsmetoder for deepfakes og dele disse med samfundet. Det er positivt, at mange førende AI-virksomheder frivilligt har forpligtet sig til at støtte vandmærkning og indholdsgodkendelse. Fremadrettet kunne de samarbejde om et standard-API, der gør det muligt hurtigt at kontrollere, om en video- eller lydfil er genereret af deres modeller. Grundlæggende bør dem, der skaber ”problemet” (den generative teknologi), også hjælpe med at skabe ”løsningen” (metoder til at identificere outputtet).

6. Gennemsigtighed i politisk annoncering: Platforme, der huser politiske reklamer, bør håndhæve streng gennemsigtighed omkring brug af AI. Hvis en kampagnereklame boostes på Facebook eller Google og indeholder AI-genererede elementer, bør platformens annnoncebibliotek udtrykkeligt notere det. Platformene kunne endda kræve, at politiske annoncører indsender det rå, uredigerede optagelser til sammenligning. Mere ambitiøst kunne sociale medieplatforme overveje at midlertidigt forbyde alle politiske annoncer, der indeholder syntetiske medier i de følsomme sidste dage op til et valg – ligesom nogle allerede forbyder nye politiske annoncer lige før valgdagen. Dette ville eliminere risikoen for et sidste-øjebliks deepfake-annonceangreb. Selvom håndhævelse er udfordrende, er princippet, at betalt promovering af vildledende indhold er særlig farligt, og platforme har mere råderum til at regulere annoncer end brugernes opslag. At sikre høj gennemsigtighed og hurtig fjernelse i annoncedomænet er kritisk, da en deepfake distribueret gennem betalte annoncer kan nå millioner, som målrettes af algoritmer og derved forvrænger informationsmiljøet urimeligt.

Medier og journalistiske organisationer

1. Grundige verifikationsprotokoller: Nyhedsmedier skal tilpasse deres verifikationspraksis til deepfake-tidsalderen. Hver redaktion – fra nationale tv-stationer til lokale aviser og faktatjek-sider – bør indføre formelle procedurer til at autentificere audiovisuelle materialer, inden de sendes eller offentliggøres. Dette inkluderer træning af journalister i brugen af retsmedicinske værktøjer (f.eks. kontrol af videometadata, billedanalyser) og at konsultere eksperter ved behov. For enhver sensationel eller skandaløs optagelse, der dukker op under valgkampen, bør redaktører udvise sund skepsis og ikke haste med at vise det uden bekræftelse. Medier bør dobbeltkilde alt bruger-genereret indhold: f.eks. hvis en video dukker op af en kandidat, der gør noget chokerende, bør mediet søge bekræftende beviser (vidner, officielle udtalelser osv.) eller som minimum foretage en billede-for-billede analyse for at sikre, at det ikke er en deepfake. Målet er at undgå at blive ufrivillige forstærkere af desinformation. Imponerende nok har nogle nyhedsorganisationer startet interne deepfake-taskforces. I ét tilfælde skabte journalister i Arizona endda deres egen deepfake (med tilladelse) for at oplyse seerne om, hvor let det er at manipulere video knightcolumbia.org – en klog måde at øge bevidstheden på. Alle redaktioner bør overveje at have en “deepfake-ekspert” tilknyttet (eller partnerskab med et teknologilaboratorium) til hurtig analyse af mistænkeligt materiale. Ved at gøre verifikation lige så rutinemæssigt som faktatjek kan medier fange forfalskninger tidligt eller i det mindste advare deres publikum, hvis noget ikke er verificeret.

2. Ansvarlig rapportering om deepfakes: Når de dækker tilfælde af syntetiske medier, bør journalister gøre det forsigtigt og med kontekst. Hvis en deepfake, der retter sig mod en kandidat, går viralt, er historien ikke de falske påstande selv, men at der er tale om en falsk manipulation. Medierapporter bør undlade at gentage de falske anklager i detaljer eller vise den forfalskede video ukritisk, da det utilsigtet kan sprede misinformation yderligere. I stedet kan de beskrive det generelt og fokusere på responsen (f.eks. “En manipuleret video, der fejlagtigt viser X gøre Y, blev offentliggjort online, hvilket eksperter har afkræftet”). Medier kan vælge at sløre eller undlade at linke direkte til deepfake-indholdet i deres onlineartikler cetas.turing.ac.uk for at undgå at drive trafik til det eller give ondsindede brugere mulighed for at downloade og genudsende det. Indramningen af rapporteringen er vigtig: fremhæv forsøget på at bedrage og deepfake-faktummet mere end det falske narrativ det indeholdt cetas.turing.ac.uk. Medier bør også fremhæve rettelser eller sandheden (for eksempel: “Nej, politiker Z sagde ikke dette – videoen er en AI-fabrikation; her er hvad de faktisk sagde om emnet.”). Ved konsekvent at gøre dette kan troværdige medier være med til at “vaccinere” offentligheden mod at tro på eller dele det falske. Det er en fin balance mellem at dække desinformationen (for at ignorere den får den ikke til at forsvinde) og ikke komme til at forstærke den. Retningslinjer svarende til dem for rapportering om hoax eller masseskyderier (hvor visse detaljer minimeres for at undgå efterligninger) kunne udvikles for deepfakes. Independent Press Standards Organisation i Storbritannien er blevet opfordret til at opdatere sine retningslinjer til at omfatte sådanne situationer cetas.turing.ac.uk.

3. Brug af autenticitetsteknologi i nyhedsredaktioner: Nyhedsorganisationer kan selv udnytte den nye autenticitet-infrastruktur. For eksempel kunne et medie tage Content Authenticity Initiatives værktøjer i brug til at tilføje kryptografiske indholdscertifikater til alle originale fotos og videoer, som dets journalister tager. Det betyder, at alle optagelser, der laves af eksempelvis en Reuters- eller AP-fotograf, kan bære en sikkerhedsgodkendelse, der verificerer ophav og eventuelle redigeringer. Nedstrøms, når folk ser en video fra Reuters, kan de tjekke, at den er uændret. Sådanne tiltag hjælper med at markere, hvad der er ægte, og tilbyde offentligheden en sandhedskilde. Medier bør også samarbejde om at opbygge databaser over kendte deepfakes (og verificeret ægte indhold), der kan hjælpe faktatjekkere. Eksempelvis kan et register over officielle taler og interviews gøre det muligt hurtigt at afvise et manipuleret klip ved sammenligning. Store nyhedsbureauer kunne koordinere for at advare alle deres abonnenter lynhurtigt, hvis en farlig deepfake opdages – lidt ligesom når de udsender breaking news. Internt bør nyhedsredaktører desuden være opmærksomme på, at politiske aktører kan forsøge at levere forfalsket materiale til journalister (fx et tip med et “lækket” lydklip, der faktisk er AI-genereret). Det er klogt at bevare en sund skepsis over for alt digitalt materiale af anonym oprindelse.

4. Uddannelse af publikum: Medierne kan spille en stor rolle i at oplyse vælgere om syntetiske medier. Nyhedsredaktioner og journalister bør producere forklarende artikler, ekspertinterviews og indslag, der viser offentligheden, hvordan deepfakes bliver lavet, og hvordan de kan genkendes. Ved at afmystificere teknologien mindskes dens effekt. Nogle tv-nyhedsindslag i 2024 demonstrerede fx AI-stemmekloner live for at vise, hvor let et svindelopkald kan imitere en slægtnings stemme. Ligeledes kan valgkampdækning inkludere påmindelser: “Hvis du ser en opsigtsvækkende video om en kandidat i sidste øjeblik, så vær varsom – den kan være falsk. Her er, hvordan du verificerer…”. Offentlige oplysningskampagner ledet af medierne (eventuelt i partnerskab med myndigheder eller NGO’er) kan markant øge den digitale dannelse. Journalister bør også konsekvent bruge præcise udtryk: det styrker bevidstheden at kalde noget en “deepfake” eller “AI-genereret falsk video” i stedet for blot “manipuleret video”. Over tid vil en veloplyst befolkning være mindre tilbøjelig til at falde for fup og mere tilbøjelig til at kræve dokumentation. Medierne – som grænsefladen mellem information og offentligheden – har en pligt til at opbygge denne robusthed.

5. Ansvarliggørelse og afsløring: Endelig bør journalister undersøge og kaste lys over hvem der står bag profilerede deepfake-kampagner. At holde gerningsmænd til ansvar i offentlighedens øjne kan afskrække fremtidigt misbrug. Hvis en rivaliserende kampagne, et udenlandsk troll-farm eller en specifik onlinegruppe identificeres som ophavsmand til en ondartet deepfake, bør dette rapporteres tydeligt, så skam og risiko bliver knyttet til sådanne taktikker. Afsløringer om produktion og finansiering af desinformationskampagner kan tømme dem for effekt. Hvis en politiker eller offentlig figur selv deler en deepfake i viden om, at det er falsk (fx en kandidat tweeter en falsk video af en modstander), skal medier kalde det entydigt ud – som alvorlig embedsforseelse. Udsigten til dårlig pressedækning og omdømmeskade kan afholde politiske aktører fra at bruge “beskidte tricks” som deepfakes. Kort sagt rækker journalistikkens vagthundsfunktion ind i det digitale: efterforsk, identificér og afslør ondsindede syntetiske medieoperationer ligesom enhver anden form for fup eller korruption i politik.

Civilsamfundet og vælgerinitiativer

1. Digital dannelse og folkeoplysning: Civilsamfundsorganisationer – herunder nonprofit-aktører, biblioteker, universiteter og græsrodsgrupper – kan gå forrest i at uddanne borgerne til at navigere i deepfake-tidsalderen. Der bør tilbydes skalerbare programmer om, hvordan man verificerer medieindhold. Fx kan NGO’er holde workshops, hvor folk lærer simple tricks som billedsøgning (til at se, om et foto er AI-genereret eller manipuleret), at tjekke for bekræftende nyheder og bruge faktatjekker-hjemmesider. Mange stærke værktøjskasser og læringsforløb er allerede udviklet af faktatjekkergrupper (fx First Draft, Media Literacy Now), som handler om at identificere misinformation og deepfakes; disse bør udbredes bredt. Træningen bør ikke kun målrettes skoleelever, men også ældre voksne, som ofte er mere sårbare overfor onlinefup. Landsdækkende kampagner for digital dannelse kan rulles ud, eventuelt med støtte fra staten, men udført af lokale organisationer for øget tillid. Målet er at hæve samfundets “flokimmunitet”: hvis tilstrækkeligt mange kan genkende fup – eller i det mindste tøver med at tro på det, før det er verificeret – mister desinformanterne meget af deres magt. Målinger viser, at befolkningen ønsker denne viden – mange føler sig bekymrede over ikke at kunne skelne ægte fra falskt brennancenter.org brennancenter.org. Civilsamfundet kan udfylde dette hul ved at styrke borgerne med oplysning og praktiske værktøjer.

2. Faktatjek og afsløring: Uafhængige faktatjekkere og vagthunde i civilsamfundet forbliver centrale. De bør opruste specifikt til valgperioder med initiativer som dedikerede deepfake-faktatjek-centre. Fx kan koalitioner af faktatjekkerorganisationer vedligeholde et offentligt dashboard under et valg, der overvåger rygter og nye deepfake-påstande med hurtige aflivninger. News Literacy Project gjorde noget lignende under det amerikanske valg i 2024, hvor de loggede sager om misinformation og noterede, hvor få egentlig involverede AI knightcolumbia.org knightcolumbia.org. Denne form for åben sporing hjælper både offentlighed og journalister med at bevare det store overblik og ikke overdrive truslen, samtidig med at de reelle sager håndteres. Civilsamfundsgrupper kan desuden sprede korrektioner på sociale medier – fx besvare virale opslag med faktuel information, hjulpet af “community notes” eller tilsvarende funktioner. Vi bør også fremme “prebunking”: at advare offentligheden på forhånd om, at noget falskt kan dukke op. Hvis eksempelvis efterretninger eller tidligere mønstre tyder på, at en kandidat risikerer en fake-skandale, kan civic-grupper (i samarbejde med valgmyndigheder) advare vælgerne: “Vær skeptisk, hvis du pludselig ser en chokerende video af X, der er risiko for en deepfake.” Studier peger på, at prebunking kan markant nedbringe naivitet og spredning af forkerte påstande cetas.turing.ac.uk cetas.turing.ac.uk. En proaktiv tilgang fra civilsamfundet, der foregriber og modarbejder deepfake-kampagner, kan altså betale sig.

3. Civic tech og crowd-sourcet opdagelse: Det teknologisk kyndige borgerfællesskab kan mobiliseres til at bekæmpe deepfakes. Allerede i dag findes “deepfake-jægere”, der analyserer mistænkeligt indhold online. Civilsamfundet kan organisere disse indsatser – fx gennem et dedikeret website eller en app, hvor folk kan indsende videoer eller lydklip, de er i tvivl om, og et netværk af eksperter eller AI-værktøjer giver en autenticitet-vurdering. Denne crowd-sourcede efterretning kan supplere de officielle instanser. Civic tech-grupper kan desuden udvikle browser-plugins eller mobilapps, der hjælper brugere med at genkende syntetiske medier. Eksempelvis kunne en app lade en bruger vælge en video på skærmen og få en øjeblikkelig vurdering fra flere detektionsalgoritmer (lidt som antivirus for deepfakes). Selv uden at det er 100% sikkert, kan det skabe advarsler. Open source-initiativer til at udvikle sådanne værktøjer bør støttes med fondsmidler. En anden ide er borger-hotlines – ligesom ved valg, hvor man kan indberette stemmeproblemer, kunne man have et spor, hvor folk rapporterer mistænkt disinformation eller deepfakes, der så videresendes til valgmyndigheder eller faktatjekkere. Ved at engagere borgerne som aktive opsporere af dubiøst indhold, øges overvågningens omfang markant. Denne spredte tilgang anerkender, at i et samfund med millioner online fanger nogen ofte noget hurtigt – nøglen er at få formidlet de observationer hurtigt videre til dem, der kan verificere og formidle sandheden.

4. Fortalervirksomhed for platform-ansvar: Civilsamfundet bør fortsat presse teknologiplatforme og AI-virksomheder til ansvarlig opførsel. Interessegrupper og tænketanke har spillet en central rolle i at fremhæve deepfakes-risici og foreslå reformer (fx Access Now, EFF og andre har udstedt anbefalinger). Denne indsats må fortsætte – med pres for, at platformene implementerer de førnævnte politiktiltag (bedre mærkning, hurtig fjernelse osv.), og for at AI-udviklere tænker etik ind fra starten. Public Citizens kampagne for at spore delstatslovgivning om deepfakes og indgive klager til FEC er ét eksempel citizen.org citizen.org. Ligeledes kan koalitioner kræve større gennemsigtighed fra platformene: at de offentliggør data om mængden af AI-indhold på deres site, eller hvor effektive deres detektorer er. Civilsamfundets stemmer kan også sikre, at eventuel ny regulering beskytter borgerrettigheder (fx ved at modarbejde for vidtgående love, der kunne hæmme ytringsfriheden under dække af deepfake-regulering). At finde den rette balance kræver offentlig debat, og her spiller interessegrupper en uundværlig rolle som borgernes repræsentant. De kommende år kan byde på nye rammer for regulering af AI og online-indhold – det er afgørende, at demokratiske værdier og menneskerettigheder sikres i dem, og civilsamfundet er centralt for denne vagthundsrolle.

5. Støtte til ofre og mål: Hvis en kandidat eller privatperson bliver bagtalt af et deepfake, kan civilsamfundet yde støtte. Nonprofitorganisationer kan tilbyde juridisk bistand eller rådgivning om, hvordan man får fjernet ærekrænkende deepfakes og holder bagmændene ansvarlige. Der kan være hotlines for ofre for deepfake-porno eller karaktermord, der forbinder dem med politiet og psykosociale ressourcer. For kandidater ramt af en smædekampagne kan borgerorganisationer (som f.eks. kvindeforeninger eller grupper for valgbarhedsintegritet) hjælpe med at forstærke deres benægtelse og de-bunking for at minimere skaden. En hurtig mobilisering til forsvar for en, der uretmæssigt bliver ramt – og sikre at sandheden råber højere end løgnen – er noget, lokalsamfund og interesseorganisationer kan koordinere, sådan som de ofte gør ved at modgå bagvaskelse eller hadefuld tale. På et bredere niveau kan civilsamfundet fremme tværpolitiske forpligtelser om, at hvis der dukker et deepfake op, vil alle parter fordømme det. Forestil dig et løfte, hvor alle større partier i et land underskriver, at de ikke vil bruge deepfakes og hurtigt vil fordømme enhver ondsindet forfalskning, der måtte dukke op. Sådanne normer, fremmet af f.eks. tværpolitiske valgkomitéer eller etiske NGO’er, ville mindske risikoen for en “kamp mod bunden”, hvor partier føler sig nødsaget til at svare igen med samme mønt. Det skaber en samlet front, der ikke vil tolerere angreb på sandheden, uanset hvem de måtte ramme.

Afslutningsvis kræver det at imødegå deepfake-udfordringen, at vi gør brug af alle samfundets forsvarsmekanismer – teknologiske, juridiske, institutionelle og menneskelige. Ved at udføre ovenstående trin kan regeringer gøre valgsystemet mere robust over for AI-fupnumre, tech-platforme bremse udbredelsen af falsk indhold, medier sikre at sandheden sejrer i rapporteringen, og borgere blive kyndige vogtere af virkeligheden. Der er ingen tid at spilde: efterhånden som generativ AI fortsætter med at udvikle sig, vil valgcyklussen i 2025 sætte demokratiernes modstandskraft mod syntetiske løgne på prøve. Den opløftende nyhed er, at vi ikke er forsvarsløse. Med forberedelse, gennemsigtighed og samarbejde kan vi overliste og over-organisere deepfake-kampagner og dermed bevare valgenes integritet. Som en CETaS-forskningsrapport om AI og valg konkluderede, “selvtilfredshed må ikke snige sig ind i beslutningsprocesser” – i stedet bør vi gribe øjeblikket og opbygge modstandskraft cetas.turing.ac.uk cetas.turing.ac.uk. Ved at gøre dette fastholder vi princippet om, at uanset hvordan teknologien udvikler sig, vil vores demokratiske værdier om sandhed og tillid bestå.

Kilder

  1. Stockwell, Sam et al. “AI-Enabled Influence Operations: Safeguarding Future Elections.” CETaS (Alan Turing Institute) Research Report, 13. nov. 2024. cetas.turing.ac.uk cetas.turing.ac.uk
  2. Stockwell, Sam et al. Ibid. (CETaS Report, 2024), Afsnit 2.1 om deepfakes i det amerikanske valg. cetas.turing.ac.uk cetas.turing.ac.uk
  3. Beaumont, Hilary. “’A lack of trust’: How deepfakes and AI could rattle the US elections.” Al Jazeera, 19. jun. 2024. aljazeera.com aljazeera.com
  4. Sze-Fung Lee. “Canada needs deepfake legislation yesterday.” Policy Options, 18. mar. 2024. policyoptions.irpp.org policyoptions.irpp.org
  5. Goldstein, Josh A. & Andrew Lohn. “Deepfakes, Elections, and Shrinking the Liar’s Dividend.” Brennan Center for Justice, 23. jan. 2024. brennancenter.org
  6. “Syntetiske medier.” Wikipedia (besøgt 2025). en.wikipedia.org en.wikipedia.org
  7. “Deepfake.” Kaspersky IT Encyclopedia (2023). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
  8. Hamiel, Nathan. “Deepfakes proved a different threat than expected. Here’s how to defend against them.” World Economic Forum, 10. jan. 2025. weforum.org weforum.org
  9. “Regulering af AI Deepfakes og syntetiske medier i det politiske rum.” Brennan Center for Justice, 4. okt. 2023. brennancenter.org brennancenter.org
  10. Colman, Ben. “The EU AI Act and the Rising Urgency of Deepfake Detection.” Reality Defender Blog, 11. feb. 2025. realitydefender.com realitydefender.com
  11. “Tracker: State Legislation on Deepfakes in Elections.” Public Citizen, 2025. citizen.org citizen.org
  12. Partnership on AI. “Synthetic Media and Deepfakes – Case Study: Slovakia 2023.” (Refereret i Knight Columbia-analyse). brennancenter.org brennancenter.org
  13. Kapoor, Sayash & Arvind Narayanan. “We Looked at 78 Election Deepfakes. Political Misinformation Is Not an AI Problem.” Knight First Amendment Institute, 13. dec. 2024. knightcolumbia.org knightcolumbia.org
  14. CETaS Report (2024), Politikanbefalinger (med fokus på Storbritannien). cetas.turing.ac.uk cetas.turing.ac.uk
  15. CETaS Report (2024), Anbefalinger om detektion og proveniens. cetas.turing.ac.uk cetas.turing.ac.uk
  16. Public Safety Canada. “Protecting Against AI-Enabled Disinformation” (2023 brief). policyoptions.irpp.org policyoptions.irpp.org
  17. InnovationAus. “Govt’s election deepfake ban to ‘languish’ until 2026.” (Australien) 2023. innovationaus.com
  18. Yderligere referencer: Nyhedsartikler fra Reuters, Wired og CNN nævnt ovenfor om konkrete hændelser (f.eks. Zelensky deepfake, Hong Kong $25M svindel via Zoom deepfake weforum.org), samt FTC-forbrugeradvarsler om stemmekloning-svindel weforum.org. Disse er indlejret i analysen og tilgængelige via de listede kildelinks.

Skriv et svar

Your email address will not be published.

Don't Miss

Barcelona’s 2025 Real Estate Boom: Record Prices, Hotspots and Future Forecasts

Barcelonas ejendomsboom i 2025: Rekordpriser, hotspots og fremtidsprognoser

Barcelonas boligmarked er brandvarmt i 2025 – priserne har nået
North Las Vegas & Enterprise Real Estate Market 2025: Boomtown Growth, Key Trends & 5‑Year Outlook

North Las Vegas & Enterprise ejendomsmarked 2025: Boomtown-vækst, nøgletrends og 5-års udsigter

Flyfoto af nye forstadshus-udviklinger i Enterprise, NV, som afspejler den