Syntetiske medium og deepfakes: Sikring av val-syklusen 2025

juni 30, 2025
Synthetic Media and Deepfakes: Safeguarding the 2025 Election Cycle

Framsteg innan kunstig intelligens har gjort det mogleg å lage syntetiske medium – innhald som er generert eller manipulert av KI – i eit omfang me aldri har sett før. Når demokratiske land nærmar seg valkampen i 2025, går tilsette og ekspertar ut og åtvarar mot KI-dreven desinformasjon. I ei fersk undersøking uttrykte 85 % av amerikanarane uro for “villeiande video- og lyd-deepfakes” som kan påverke vala brennancenter.org. Nyheitsoverskrifter åtvarar om at KI-genererte “deepfakes” kan skape kaos i valkampane og øydeleggje tilliten til veljarane brennancenter.org, noko som tydeleggjer kor viktig det er å verne den demokratiske integriteten. Denne rapporten ser på kva syntetiske medium og deepfakes er, korleis dei trugar demokratiet, og kva som kan gjerast – frå tekniske løysingar til politikk – for å tryggje vala i 2025 og i framtida.

Kva er syntetiske medium og deepfakes?

Syntetiske medium er ein brei samleomgrep for digitalt innhald (bilete, video, lyd, tekst) som er kunstig produsert eller endra gjennom automatiserte metodar, særleg KI-algoritmar en.wikipedia.org. Dagens generative KI-system kan lage realistisk, menneskeliknande innhald i alle medium – frå levande foto av menneske som aldri har eksistert, til klona stemmer og KI-skrive artiklar. Deepfakes er ein eigen underkategori av syntetiske medium: svært realistiske falske bilete, videoar eller lyd laga av KI (altså “deep” læring + “fake”) for å etterlikne verkelege personar encyclopedia.kaspersky.com. I praksis kan ein deepfake vere ein video der ansiktet til ein politikar blir overtydande bytta ut med kroppen til ein annan, eller eit lydklipp der ein kandidat blir imitert og seier ting dei aldri har sagt.

Korleis blir deepfakes laga? Dei fleste blir lagd ved hjelp av avanserte deep learning-teknikkar. Ein vanleg metode brukar generative adversarial networks (GANs) – to nevrale nettverk som lærer mot kvarandre icct.nl. Eitt nettverk (generatoren) lagar falskt medium (t.d. eit bilete av eit ansikt), medan det andre (diskriminatoren) prøver å avgjere om det er ekte eller ikkje. Gjennom tusenvis av iterasjonar lærer generatoren å lage stadig meir realistisk innhald, heilt til diskriminatoren ikkje lenger ser skilnaden icct.nl. Opphavleg kravde det stor mengde treningsdata og kraftig maskinvare for å lage ein overtydande deepfake – til dømes tok eit eksperiment med å deepfake skodespelaren Tom Cruise to månader med trening på topp-GPU-ar icct.nl. Men verktøya har utvikla seg svært raskt. Avanserte deepfake-program er no tilgjengelege for alle og mykje raskare, somme kan operere i sanntid (til dømes å forandre eit direkte videobilete eller telefonsamtale der og då) encyclopedia.kaspersky.com. I tillegg til GANs har andre KI-arkitekturar òg betydning: Transformer-modellar kan lage deepfake-tekstar eller hjelpe til å klone stemmer encyclopedia.kaspersky.com. Alt i alt har KI-gjennombrot dei siste åra gjort det lett og billeg for kven som helst å lage villeiande lyd- og videoinnhald – og dermed dramatisk senka terskelen for desinformasjonskampanjar.

Det er viktig å påpeike at ikkje alt syntetisk innhald har vondartet formål. KI-generert innhald kan nyttast til harmlause og kreative føremål – personlege avatarar, dubba stemmer på andre språk, satire og underhaldning med meir. Faktisk var om lag halvparten av dokumenterte politiske KI-bruk under globale val i 2024 ikkje-villande (t.d. ein kandidat som transparent brukar KI-stemme fordi dei har mista si eiga stemme, eller journalistar som brukar KI-avatar for å verne identiteten sin) knightcolumbia.org knightcolumbia.org. Men denne rapporten fokuserer på den skadelege sida av syntetiske medium – deepfakes som har som føremål å villeie, bedra eller manipulere veljarar og opinionen.

Risikoar for demokratiske prosessar

Syntetiske medium og deepfakes utgjer betydelig risiko for demokratiet, særleg under val når ein informert befolkning og tillit til informasjon er avgjerande. Viktige truslar inkluderer:

  • Desinformasjon og veljarmanipulering: KI-genererte falske videoar, bilete eller lyd kan brukast for å spreie falsk informasjon om kandidatar eller saker og villeie veljarane. Til dømes kan ein deepfake vise ein kandidat som gjer provoserande uttalar dei aldri har gjort. Slike fabrikkert innhald kan spreie giftige løgner inn i den offentlege debatten. Ekspertar åtvarar om at deepfakes “utgjer ein stor risiko” for veljarane ved å spreie falskt innhald i valkampen og undergrave den offentlege tilliten aljazeera.com. Ein overtydande manipulert video som slepp ut kort tid før valdagen – utan tid for faktasjekkar – kan til og med vippe usikre veljarar eller avskrekke folk frå å stemme, og såleis endre utfallet citizen.org. Trusselen er ikkje berre teoretisk: Som omtala seinare, blei ein deepfake-lyd i 2024 brukt for å etterlikne den amerikanske presidenten og oppmode tilhengarane sine til å ikkje stemme, tydeleg laga for å svekkje valoppslutnad aljazeera.com aljazeera.com.
  • Erosjon av tillit (“Løgnerens gevinst”): Uavhengig av konkrete falske medium kan sjølve eksistensen av deepfakes undergrave den offentlege tilliten til informasjon. Veljarar kan byrje å tvile på ekte bevis, usikre på om ei viral video er ekte eller ein KI-falsk. Endå verre, korrupte aktørar kan utnytte denne tvilen: Reelle skandalar eller ekte opptak kan avvisast som “berre ein deepfake”, slik at dei skuldige slepp unna ansvar. Forskarar har kalla dette for “løgnerens gevinst”, der auka merksemd om deepfakes gjer det enklare å påstå at verkeleg dokumentasjon er falsk brennancenter.org. Når befolkninga veit kva KI kan få til, kan ein politikar i større grad lure folk ved å merke avslørande lyd eller video som KI-juks brennancenter.org. Denne mekanismen trugar det grunnleggjande tillitsforholdet som demokratiet er avhengig av. Valobservatørar registrerte at i 2024 ropte enkelte kandidatar og støttespelarar forvarsel “KI-fake” for å avvise pinlege historier brennancenter.org brennancenter.org. På lang sikt, dersom innbyggjarane føler at “du kan ikkje stole på noko du ser eller høyrer”, så undergrev det felles røyndom som trengst for frie og rettferdige val cetas.turing.ac.uk cetas.turing.ac.uk.
  • Forsterking av polarisering og konflikt: Til no viser undersøkingar at deepfake-propaganda ofte forsterkar folk sine eksisterande haldningar heller enn å overtyde across lines cetas.turing.ac.uk. Skadeleg KI-innhald blir ofte teke i bruk og delt av dei som alt har ekstreme meiningar, noko som forsterkar ekkokammer. Under presidentvalkampen i USA i 2024 fann forskarar at KI-genererte usanningar stort sett styrkte partisk polariserte forteljingar og hisset opp debattane, i staden for å vinnje nye tilhengarar cetas.turing.ac.uk. Til dømes fekk falske videoar retta mot president Biden eller visepresident Harris millionar av visingar på nettet, og blei stort sett delt av folk som allereie var fiendtlege cetas.turing.ac.uk cetas.turing.ac.uk. Ved å konsolidere ideologiske leirar med dramatiske bevis på “motsatsen sin utsvevnad”, kan deepfakes splitte samfunnet enda meir og forgifte valkampen. I tillegg skapar forvirringa og mistilliten kring deepfakes gode vilkår for konspirasjonsteoriar cetas.turing.ac.uk, sidan dei gjer det lettare å halde på si eiga røyndom og forkaste det som er ubehageleg som KI-fabrikkert.
  • Undergraving av valadministrasjonen: Risikoen er større enn berre villeiing om kandidatar – deepfakes kan òg forstyrre valadministrasjonen. Myndigheiter har førestilt seg scenario der klona stemmer eller falske meldingar gir seg ut for å vere valstyresmakter, og tilrår til tilsette å stenge vallokale tidleg eller gir veljarane feile instruksjonar (t.d. “valet er utsett”) aljazeera.com. Ein sofistikert motpart kan simulere ein ordre frå valstyresmaktene eller ein lokal tillitsperson si stemme for å sabotere valet. Slik kan stemmer verte undertrykt eller det oppstår kaos på valdagen. Det amerikanske Brennan Center peikar på at manipulert medium kan brukast for å føre både publikum og valpersonell bak lyset, noko som krev nye opplærings- og kriseprosedyrar aljazeera.com.
  • Trakassering og karaktermord: Deepfakes gir òg eit nytt og mektig våpen for personangrep mot kandidatar, aktivistar eller journalistar. Ein særleg skadeleg kategori er syntetisk porno utan samtykke – der eit ansikt blir montert inn i seksuelt eksplisitt innhald. Dette har allereie blitt brukt til å trakassere kvinnelege journalistar og politikarar globalt. Den mest ekstreme forma for deepfake-trakassering er falske intime bilete brukt for å ydmyke eller utpresse personar weforum.org. I ein valkampsamanheng kan operatørar sleppe ein falsk kompromitterande video av ein kandidat (t.d. ein deepfake-sexvideo eller ein fabrikkert video som viser dei å bryte lova) kort tid før valet. Sjølv om det blir tilbakevist raskt, kan skaden vere gjort. Kvinner og minoritetar er overrepresentert som offer for slike “syntetiske svertekampanjar”, og det kan skremme mangfaldet vekk frå å stille til val policyoptions.irpp.org policyoptions.irpp.org. Samla sett gir deepfakes ny bensin på gamle svertekampanjar – frå fabrikkerte skandalar til falske sitat – og gjer karaktermord i valg langt meir effektive.

Til slutt må det understrekast at det enno ikkje har vore noko valkatastrofe forårsaka av deepfakes. Empiriske analysar av 2024-valg verden over fann lite bevis for at KI-generert desinformasjon endra noko valresultat cetas.turing.ac.uk weforum.org. Tradisjonell desinformasjon (billig redigerte “cheapfakes”, rykte, partisk spinn) blei framleis mykje viktigare for å spreie falske narrativ enn høgteknologiske deepfakes knightcolumbia.org knightcolumbia.org. Likevel advarer ekspertar om at fråveret av katastrofe til no ikkje er grunn til å sløve av cetas.turing.ac.uk weforum.org. Teknologien går raskt fram, og fiendtlege aktørar lærer. Sjølv om deepfakes ikkje avgjorde store val i 2024, påverka dei diskursen – for eksempel blei virale KI-løgner om kandidatar tema også i den vanlege debatten cetas.turing.ac.uk. I tillegg har sjølve opplevinga av trusselen frå deepfakes skapt uro og mistillit rundt val cetas.turing.ac.uk cetas.turing.ac.uk. Potensialet for ei meir skadeleg hending er framleis til stades, spesielt når vi nærmar oss dei viktige vala i 2025. Demokratiske samfunn må difor ta deepfakes på alvor som eit sikkerheits- og integritetsspørsmål, og handsame både den direkte risikoen frå fabrikkert medium og den breiare erosjonen av sanninga i den demokratiske sfæren.

Nylege saker: Deepfakes forstyrrar politikken

Ekte døme frå dei siste åra viser korleis syntetiske medium allereie har blitt brukt som våpen i politiske samanhengar. Under går vi gjennom fleire merkelege hendingar og case-studiar av deepfakes og KI-generert feilinformasjon som har påverka val eller offentleg debatt:

  • Ukraina (mars 2022) – «Overgi dykk»-video: I dei første dagane av Russlands krig mot Ukraina dukka det opp ein video som såg ut til å vise Ukrainas president Volodymyr Zelenskyj, der han oppmoda troppane sine om å leggja ned våpena og kapitulera. Videoen var ein deepfake, med Zelenskyjs bilete og stemme kunstig endra icct.nl. Avslørande feil (uskarpe kantar, ulik hudtone på halsen) avslørte bløffen, og ukrainsk media rulla raskt opp lureriet. Denne hendinga – den første kjende bruken av ein deepfake i væpna konflikt – varsla om korleis KI-propaganda kan brukast for å undergrave leiarar under kriser icct.nl. Sjølv om den falske Zelenskyj-videoen ikkje klarte å demoralisere Ukrainas motstandsarbeid, synte den intensjonen og evnene til aktørar med vonde hensikter (i dette tilfellet mistenkt for å vere russiske operatørar) til å bruke deepfakes for informasjonskrigføring.
  • Slovakia (september 2023) – Valfeilinformasjon: Berre dagar før parlamentsvalet i Slovakia vart deepfake-lydopptak virale og hevda å vere Michal Šimečka, leiar for det progressive Slovakia-partiet, som tilstod valfusk og til og med foreslo å dobla ølprisen brennancenter.org. Nokre versjonar hadde ein svak disclaimer om at dei var KI-genererte, men det kom berre heilt til slutt – truleg eit bevisst forsøk på å villeia lyttarane brennancenter.org. Tidsbruken var tydeleg strategisk, rett før valdagen. Šimečkas pro-vestlege parti tapte knepent for ein pro-Kreml-motstandar, og nokre kommentatorar spekulerte i om den seine deepfake-svertekampanjen kan ha påverka resultatet brennancenter.org. Dette viser korleis utanlandske eller nasjonale aktørar kan bruke deepfakes for å påverke eit jamt val, og kor vanskeleg det kan vere å imøtegå falske narrativ på slutten av ein valkamp.
  • Taiwan (januar 2024) – Utenlandsk påverknadsoperasjon: I forkant av presidentvalet i Taiwan i 2024 dokumenterte aktørar ein Kinesisk feilinformasjon-kampanje med deepfakes for å undergrave kandidaten Lai Ching-te. Falske videoar sirkulerte på nettet der Lai (frå det leiande pro-uavhengige partiet) kom med påstandar han aldri hadde kome med – til dømes feilaktig å støtte motstandarane sine policyoptions.irpp.org. I eitt tilfelle vart det sluppe KI-generert lyd av Lai der han tilsynelatande kritiserte sitt eige parti policyoptions.irpp.org, i forsøk på å splitte støtta hans. Desse syntetiske angrepa, spora tilbake til Kina, hadde til mål å påverke opinionen og så forvirring i Taiwans demokrati policyoptions.irpp.org. Til slutt vann Lai valet, og analytikarar vurderte at den kinesiske deepfake-kampanjen ikkje endra utfallet nevneverdig policyoptions.irpp.org. Likevel var det eit skulebokeksempel på at ein fiendtleg utanlandsk makt brukar KI-propaganda mot eit demokratisk val policyoptions.irpp.org policyoptions.irpp.org. Ein er framleis uroa for at slike taktikkar kan ha større effekt i eit jamnare val andre stadar.
  • USA (2024) – Deepfakes i valkampen: Valåret 2024 i USA såg ein bølgje av KI-generert politisk innhald som, sjølv om det ikkje øydela valet, vekkte uro. Tidleg i 2024 fekk veljarane i New Hampshire ein merkeleg telefonsamtale: ei stemme som likna president Joe Biden som fortalde demokratar “for å spare stemma di, ikkje bruk ho i dette valet.” Stemmen verka ekte på nokre, men bodskapen var openbart tvilsam – Biden ville aldri be støttespelarar la vere å stemme. Sanninga var at dette var ein deepfake stemmekopi av Biden, sendt til tusenvis av veljarar i eit forsøk på å undertrykke valoppslutninga aljazeera.com aljazeera.com. Denne hendinga, som nådde rundt 5 000 telefonnummer i New Hampshire, viste kor billeg og enkelt slike skitne triks kan bli gjort – konsulenten som laga Biden-stemma sa det tok berre 20 minutt og cirka 1 dollar i datakostnad policyoptions.irpp.org policyoptions.irpp.org. Samtidig dukka KI-genererte bilete opp i offisielle kampanjemateriell på sosiale medium. Merkverdig var det då Florida-guvernør Ron DeSantis sitt team publiserte ein angrepsreklame med manipulerte bilete av Donald Trump som klemde Dr. Anthony Fauci – bodskapen skulle vere at Trump var for vennleg med den tidlegare koronarådgjevaren som er upopulær på høgresida. Det viste seg at bildene av Trump som klemde Fauci var KI-genererte forfalskingar putta inn i videoen av kampanjen brennancenter.org, noko som førte til offentleg kritikk då det vart oppdaga. I eit anna tilfelle vart ein KI-laga video av president Biden – der han “tala” til folket med sløv stemme – delt på nettet, men blei raskt avsanna. Nokre falske videoar av Biden og visepresident Harris fekk millionar av visningar på sosiale medium cetas.turing.ac.uk, og synte kor raskt slikt innhald kan spreie seg. Til og med teknologitoppar vart involvert: Elon Musk delte ein notorisk grovt redigert video av VP Harris (merka «satire») der ho spydde ut nonsens – og forvitra grensa mellom humor-memer og desinformasjon cetas.turing.ac.uk cetas.turing.ac.uk. Ingen av desse deepfake-hendingane endra sjølve valresultatet, men dei forsterka falske narrativ (for eksempel om Bidens mentale kapasitet eller Trumps lojalitetar) og forgifta informasjonsmiljøet endå meir. Amerikanske styresmakter uroar seg òg for deepfakes retta mot valinfrastruktur – t.d. falsk lyd av valansvarlege som gir ulovlege instruksjonar til tilsette aljazeera.com – men ingen større slike tilfelle vart offentleg stadfesta i 2024.

Desse døma syner kor global trusselen er. Deepfakes har blitt brukt av statar i geopolitisk konflikt, av provokatørar i nasjonale val frå Europa til Asia, og av kampanjar og støttespelarar i USA. Dei har kome som falske talar, bilete, telefonar og videoar – retta både mot veljarar og valansvarlege. Hendingane så langt gir òg nokre lærdommar: mange deepfakes har blitt oppdaga og avslørt relativt raskt (ofte av påpasselege journalistar eller faktasjekkarar), og i fleire tilfelle har reaksjonen mot deepfakes (til dømes DeSantis-reklamen) gitt dårleg omtale av dei skuldige. Det tyder på at openheit og årvakenheit kan avdempe skadeverknadene. Likevel er trenden klar – slike syntetiske løgner vert oftare brukte og vanskelegare å skilje frå røyndomen med ein gong. Kvar valkamp gir nye rekordar (2024 fekk dei første KI-”robocall”-bløffa som skulle påverke valoppslutnad, dei første deepfake-valannonsebruka, osv.), og faren for ei meir øydeleggjande deepfake-hending vert større jo nærmare vi kjem 2025.

Å oppdage og motverke deepfakes: Verktøy og teknologiar

Ein avgjerande del av å verne om valprosessen er å utvikla pålitelege verktøy for oppdaging og mottiltak mot deepfakes. Forskarar, teknologiselskap og styresmakter kappløper om å skapa teknologiar som kan avsløra KI-forfalskingar og autentisera ekte innhald. Her gir vi ei oversikt over dagens landskap for deepfake-oppdaging og tilhøyrande mottiltak:

  • Automatiserte deepfake-detektorar: Den første forsvarslinja er KI mot KI – algoritmar som er trena til å analysera media og finna avslørande teikn på manipulasjon. Desse deteksjonssystema ser etter subtile artefaktar eller inkonsistensar som vert igjen av generative modellar. Tidlege deepfakes hadde til dømes ofte uregelmessig augeblunking eller ufullstendig lip-sync. Dagens detektorar bruker djupe nevrale nettverk til å granska til dømes lys og skugge i ansikt, mønster i lydfrekvensar eller biologiske signal (t.d. puls i video) som KI kan slite med å etterlikna. Teknologiselskap har bygd interne verktøy – Microsoft lanserte til dømes ein “Video Authenticator” i 2020 som kunne flagga falske videoar gjennom analyse av enkeltbilde. Plattformar som Facebook og X (Twitter) har investert i deteksjonsforsking og innfører filter for å fanga opp kjende falske media. Akademiske initativ og konkurransar (som Facebook Deepfake Detection Challenge og IEEE-konferansar) har ført utviklinga vidare, og oppstartselskap som Sensity og Reality Defender tilbyr kommersielle tenester for deepfake-oppdaging til kundar. Likevel er dette ein kontinuerleg våpenkappløp: Når detektoren blir betre, tileignar deepfake-skaperane seg nye triks for å laga meir sømlause forfalskingar som lurer automatiske sjekkar. Eit Meta-rapport frå 2023 viste til dømes at av all feilinformasjon flagga under valkrinsen i 2024, “mindre enn 1%” blei identifisert som KI-generert innhald weforum.org, noko som enten tyder på at deepfakes var relativt sjeldne eller at mange glapp forbi oppdaginga uoppdaga.
  • Vassmerking og innhaldsproveniens: Ei anna tilnærming er å tagga KI-generert innhald alt i skapingsøyeblikket slik at dei som får innhaldet lett kan kjenna det igjen som syntetisk. EU fremjar sterkt denne metoden – den nye EU KI-lova pålegg no eksplisitt at alt KI-generert eller KI-manipulert innhald må merkast eller vassmerkast tydeleg som dette realitydefender.com. Selskap ville måtte leggja til ein indikator (eit digitalt vassmerke eller metadatamerke) når eit bilete, ein video eller lyd vert produsert av KI. I teorien kan nettlesarar eller sosiale medium så automatisk flagga eller filtrera innhald med slike merker. Vassmerking har potensiale, særleg for å avskrekka uformelt misbruk. Store KI-leverandørar (som OpenAI, Google med fleire) har diskutert frivillig vassmerking av bilete og tekst deira system produserer. I tillegg utviklar ei koalisjon av medie- og teknologiorganisasjonar proveniensstandardar (t.d. C2PA, Coalition for Content Provenance and Authenticity) for å kryptografisk registrera opprinnelse og endringshistorikk til digitalt media. Eit nyhendebilete eller ein kampanjeannonse kan for eksempel innehalda eit sikkert autentisitetssertifikat, slik at kven som helst kan verifisera kven som har laga det og at det ikkje har blitt tukla med cetas.turing.ac.uk. Den amerikanske regjeringa har omfamna dette; Det kvite hus ga føderale byrå ordre om å lage retningsliner for “autentisitet by design,” med proveniensmetadata i alt digitalt innhald dei produserer innan 2025 cetas.turing.ac.uk. Dersom slike tiltak vert tatt i breidt bruk, vil det gjera det mykje vanskelegare for falskt innhald å utgi seg for å vera ekte.
  • Avgrensingar ved merking: Transparensverktøy er viktige, men ikkje idiotsikre. Vassmerke kan fjernast eller endrast av målretta angriparar. Forskarar har allereie vist metodar for å fjerna eller skjula KI-vassmerke realitydefender.com, og sjølvsagt kan ein ondsinna aktør som lagar sin eigen generative modell berre velja å utelata slike merker. Proveniensmetadata er òg kun hjelpsam om det er breitt tatt i bruk og dersom brukarar faktisk sjekkar det. Ein deepfake-skaper kan òg nytta “proveniens-piggybacking” – å ta eit ekte bilete eller video og leggja falske element oppå, slik at sluttproduktet framleis har originalfilens digitale signatur. Desse utfordringane betyr at vi ikkje kan stola utelukkande på innholdsmerking. Som eit KI-sikkerheitsselskap påpeikte: vassmerking og proveniensløysingar verkar berre når innhaldsskaperar samarbeider om å merka produkta sine – som ikkje vil stoppa dedikerte skadeaktørar realitydefender.com. Difor er innholdsbasert deteksjon (analyse av sjølve innhaldet for teikn på KI-manipulasjon) framleis avgjerande realitydefender.com. Det beste forsvaret vil truleg kombiner begge tilnærmingar: robuste automatiske detektorar for å leita etter falskt, og autentiseringssystem for å verifisera ekte media.
  • Sanntidsdeteksjon for video-/lydstraumar: Eit framveksande behov er verktøy som kan avsløra deepfakes i sanntid. Tenk deg eit hypotetisk scenario med ein falsk “direkte” videosamtale med ein kandidat eller tenesteperson – slik det hende i Hong Kong i 2023 då kriminelle brukte deepfake av ein selskapsleiar på Zoom for å godkjenna ein svindeloverføring på 25 millionar dollar weforum.org. I det tilfellet var fleire personar i samtalen – inkludert ein “sjef-etterliknar” – KI-genererte. Å oppdaga slike sanntidsforfalskingar er ekstremt vanskeleg. Selskap jobbar no med løysingar som kan vera plugin-modular for videomøte som varslar brukarar dersom eit bilete eller ein stemme verkar syntetisk endra (til dømes gjennom analyse av lydforsinkingar og spektral-anomaliar, eller ved å sjekka om eit ansikt på skjermen følgjer rørsla til eit ekte ansikt fanget av kamera). Nokre oppstartselskap hevdar dei tilbyr sanntids deepfake-deteksjon-API-ar som kan integrerast i straumetenester eller til og med autentisera foredragshaldarar på større arrangement. Forløpig heng likevel sanntidsdeteksjonen bak angriparane, og det vert lagt vekt på førebyggande tiltak (til dømes bruk av passord eller avtalte “kodeord” i telefonsamtalar for å stadfesta identitet, slik politiet tilrår weforum.org).
  • Menneskeleg faktasjekk og samfunnsmerking: Teknologi aleine er ikkje ei trylleløysing. Eit årvåkent menneskeleg lag forblir avgjerande. Nyhetsorganisasjonar, faktasjekkgrupper og plattformar har sett opp eigne team for å overvaka virale deepfakes under valperiodar. Desse brukar OSINT (open kjeldeetterretning) og rettsmedisinske verktøy for å analysera mistenkeleg media – til dømes ved å sjekka tidsstempel, sjå etter inkonsistensar (slik som ulike øredobbar på ein politikar i ein video, eller rare munnrørsler), og raskt publisera motbevis. Folkedugnad hjelper òg: på X/Twitter har funksjonen “Community Notes” blitt brukt til å flagga postar med KI-genererte bilete eller video med oppklarande kontekst. Under nylege val har brukarane ofte avdekka deepfakes i løpet av nokre timar etter publisering, ved å leggja ut samanlikningar eller peika på feil. Denne typen kollektiv årvåkenheit, støtta av digital kompetanse, er eit svært effektivt verktøy. Plattformar tar i aukande grad i bruk brukarar og uavhengige faktasjekkarar for å identifisera tvilsamt innhald, gitt det enorme volumet som automatiske filter må skanna. Ulempen er at ein deepfake kan gå viralt før det vert avsanna. Likevel vil raskare respons og breiare bevisstgjering (slik at fleire brukarar sjølv kan identifisera fusk) redusera skade.

Oppsummert er deepfake-oppdaging eit aktivt og stadig utviklande felt. Det blir gjort framsteg – blant anna er detektorar i dag mykje betre enn i 2018, og initiativ som Content Authenticity Initiative arbeider for å gjera verifisering til standard. Men utfordringar står att, grunna katt-og-mus-dynamikken med skadeaktørar og behov for utbreidd verktøybruk. I åra som kjem vil deepfake-oppdaging truleg verte bygd inn i sosiale medium, nyheitsarbeid og til og med einingane våre (tenk deg at mobilen din varslar om ein innkomande videosamtale kanskje er KI-generert). Det aller viktigaste er at deteksjon og proveniensløysingar må kombinerast med folkeopplysning slik at brukarar forstår og reagerer rett når det dukkar opp varslingar eller merkar. Denne teknologidelen er berre ein del av ein større strategi for å motverka truslane frå syntetisk media.

Politiske tiltak og regulatoriske rammeverk

Politiske beslutningstakarar over heile verda har vakna for deepfake-trusselen og har byrja utforme lover og reglar for å handtera det. Sjølv om problemet er nytt, veks det fram eit lappeteppe av responsar i dei store demokratia. Nedanfor er ei oversikt over lovgivande og regulatoriske tiltak på gang:

  • USA: I USA finst det i dag inga føderal lov som blanket-forbyr politiske deepfakes, men det er auka fart på å fylla tomrommet. Fleire lovframlegg er fremja i Kongressen for å avgrensa skadeleg bruk av deepfakes. Til dømes lanserte politikarar i 2024 No AI FRAUD Act etter høgprofilerte hendingar (som KI-genererte eksplisitte bilete av kjendisar) policyoptions.irpp.org. Dette forslaget skal skapa eit føderalt rammeverk som kriminaliserer visse skadelege brukstilfelle av KI, som svikefulle politiske deepfakes og villedande pornografiske forfalskingar policyoptions.irpp.org. Ein annan ide under diskusjon er å påby tydelig merking av KI-generert innhald i vallovgjeving (slik at kampanjar må innehalda klar merking dersom annonsane inkluderar syntetisk media). Samstundes foretok Federal Communications Commission (FCC) eit målretta grep ved å forby bruk av KI-stemmekloning i telefonoppringingar meint for svindel eller skade policyoptions.irpp.org. Denne regelen kom etter svindelpåfunn der innringjarar imiterte røysta til verkelege personar. Forbodet gjer det ulovleg for telefonseljarar eller politiske aktørar å bruka syntetisk stemme for å villa mottakarar. Mykje djuptfalsk-regulering i USA skjer på delstatsnivå. Sidan 2019 har delstatar som California, Texas og fleire vedteke lover om val-deepfakes. California forbyr å distribuera materielt villedande deepfake-videoar av kandidatar innan 60 dagar før val (med unntak for satire/parodi) brennancenter.org. Texas har gjort det til ein statleg fengselsstraff å skapa eller dela deepfake-videoar med formål om å skade ein kandidat eller påverka veljarane brennancenter.org. Per midten av 2025 har minst fjorten amerikanske delstatar vedtatt eller debatterer lovreglar om deepfakes i valsamanheng citizen.org. Desse tiltaka har fått støtte frå begge parti – politikarar frå både demokratane og republikanarane er einige om at KI-manipulert valdesinformasjon er ein trussel mot demokratiet citizen.org citizen.org. Lovene varierer: somme kriminaliserer publisering av skadeleg deepfake om kandidatar, andre fokuserer på obligatorisk varsel på syntetisk valkamp-innhald. I tillegg har interessegruppa Public Citizen bedt Federal Election Commission oppdatere reglane og forby føderale kandidatar å spreie villedande deepfakes i kampanjar brennancenter.org. FEC har enno ikkje vedtatt nye reglar, men saka står på agendaen. Amerikanske lovgivarar må òg avvege ytringsfridom – for vide forbod mot manipulert media kan kollidera med First Amendment. Til dømes involverer satire og parodi (verna politisk ytring) ofte endra bilete eller video; lovgjevinga må difor retta seg berre mot skadeleg villeding. Dette kjem til uttrykk i mange delstatslover som gjev eksplisitte unntak for parodi, satire eller journalistbruk brennancenter.org brennancenter.org. Det er likevel brei semje om at false KI-genererte innhald som med vitande og vilje villeier veljarar eller skapar uro ikkje har nokon legitim plass i eit demokrati og kan regulerast utan å krenke ytringsfridomen brennancenter.org brennancenter.org.
  • Den europeiske unionen: EU beveger seg raskt mot brei KI-regulering, inkludert tiltak direkte retta mot deepfakes. Den banebrytande EU KI-lova, vedteken i 2024 (fullverdig gjeldande frå 2026, med enkelte reglar før), inneheld eit transparenskrav for syntetisk media. Under lova må alle KI-system som kan skapa “deepfake”-innhald merka innhaldet som KI-generert (med unntak, f.eks. kunst eller tryggleiksforsking) realitydefender.com. I praksis betyr det at utviklarar av bilde- eller videomodellar i EU må byggja inn vassmerking eller metadata som signaliserer at resultatet er syntetisk. Brot på dette kan medføra høge bøter etter lova. I tillegg har EU sin oppdaterte Code of Practice on Disinformation (ein frivillig kodek for store nettplattformar) nemnd deepfakes som trussel og forpliktar plattformar på å utvikle “policy, tiltak og verktøy for å takla manipulerte innhald” brennancenter.org brennancenter.org. Plattformar har til dømes lova å innføre system for å fanga opp og anten merka eller fjerna deepfake-videoar som kan vera skadelege, og å samarbeida med faktasjekkarar for rask avdekking av falskt KI-innhald. Ikkje minst gjev Digital Services Act (DSA), gyldig frå 2023, veldig store nettplattformar i EU krav om å vurdera og motarbeida “systemiske risikoar” – inkludert spreiing av KI-desinformasjon. Påtrykket får store aktørar som Meta, Google og TikTok til å lansera nye sikringstiltak for valperioden 2024–2025: frå forbetra deepfake-deteksjon til tydlegare merking av syntetisk innhald. Europa fører altså ein transparens-først-tilnærming: påby merking av KI-innhald og stiller plattformane til ansvar for å motverka deepfake-drivne feilinformasjon. Kritikarar peikar på at handheving blir utfordrande (korleis å fanga alle umerka fakes i ei flom av nettinnhald?), men EU signaliserer at ulovlege deepfakes ikkje skal tolererast og ikkje er foreinleg med den digitale styringa deira realitydefender.com realitydefender.com.
  • Storbritannia: Storbritannia har ikkje enno vedtatt valspesifikke deepfake-lover, men tek opp tematikken gjennom breiare tiltak for netttryggleik og KI. I 2023 fekk landet Online Safety Act, ei omfattande lov for regulering av skadeleg nettinnhald. Lova kriminaliserer mellom anna deling av ikkje-konsensuell deepfake-pornografi – det er ulovleg å laga eller distribuera syntetiske eksplisitte bilete av einskildpersonar utan samtykke policyoptions.irpp.org. Dette er eit tiltak mot trakassering. På desinformasjonssida gjev Online Safety Act Ofcom (medietilsynet) fullmakt til å utarbeida retningsliner for feilinformasjon. Ekspertar oppmodar Ofcom til å skapa ein Code of Conduct on Disinformation med standardar for KI-manipulert innhald cetas.turing.ac.uk. Ein slik kodeks, basert på EU-modellen, kan pressa sosiale medium og politiske aktørar i Storbritannia til å halda seg unna spreiing av deepfakes og merka eventuelle syntetiske media tydeleg. Det er òg krav om at Valkommisjonen bør gje skriftlege retningsliner til politiske parti om ansvarleg KI-bruk, og oppretta raudlinjer mot villedande deepfakes i valkamp cetas.turing.ac.uk. Hausten 2024 tilrådde eit tverrpolitisk utval av parlamentarikarar ei innskjerping av vallovar for å straffa deepfake-desinformasjon, sjølv om ingen konkret lov har blitt presentert. Regjeringa har meldt at ho vurderer om eksisterande lovverk (til dømes for ærekrenking, svindel og valforbrytingar) held til å åtale skadeleg deepfake-bruk, eller om ny lov trengst cetas.turing.ac.uk. I tillegg etablerer Storbritannia eit AI Safety Institute og arrangerte eit globalt KI-sikkerheitstoppmøte i 2023, der informasjonsmanipulasjon var tema. Britiske styresmakter ser ut til å satsa like mykje på tekniske forsvar og digital opplæring (meir om dette i anbefalingar nedanfor) som på eksplisitte forbod. Likevel viser tiltak som forbod mot deepfake-porno og styrka regulatormakt at falskt, KI-drivna innhald krev politisk handling.
  • Canada: Per 2024 hadde Canada ingen eigne lover mot bruk av deepfakes i val. The Canada Elections Act forbyr ikkje eksplisitt KI-generert feilinformasjon eller deepfakes, så slike saker må evt. påtalast etter generelle føresegner (til dømes svindel- eller imitasjonslover), som kanskje ikkje er tilstrekkeleg cef-cce.ca. Dette reguleringsgapet er peika ut av ekspertar, som åtvarar om at Canada er “eit par steg bak” andre demokrati på dette feltet policyoptions.irpp.org. Hausten 2023 opplevde Canada eit mindre deepfake-relatert tilfelle då eit falskt lydklipp av ein politikar sirkulerte. Det fekk liten verknad, men skapte bevisstheit. Elections Canada (valstyresmakta) har etter dette lagt KI-feilinformasjon til som framveksande trussel og studerer no moglege tiltak cef-cce.ca. Politikkekspertar krev ny lovgiving “i går” – til dømes ved å gje valkommissæren makt til å slå ned på villande syntetiske medier i kampanjar policyoptions.irpp.org. Canada kan læra av allierte: til dømes vurdere påbod om merking av KI-genererte valannonsar, eller forby spreiing av materiale ein veit er deepfake meint for å villa veljarar. Per midten av 2025 var ingen lovforslag fremja, men presset aukar for at Canada skal følgja andre land i kampen mot deepfakes i val policyoptions.irpp.org.
  • Andre demokrati: Verda over har fleire demokrati byrja å ta grep:
    • Australia: Regjeringa i Australia, uroa over KI-”sanningserosjon” i forkant av val, lanserte planar om “sannheit i politisk reklame”-lovgiving som vil forby villedande deepfake-video og audio i valkampen innovationaus.com. Forslaget, lagt fram av Albanese-regjeringa i 2023, skal forby publisering av syntetisk media som etterliknar ekte kandidatar eller villeier veljarar i valperiodar innovationaus.com. Likevel går lovarbeidet seint – det ligg an til at desse deepfake-reglane ikkje trer i kraft før i 2026 innovationaus.com, så valet i 2025 kan dermed gå utan fulle reglar på plass. I mellomtida har valkommisjonen i Australia gitt rettleiing og understreka behovet for perspektiv (kommisjonen påpeika at overdriven fokus på deepfakes kan undergrava tilliten til verkeleg informasjon) ia.acs.org.au. Australske politikarar på tvers av parti støttar tiltak for å motverka KI-desinformasjon, og debatten går om korleis dette skal balanserast mot ytringsfridomen theguardian.com sbs.com.au.
    • Taiwan: Etter erfaringar med deepfake-påverknad frå Kina har Taiwan styrka valreglane sine. I 2023 vedtok Taiwan ein endring i val- og tilbakekallingslova så det spesifikt vart forbode å dele forfalska lyd eller video av kandidatar med hensikt om å påverke utfallet feilaktig policyoptions.irpp.org. Dette gir tydeleg juridisk verktøy mot forfalskingskampanjar som vart sett i 2024. Taiwan har òg investert i folkeopplysning og eit hurtig respons-system (med styresmakter, sivilsamfunn og teknologiselskap) for å tilbakevisa falsk informasjon, noko som bidrog til å avgrensa omfanget policyoptions.irpp.org policyoptions.irpp.org.
    • Europeiske demokrati: Enkelte europeiske land, i tillegg til EU-reglane, har byrja å nytte eksisterande lover mot deepfakes. Til dømes kunne Frankrikes lov mot “falsk informasjon” under val (vedteken i 2018) brukast mot deepfake-videoar spreidd for å påverka val, og Tysklands strenge lover mot ærekrenking og valforbrytelse vil kunne nyttast tilsvarande. Men det kjem òg nye forslag: i Tyskland har styresmaktene diskutert krav om at parti må erklære bruk av syntetisk media i valkampmateriell. I Storbritannia kan framtidige endringar i vallova (f.eks. påbod om avsendar på digitale annonser) inkludere krav om KI-merking cetas.turing.ac.uk.
    • Internasjonale initiativ: Det er aukande semje om at globalt samarbeid er nødvendig, då desinformasjon kryssar landegrenser. G7 har ein arbeidsgruppe for “KI-styring” og gav i 2024 ei fråsegn om bekjemping av skadeleg bruk av KI i informasjonsrommet. Biden-administrasjonen i USA sikra frivillage forpliktingar frå dei største KI-leverandørane (OpenAI, Google, Meta m.fl.) om å innføre vassmerking for KI-innhald og investere i tiltak mot misbruk. Sjølv om ikkje bindande, tyder dette på ein internasjonal norm om transparens og ansvar ved KI-bruk.

Samandrag: politiske tiltak mot deepfakes akselererer. Lovgivinga er framleis i etterslep mot teknologiutviklinga, men retninga er klar: styresmaktene beveger seg mot å gjera dei mest skadelege bruksområda av syntetisk media i val forbode, til pålegg om transparens (merking/offentleggjering) av KI-generert innhald, og til å styrka reguleringsorgan eller valgstyresmakter til å ta grep mot digitale forfalskingar. Samtidig må ein verne lovlydig ytring som satire og unngå strenge reglar som kan misbrukast til sensur. Denne balansen er utfordrande. Tilnærmingane – frå delstatslover i USA til EU-mandat – vil gje viktig læring i 2025. Politikarar kjem til å skjerpa og justera tiltaka når vi ser kva som fungerer. Men passivitet er ikkje eit alternativ: som ein politisk varslar sa det, “Utan regulering er det sannsynleg at deepfakes vil forvirra veljarar og svekka tilliten til valprosessen.” citizen.org citizen.org Neste seksjon gir strategiske tilrådingar som bygger vidare på desse tiltaka, og rettar seg mot alle aktørar i den demokratiske prosessen.

Strategiske tilrådingar for å trygge val

Å forsvare valintegriteten i AI-alderen vil krevje ein fleirfasa strategi. Ingen einskild verkty eller lov kan løyse deepfake-problemet åleine; i staden trengst ein koordinert innsats frå styresmakter, teknologiplattformer, media og sivilsamfunnet. Under følgjer strategiske tilrådingar på tvers av desse sektorane for å avgrense risiko og sikre at veljarane kan ta informerte val i 2025 og vidare:

Myndigheiter og politikkutformarar

1. Styrk juridisk vern og avskrekking: Styresmaktene bør vedta eller oppdatere lover for å uttrykke forby vondarta bruk av syntetiske medium i val. Dette inkluderer å gjere det ulovleg å skape eller distribuere, med hensikt å lure publikum eller sabotere eit val, ein kvar deepfake som falskt avbildar ein kandidat eller manipulerer valrelatert informasjon (slik som valprosedyrar). Nøyaktig utforming er viktig – lova bør rette seg mot intensjonell villeding (desinformasjon), med klare unntak for satire, parodi eller openberr kunstnarleg ytring. Straffer (bøter eller strafferettslege sanksjonar) vil verke avskrekkande på potensielle deepfake-seljarar, særleg dersom dei blir raskt håndheva. Til dømes kan Australia sitt foreslåtte forbod mot villedande deepfakes i valkampen og Taiwan sine nye paragrafar mot AI-manipulert valinnhald tene som modellar innovationaus.com policyoptions.irpp.org. I USA kan føderale tiltak (som det foreslåtte No AI FRAUD Act) setje ein nasjonal minimumsstandard i tillegg til delstatslovar. Styresmaktene bør dessutan oppdatere reglar for valfinansiering og reklame: krev at ein kvar politisk annonse (på nett eller kringkasting) som inneheld syntetiske medium, har ein tydeleg ansvarsfråskriving (t.d. “Dette bildet/videoen er AI-generert”) slik at publikum ikkje blir villeia. Sanningskrav i valreklame må òg gjelde AI-innhald.

2. Innfør valberedskapsprotokollar: Valmyndigheiter bør etablere formelle protokollar for å respondere på alvorlege deepfake-hendingar i sanntid. Eit godt døme er Canada sin Critical Election Incident Public Protocol, som samlar leiande styresmakter for å vurdere og informere publikum om utanlandsk innblanding eller truslar om desinformasjon under eit val cetas.turing.ac.uk cetas.turing.ac.uk. Andre demokrati bør vedta liknande mekanismar. Dersom ein farleg deepfake oppstår (t.d. ein fabrikkert video av ein kandidat som erklærer nederlag sirkulerer valdagen), blir protokollen sett i verk – ansvarlege, etterretnings- og teknologiekspertar samt plattformer vil raskt verifisere sanninga og sende ut ein offentleg melding for å avlive faken og oppklare fakta cetas.turing.ac.uk. Denne raske tilbakevisinga er avgjerande for å dempe skadeverknaden av “brannslange”-desinformasjon. Myndigheiter bør øve på desse prosessane på førehand (krigsspel ulike deepfake-scenario) slik at dei kan handle raskt og samstemt når det trengst.

3. Invester i infrastruktur for oppdaging og autentisering: Offentlege byrå bør investere ressursar i å vidareutvikle oppdaging av deepfakes og autentisering av innhald. Dette inneber å finansiere FoU (til dømes DARPA-liknande program for AI-formidla feilinformasjon), støtte rullering av oppdagingsverktøy for valbruk og ta i bruk autentiseringsstandardar i offentleg kommunikasjon. Eit konkret steg er at offentlege medium (statlege kringkastarar, offisielle sosiale medier-kontoar, osv.) startar å leggje til provbar opphavsmetadata på alle offisielle foto, videoar og lydfiler dei gir ut cetas.turing.ac.uk. På denne måten etablerer dei ein basis for “verifisert ekte” informasjon. Veljarar og journalistar kan då stole på at alle videoar med offentleg segl i metadataen er ekte – og vere meir skeptiske til liknande opptak utan det merket. Offentlege aktørar kan gå føre som døme på denne “autentisitet gjennom design”-tilnærminga cetas.turing.ac.uk, som både USA og Storbritannia alt utforskar. I tillegg bør politi og valovervaking få tilgang på einingar for rettsmedisinsk analyse for å vurdere mistenkjeleg mediumduring valkampen. Det at ansvarlege har tekniske middel til å spore og knyte deepfakes til opphavsmenn (og eventuelt peike ut gjerningspersonar) vil også verke avskrekkande på skadeleg aktørar.

4. Klargjer og moderniser eksisterande lovverk: Mange land kan oppdage at noverande lover om svindel, identitetstjuveri, ærekrenking eller valinnblanding kan brukast på nokre deepfake-saker – men det kan finnast hol. Styresmaktene bør gå gjennom lovverket for å sjekke om nye kategoriar trengst. For eksempel: har vi reglar som dekkar AI-generert utgjeving av offentleg tilsett? Om ikkje, innfør dei. Sørg for at personvern- og datalover inkluderer uautorisert AI-bruk av ein person sitt bilete/stemme som brot. Klargjering av rettsstatusen til skadelege deepfakes (og informasjonsarbeid om dette) er viktig, slik at potensielle skadeaktørar veit at dei kan haldast ansvarleg. Det gjev òg offer (kandidatar eller innbyggarar) rettsleg ryggdekning til å forfølgje saka om dei blir utsett. Denne gjennomgangen bør òg omfatte vallovgjeving: oppdater definisjonar av ulovleg valreklame eller feilaktig informasjon om undersøking, for å klart innlemme manipulasjonar med syntetiske medium cetas.turing.ac.uk. Målet er å fjerne tvityding – ein skadeaktør bør ikkje kunne hevde “teknisk sett er det ikkje ulovleg fordi det er AI”. Om lova er tydeleg, er det lettare å håndheve og straffeforfølge.

5. Styrk internasjonalt samarbeid: Fordi desinformasjonskampanjar ofte har utanlandsk opphav (eller spreier seg over landegrensene), bør demokratiske regjeringar jobbe saman om dette. Etterretning og cybersikkerheit bør dele informasjon om framveksande deepfake-taktikkar (til dømes: om eitt land oppdagar ein utanlandsk deepfake-operasjon, bør andre bli varsla). Forum som Alliance for Securing Democracy, G7, EU-US-dialogar og andre kan koordinere felles uttalelser og normer mot valrelaterte deepfakes. Diplomatiske verkemiddel kan nyttast mot statlege aktørar som sponsar eller tolererer slik innblanding. Det er òg rom for felles forsking – t.d. internasjonale senter for deepfake-oppdaging kan samle data for å betre algoritmar. Overvakingsorganisasjonar for val (som OSSE eller internasjonale observatørar) bør oppdatere metodane sine for å avdekke syntetisk mediapåverknad, og land kan ta med deepfake-scenario i felles forsvarspaktar for demokratiske prosessar. Ein samla front gjer det vanskelegare for vondarta aktørar å utnytte sårbarheiter i enkeltland.

6. Styrk folkeopplysning og digital kompetanse: Til sjuande og sist har styresmaktene eit ansvar for å informere veljarane om deepfakes. Mange land vurderer eller innfører no program for digital kompetanse i skular og til folket cetas.turing.ac.uk. Desse programma lærer folk å sjekke informasjon på nett, kjenne igjen teikn på manipulert medium og tenkje kritisk om kjelder. Gjeven kor overbevisande AI-fakes har vorte, er det avgjerande at alle veljarar veit slike fakes finst og føler seg i stand til å dobbelsjekke sjokkerande innhald (framfor å tru eller dele blindt). Offentlege aktørar bør samarbeide med utdanningsinstitusjonar og frivillige organisasjonar for å ta med deepfake-opplysning i pensum og informasjonstiltak. Til dømes kan ein sende ut informasjonsspotar der ein viser side om side ekte og deepfake-klipp av ein politikar og forklarer forskjellen, for å auke medvit. Det finst dokumentasjon på at personar med høgare mediekompetanse og kritisk tankegang er langt flinkare til å avsløre deepfakes og motstå feilinformasjon cetas.turing.ac.uk. Difor er finansiering av mediekompetanse-initiativ eit av dei mest effektive forsvara på lang sikt. Når folket vert eit aktivt sensor-nettverk – som oppdagar og ropar varsko om fakes – kan påverknaden av deepfake-propaganda bli sterkt redusert.

Teknologiplattformer og AI-utviklarar

1. Styrk plattformpolitiske reglar og handheving: Sosiale medium og nettplattformer er hovudsaklege distribusjonskanalar for virale deepfakes. Desse selskapa bør ha strenge retningslinjer mot manipulerte medium som lurer brukarar, særleg i valkontekst. Mange plattformer har allereie starta dette: til dømes har Facebook og Twitter (X) retningslinjer for å fjerne eller merke “manipulerte medium” som kan skade. Men handhevinga må vere robust. Plattformene bør forbetre automatisk oppdaging av deepfakes (med dei nyaste verktøya som nemnt tidlegare) og sikre rask manuell gjennomgang når brukarar rapporterer mistenkjeleg innhald. I valperiodar kan selskapa opprette eigne valvaktsrom og samarbeidskanalar med valstyresmaktene for å håndtere deepfake-hendingar i sanntid. Når ein fake blir identifisert, bør plattformen merke det som falskt eller fjerne det raskt, og nedprioritere det i algoritmene for å hindre vidare spreiing brennancenter.org brennancenter.org. Openheit er òg viktig: plattformene kan publisere jamlege rapportar om deepfakes dei har oppdaga og kva tiltak som er gjort, noko som bygg tillit hos publikum. Dei bør òg dele eksemplar av oppdaga deepfakes med forskarar for å styrke den kollektive innsikta.

2. Innfør krav om openberring og sporing av deepfakes: Ved å ta inspirasjon frå EU bør plattformer verda over krevje at AI-generert innhald blir merka og gjort openbert. Til dømes, viss ein politisk annonse blir lasta opp og inneheld AI-generert bilete eller røyst, kan plattforma krevje at opplastar krysser av i ein boks med “dette innhaldet har syntetiske element” – og deretter vise ei melding til sjåaren (“Denne videoen er endra eller delvis generert av AI”). Sjølv utanfor formelle annonsar kan plattformer bruke deteksjonsverktøy til å visuelt merke mistenkte deepfake-videoar (t.d. eit varsel om at videoens autentisitet ikkje er verifisert). I tillegg kan sosiale medium og meldingstenester integrere funksjonar for autentisitet av innhald: ved å bruke standardar som C2PA kan dei vise eit ikon dersom kjelde og redigeringshistorikk til eit bilete er verifisert, eller i motsett fall gi varsel om at dataen manglar. Nokre teknologiselskap (Adobe, Microsoft, Twitter) er alt involverte i slike tiltak. Ved å bygge inn proveniens-signal i brukargrensesnittet kan plattformer hjelpe brukarar å skilje ekte frå falskt. Dei bør òg utvikle sporingsmekanismar bakover – t.d. viss ein skadeleg deepfake spreier seg, kan ein spore kven som lasta opp først, sjølv etter tusenvis av reposts? Samarbeid med politi ved alvorlege tilfelle (med respekt for privacy-lover) er viktig for å ta gjerningspersonar.

3. Forby skadelege deepfake-brukarar og nettverk: Plattformer må vere årvakne mot organiserte aktørar som gonger etter gonger bruker deepfakes. Dette betyr ikkje berre å fjerne enkeltdelar av innhold, men stengje kontoar, sider eller botar som driv koordinerte deepfake-kampanjar. Finst det bevis for at ein operasjon er statssponsa eller kjem frå kjend trollfabrikk, bør plattforma offentleggjere det og fjerne dei heilt. Mange desinformasjon-nettverk er fjerna dei siste åra; same offensive tilnærming må gjelde AI-driven påverknad. Plattformer bør oppdatere sine bruksvilkår så dei uttrykkeleg forbyr skadeleg oppretting eller deling av syntetisk media for å villeie andre. Desse reglane gir grunnlag for utestenging av brotsmenn. Når det gjeld politisk annonsering, bør alle kampanjar eller støttegrupper (PACs) som blir tekne i å bruke lurar-deepfakes få straff, t.d. tap av annonserettar. Teknologiselskap kan også gå saman om å halde svartelister over kjende deepfake-signaturar eller hashar, slik at ein deepfake som blir identifisert på ei plattform, straks kan blokkerast på andre (på same vis som ein gjer med terrorist-innhald). Poenget er: gjere det ulønsamt å bruke deepfakes på hovudstraum-plattformer – anten blir innhaldet raskt fjerna, eller brukaren misser kontoen sin.

4. Samarbeid med faktasjekkarar og styresmakter: Ingen plattform klarar å overvake alt innhald åleine. Samarbeid er avgjerande. Sosiale medium bør styrkje samarbeidet med uavhengige faktasjekk-organisasjonar for å vurdera viralt innhald. Når faktasjekkarar avsannar ein video som falsk, må plattforma forsterke rettinga – t.d. lenke til faktasjekk-artikkel kvar gong videoen blir delt, eller varsle alle brukarar som såg feilen først. Nokre selskap, som Facebook, har gjort dette for feilinformasjon, og bør gjere det same for deepfakes. Plattformer bør òg koordinere med valkommisjonar og tryggleiksetatar, spesielt i valperiodar. Dei kan opprette direkte kanal/hotline for rapportering av mistenkte deepfakes som påverkar valet, og plattformer kan varsle myndigheiter dersom dei registrerer utanlandsk desinformasjon retta mot landet. I nokre jurisdiksjonar finst slike ordningar (t.d. EU sin Code of Practice oppmuntrar til informasjonsdeling med styresmakter om desinformasjonstruslar brennancenter.org). I USA samarbeider Homeland Security sitt cybersikkerheitsteam med plattformer om desinformasjon kring val. Slike samarbeid må så klart ta omsyn til ytringsfridomen og ikkje gli over i sensur av legitim debatt. Men når materiale er openbert fabrikert og skadeleg, kan ein rask og koordinert respons mellom plattformer og offentlege institusjonar stoppe falske frå å spreie seg. Dette kan vere felles pressemeldingar for å avsanne ein viral fake, eller at algoritmar løftar fram autoritative kjelder som motvekt.

5. Forbetre tryggleik i AI-modellar: Selskapa som bygger generative AI-modellar (OpenAI, Google, Meta osv.) har eit særleg ansvar. Dei bør implementere sikringstiltak for å hindre misbruk av AI for å påverke val. Dette kan vere innvatning (watermarking) av AI-generert materiale, så kvart bilete frå t.d. DALL-E eller Midjourney har signatur innbakt. Det kan også handle om kurering av treningsdata – sørgje for at modellane lærar å nekte å etterlikne verkelege personer på skadeleg vis. Nokre AI-verktøy vil alt ikkje lage deepfake-bilete av ekte politikarar takka vere innebygde filter. Slike sikringsmekanismar bør kontinuerleg forbetrast (open source-modellar er ein utfordring, sidan dei kan finjusterast av aktørar utan slike restriksjonar). AI-utviklarar bør òg investere i forsking på deepfake-deteksjon og dele dette med samfunnet. Det er positivt at mange leiande AI-selskap frivillig har lova støtte til vatnings- og innhaldsautentisering. Framover kan dei samarbeide om ein felles API der ein raskt kan sjekke om ein video eller lydfil er AI-generert. Kort sagt: dei som lagar “problemet” (generativ teknologi) må òg bidra til “løysinga” (verktøy for å identifisere slik output).

6. Openheit om politisk annonsering: Plattformer som gir plass til politiske annonsar bør krevje streng openheit rundt bruk av AI. Dersom ein kampanjeannonse blir promotert på Facebook eller Google og inneheld AI-genererte element, skal annonsebiblioteket tydeleg opplyse om det. Plattformer kan til og med krevje at annonsørane sender inn rå, uredigert opptak til samanlikning. Meir ambisiøst kan sosiale medium vurdere å mellombels forby alle politiske annonsar med syntetisk media i dei siste og mest sårbare dagane før eit val – på same måte som enkelte alt forbyr nye politiske annonsar rett før valdagen. Slik fjernar ein risikoen for ei siste-liten deepfake-annonsebombe. Sjølv om håndhevingsarbeidet er vanskeleg, er prinsippet at betalt spreiing av villeiande innhald er særleg farleg og plattformer har større rett til å regulere reklame enn vanlege brukarpåstandar. Høg openheit og raske inndragningar av reklame er kritisk, sidan deepfakes spreidd gjennom betalte annonsar kan nå millionar algoritmestyre brukarar, og dermed verkeleg fordreie informasjonen veljarane får.

Medie- og journalistorganisasjonar

1. Strenge verifikasjonsprotokollar: Nyheitsmedia må tilpasse verifikasjonspraksis til deepfake-æraen. Kvar redaksjon – frå nasjonale TV-kanalar til lokalaviser og faktasjekksider – bør etablere formelle prosedyrar for autentisering av audiovisuelle materiale før publisering eller sending. Dette inkluderer opplæring av journalistar i bruk av verktøy for digitaletterforsking (t.d. sjekke metadata, kjøre biletanalyse) og rådføring med ekspertar når det trengst. Sensasjonelle eller skandaløse klipp som kjem opp i valkamp, bør redaktørar sjå på med kritisk skepsis og ikkje publisere ukritisk. Mediehus bør òg dobbeltsjekke alt brukarinnhold: til dømes, dersom ein video viser ein kandidat gjere noko sjokkerande, skal ein leite etter støttande bevis (vitne, offisielle uttaler, mm) eller i det minste analysere videoen bille for bille for å sikre det ikkje er deepfake. Målet er å hindre å bli utviten forsterkar av desinformasjon. Nokre nyhetsorganisasjonar har allereie etablert eigne deepfake-arbeidsgrupper. Journalistane i Arizona laga til og med sin eigen deepfake (med løyve) for å vise sjåarane kor lett det er å manipulere video knightcolumbia.org – ein smart måte å auke bevisstheita på. Alle redaksjonar bør ha ein “deepfake-ekspert” på vakt (eller samarbeid med eit teknologilab) for hurtiganalyse av mistenkelege opptak. Ved å gjere verifisering like obligatorisk som faktasjekk, kan media fange fakes tidleg – eller i det minste advare publikum dersom ein video ikkje er verifisert.

2. Ansvarleg rapportering om deepfakes: Når media omtalar hendingar med syntetisk innhald, bør det gjerast varsamt og med kontekst. Går ein deepfake som angrip ein kandidat viralt, bør fokuset vere at det er ei falsk manipulering – ikkje på innhaldet i seg sjølv. Media bør unngå å gjenta dei falske skuldingane i detalj, eller vise den manipulerte videoen utan kritikk, då det kan spreie feilinformasjonen vidare. I staden kan ein beskrive det overordna og fokusere på responsen (t.d. “Ein manipulert video som falskt viser X gjere Y har sirkulert på nettet, denne er tilbakevist av ekspertar”). Media kan dessutan sløre eller unngå å lenke direkte til deepfaken i nettartiklar cetas.turing.ac.uk, for å hindre trafikk eller nedlasting/gjenbruk. Vinklinga av reportasjen er viktig: understrek forsøket på å lure åleine, og ikkje vidareformidle det innhaldsmessige narrativet cetas.turing.ac.uk. Legg òg vekt på dei faktiske rettingane eller sanninga (t.d. “Nei, politikar Z sa ikkje dette – videoen er ei AI-fabrikkering; her er kva hen faktisk sa.”). Ved å vere konsistente med dette, kan truverdige media bidra til at publikum vernar seg mot å tru eller dele slikt. Det er ei balanse mellom å dekke desinformasjonen (for å oversjå det gjer ikkje at det forsvinn) og ikkje utilsikta spreie det. Ein kan utvikle retningslinjer tilsvarande dei for å dekke bløffer eller masseskytingar (der detaljar minimerast for å unngå etterlikning), for rapportering om deepfakes. Den uavhengige presses organ for etiske standardar i Storbritannia er blitt oppmoda om å inkludere slike scenario i sine kodar cetas.turing.ac.uk.

3. Bruk av autentisitetsteknologi i redaksjonar: Medieorganisasjonar sjølve kan nytte den veksande autentisitetsinfrastrukturen. Til dømes kan ein medieaktør ta i bruk verktøya til Content Authenticity Initiative for å feste kryptografiske innhaldsbevis til alle originale fotografi og videoar tekne av sine journalistar. Dette betyr at opptak gjort av til dømes ein Reuters- eller AP-fotograf kan ha eit sikkert segl som stadfestar opphav og eventuelle redigeringar. Seinare, når folk ser ein video frå Reuters, kan dei sjekke at han er uendra. Slike tiltak hjelper med å stadfeste kva som er ekte, og gir publikum ei kjelde til sanning. Media bør også samarbeide om å byggje databasar over kjende deepfakes (og kjende ekte opptak) som kan hjelpe faktasjekkarar. Til dømes kan det å ha eit arkiv over offisielle talar og intervju gjere det lettare å avkrefte eit forfalska opptak ved samanlikning. Store nyheitsbyrå og telegrambyrå kan koordinere slik at dei raskt kan varsle alle abonnentar om farlege deepfakes blir oppdaga – litt på same måte som når dei sender ut hastevarslar om store nyhende. Internt bør nyhende-redaktørar også vere merksame på at politiske operatørar kan prøve å mate journalistar med falske medium (t.d. eit tips med ein “lekket” lydfil som eigentleg er AI-generert). Det er klokt å vere ekstra skeptisk til alt digitalt innhald frå anonyme kjelder.

4. Opplæring av publikum: Media kan spele ei stor rolle i å opplyse veljarane om syntetiske medium. Redaksjonar og journalistar bør lage forklaringstekstar, intervjuer med ekspertar og innslag som viser korleis deepfakes blir laga og korleis publikum kan oppdage dei. Å avmystifisere teknologien gir han mindre makt. Nokre TV-nyhendeframføringar i 2024 demonstrerte til dømes AI-stemme-klonar på direkten for å vise korleis ein svindeltelefon kan etterlikne røysta til ein slektning. Likeeins kan dekninga i valkampen innehalde påminningar: “Ser du ein sjokkerande video om ein kandidat rett før valet, bør du vere skeptisk – han kan vere falsk. Slik kontrollerer du…”. Offentlege opplysningskampanjar leia av media (kanskje i samarbeid med myndigheiter eller frivillige organisasjonar) kan auke den digitale kompetansen betrakteleg. Journalistane bør òg bruke nøyaktig språk: å kalle noko ein “deepfake” eller “AI-generert falsk video” – ikkje berre “manipulert video” – hjelper folk å skjøne at dette er ein ny kategori. Over tid vil eit velinformert publikum vere mindre lettlurt og oftare krevje bevis. Media, som grensesnittet mellom informasjon og allmenta, har eit ansvar for å byggje denne motstandskrafta.

5. Ansvarleggjering og avsløring: Til slutt bør journalistar undersøke og kaste lys over kven som står bak profilerte deepfake-operasjonar. Å halde skadevoldarar ansvarlege i offentlegheita kan avskrekke seinare misbruk. Om ein rivaliserande kampanje, eit utanlandsk trollfabrikk-miljø eller ein bestemt nettgruppe blir peika ut som kjelda til ein skadeleg deepfake, bør rapporteringa framheve dette – slik at det blir risiko og negativt rykte knytt til slike taktikkar. Avsløringar om produksjon og finansiering av desinformasjonskampanjar kan tøme dei for slagkraft. Viss ein politikar eller offentleg person sjølv deler ein deepfake og veit at han er falsk (for eksempel om ein kandidat tvitrar ein falsk video av ein motkandidat), må media påpeike dette tydeleg – og handsame det som alvorleg kritikkverdig åtferd. Utsikta til negativ omtale og tap av rykte kan hindre politiske aktørar i å ta i bruk “skitne triks” som deepfakes. Kort oppsummert: journalistikken si vaktbikkje-rolle gjeld òg i den digitale verda: undersøk, attribuer og avslør skadelege, syntetiske medieoperasjonar på lik linje med annan svindel eller korrupsjon i politikken.

Sivilsamfunn og veljarinitiativ

1. Digital kompetanse og opplæring i samfunnet: Sivilsamfunnsorganisasjonar – inkludert frivillige organisasjonar, bibliotek, universitet og grasrotgrupper – kan gå føre i opplæring av innbyggjarane slik at dei kan navigere i deepfake-tida. Skalèrbare program bør tilbys lokalsamfunn om korleis dei kan kontrollere medieinnhald. Til dømes kan NGO-ar halde kurs som lærer folk enkle triks, som å bruke omvendt bildesøk (for å sjå om eit foto er AI-generert eller manipulert), sjekke etter samsvarande nyhende, og å bruke faktasjekk-nettstader. Det finst gode verktøykassar og undervisningsopplegg laga av faktasjekkargrupper (t.d. First Draft, Media Literacy Now) som handlar om å avsløre desinformasjon og deepfakes; desse bør bli breitt distribuert. Slik opplæring bør ikkje berre rette seg mot elevar, men òg eldre vaksne, som ofte er meir sårbare for nettsvindel. Landsdekkjande kampanjar for digital kompetanse kan rullast ut, kanskje med offentleg støtte, men gjennomført av lokalsamfunnsaktørar for å sikre tillit. Målet er å auke “flokk-immuniteten” i samfunnet: viss ein kritisk masse av folk kan oppdage ein fake, eller i alle fall vente med å dømme til innhaldet er stadfesta, mister desinformantane mykje av effekten sin. Undersøkingar viser at folk vil ha denne kunnskapen – mange føler seg utrygge på at dei ikkje kan skilje ekte frå falskt brennancenter.org brennancenter.org. Sivilsamfunnet kan fylle dette gapet ved å styrke innbyggjarane med kunnskap og praktiske ferdigheiter.

2. Faktasjekking og avkrefte-initiativ: Uavhengige faktasjekkarar og sivilsamfunnsovervakarar vil framleis vere avgjerande. Dei bør ruste seg spesifikt for valperiodar med til dømes eigne deepfake-faktasjekksenter. Til dømes kan koalisjonar av faktasjekkorganisasjonar halde ein offentleg oppdatert oversikt i valperioden over rykte og nye deepfake-påstandar, og tilby raske avkreftingar. News Literacy Project gjorde noko liknande i det amerikanske valet 2024, ved å loggføre tilfelle av desinformasjon og notere kor få som faktisk involverte AI knightcolumbia.org knightcolumbia.org. Slik open rapportering gir både publikum og journalistar oversikt og sørger for at trugselen ikkje blir overdrive, samtidig som ein tek dei reelle sakene på alvor. Sivilsamfunnsgrupper kan òg spreie korrigerande informasjon i sosiale medium – til dømes svare på virale postar med riktige fakta, kanskje med hjelp av “community notes” eller liknande funksjonar. Vi bør òg fremje “prebunking”: å advare publikum på førehand om at det kan dukke opp ein fake. Om ein har etterretning eller tidlegare erfaringar som tilseier at ein kandidat kan bli utsett for ein falsk skandale, kan samfunnsaktørar (saman med valmyndigheiter) varsle veljarar: “Viss du plutseleg ser ein sjokkerande video av X, bør du vere skeptisk, det kan vere ein deepfake.” Forskning syner at prebunking kan redusere både godtruande haldningar og spreiing av falske påstandar cetas.turing.ac.uk cetas.turing.ac.uk. Difor kan ein proaktiv strategi der sivilsamfunnet førebur seg og ligg i forkant av deepfake-kampanjar, verkeleg løne seg.

3. Demokrati-teknologi og folkebasert avsløring: Det teknologikyndige borgarfellesskapet kan mobiliserast for å kjempe mot deepfakes. Det finst alt “deepfake-jegerar” som på dugnad analyserer mistenkeleg innhald på nettet. Sivilsamfunnet kan organisere slike innsatsar via eigne plattformar – kanskje ein dedikert portal eller app der folk kan sende inn tvilsame videoar eller lydopptak for analyse, og der eit nettverk av ekspertar eller AI-verktøy gjev ein autentisitetsrapport. Slik folkebasert etterretning kan vere eit supplement til dei offisielle tiltaka. I tillegg kan demokrati-teknologigrupper utvikle nettlesarutvidingar eller mobilappar som hjelper brukarane å identifisere syntetisk materiale. For eksempel kan ein app la brukaren velje ein video på skjermen og få ein direkte analyse frå fleire deteksjonsalgoritmar (litt som antivirus, men mot deepfakes). Sjølv om det ikkje er idiotsikkert, kan det gje åtvaringar. Open-source-arbeid for å utvikle slike verktøy burde få stønad gjennom tilskot. Ein annan idé er tips-telefonar for innbyggjarane – slik som valhotline for stemmegivingsproblem, kunne det finnast ein kanal der folk kan melde inn mistenkt desinformasjon eller deepfakes dei støter på, noko som kan gå vidare til valmyndigheiter eller faktasjekkarar som kan reagere. Ved å engasjere folk som aktive deltakarar i oppdaging og varsling av tvilsamt innhald, aukar ein overvakinga dramatisk. Denne desentraliserte metoden tek høgde for at i eit samfunn med millionar av nettbrukarar, vil nokon ofte oppdage noko tidleg – poenget er å få desse observasjonane raskt til dei som kan kontrollere og spreia sanninga.

4. Påverknadsarbeid for plattformansvar: Sivilsamfunnet bør halde fram med å presse teknologiplattformar og AI-selskap til å oppføre seg ansvarleg. Interessegrupper og tankesmier har vore avgjerande for å peike på farane med deepfakes og for å krevje endringar (til dømes har Access Now, EFF og andre komme med tilrådingar). Dette påverknadsarbeidet må halde fram – med krav til plattformane om å gjennomføre endringane som alt er nemnd (betre merking, fjerning av innhald osv.), og med press på AI-utviklarar for å innføre etikk i utforminga. Public Citizen sin kampanje for å spore delstatslover om deepfakes og for å be FEC gripe inn, er eitt døme citizen.org citizen.org. På same vis kan koalisjonar krevje openheit frå plattformane: dei bør publisere tal på kor mykje AI-generert innhald dei har, eller kor godt deteksjonane fungerar. Sivilsamfunnsstemmer kan også sikre at nye lover og reguleringar verkeleg vernar om sivile rettar (til dømes hindre frykt for at vide rammer skal kvele ytringsfridommen i kampen mot deepfakes). Å finne denne balansen krev folkleg medverknad, og interesse- og rettigheitsgrupper fungerer då som representant for folket i slike diskusjonar. Dei komande åra kan me få nye reguleringsrammer for AI og nettinnhald – og det er avgjerande at demokratiske verdiar og menneskerettslege prinsipp vert teken vare på, noko sivilsamfunnet må vere vaktbikkje for.

5. Støtte til offer og mål: Dersom ein kandidat eller privatperson blir svertet av ein deepfake, kan sivilsamfunnet stille opp med støtte. Ikkje-kommersielle organisasjonar kan tilby juridisk bistand eller råd om korleis ein kan få fjerna ærekrenkande deepfakes og halde gjerningspersonane ansvarlege. Det kan finnast hjelpelinjer for offer for deepfake-porno eller karaktermord, som koplar dei til politi og psykisk helsehjelp. Når kandidatar blir råka av ein svertekampanje, kan borgarorganisasjonar (som kvinneforeiningar eller valintegritetsgrupper) bidra til å forsterka både deira avvising og avsløring for å minimere skade. Å raskt samla seg til forsvar for nokon som feilaktig er utsett – og sørgje for at sanninga får større gjennomslag enn løgna – er noko samfunns- og interessegrupper kan koordinere, slik dei ofte gjer når det gjeld ærekrenking eller hatprat. På eit overordna nivå kan sivilsamfunnet leggje til rette for tverrpolitisk forplikting om at alle djupfakes skal fordømmast av alle partar viss dei dukkar opp. Sjå for deg eit løfte underskrive av alle store parti i eit land om å ikkje bruke deepfakes og straks ta avstand frå ondsinna forfalskingar. Slike normer, fremja av grupper som tverrpolitiske valkomitear eller etiske organisasjonar, vil redusere sjansen for ein “kappløp mot botnen” der parti føler seg nøydde til å svare med same mynt. Det skapar ein samla front om at angrep på sanning skal ikkje tolererast, uavhengig av kven som blir råka.

Oppsummert krev det å møte deepfake-utfordringa at vi nyttar alle samfunnets forsvarsverk – teknologiske, juridiske, institusjonelle og menneskelege. Ved å gjennomføre tiltaka ovanfor, kan styresmaktene styrkje valssystemet mot AI-falske nyheiter, teknologiselskapa kan avgrense spreiing av falskt innhald, media kan syte for at sanninga vinn fram i dekninga, og innbyggjarar kan bli erfarne forsvararar av røynda. Vi har ikkje tid å miste: i takt med stadig betre generativ AI, vil valåret 2025 setje demokratiets motstandskraft mot syntetiske løgner på prøve. Den oppmuntrande bodskapen er at vi ikkje står forsvarslause. Med førebuing, openheit og samarbeid kan vi overlista og overorganisera deepfake-kampanjar, og verne integriteten til vala. Som det står i ein CETaS-forskarapport om AI og val, “likesæle må ikkje få innpass i avgjerdsprosessen” – tvert om må vi gripe augeblikket og byggje motstandskraft cetas.turing.ac.uk cetas.turing.ac.uk. Såleis held vi fast på prinsippet om at teknologien utviklar seg, men våre demokratiske verdiar om sanning og tillit skal bestå.

Kjelder

  1. Stockwell, Sam et al. “AI-Enabled Influence Operations: Safeguarding Future Elections.” CETaS (Alan Turing Institute) Research Report, 13. nov. 2024. cetas.turing.ac.uk cetas.turing.ac.uk
  2. Stockwell, Sam et al. Ibid. (CETaS-rapport, 2024), Seksjon 2.1 om deepfakes i USA-valet. cetas.turing.ac.uk cetas.turing.ac.uk
  3. Beaumont, Hilary. “‘A lack of trust’: How deepfakes and AI could rattle the US elections.” Al Jazeera, 19. jun. 2024. aljazeera.com aljazeera.com
  4. Sze-Fung Lee. “Canada needs deepfake legislation yesterday.” Policy Options, 18. mar. 2024. policyoptions.irpp.org policyoptions.irpp.org
  5. Goldstein, Josh A. & Andrew Lohn. “Deepfakes, Elections, and Shrinking the Liar’s Dividend.” Brennan Center for Justice, 23. jan. 2024. brennancenter.org
  6. “Synthetic media.” Wikipedia (henta 2025). en.wikipedia.org en.wikipedia.org
  7. “Deepfake.” Kaspersky IT Encyclopedia (2023). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
  8. Hamiel, Nathan. “Deepfakes proved a different threat than expected. Here’s how to defend against them.” World Economic Forum, 10. jan. 2025. weforum.org weforum.org
  9. “Regulating AI Deepfakes and Synthetic Media in the Political Arena.” Brennan Center for Justice, 4. okt. 2023. brennancenter.org brennancenter.org
  10. Colman, Ben. “The EU AI Act and the Rising Urgency of Deepfake Detection.” Reality Defender Blog, 11. feb. 2025. realitydefender.com realitydefender.com
  11. “Tracker: State Legislation on Deepfakes in Elections.” Public Citizen, 2025. citizen.org citizen.org
  12. Partnership on AI. “Synthetic Media and Deepfakes – Case Study: Slovakia 2023.” (Referert i analysen til Knight Columbia). brennancenter.org brennancenter.org
  13. Kapoor, Sayash & Arvind Narayanan. “We Looked at 78 Election Deepfakes. Political Misinformation Is Not an AI Problem.” Knight First Amendment Institute, 13. des. 2024. knightcolumbia.org knightcolumbia.org
  14. CETaS-rapport (2024), Politiske anbefalingar (Storbritannia). cetas.turing.ac.uk cetas.turing.ac.uk
  15. CETaS-rapport (2024), Anbefalingar om deteksjon og opphavsmerking. cetas.turing.ac.uk cetas.turing.ac.uk
  16. Public Safety Canada. “Protecting Against AI-Enabled Disinformation” (2023-notat). policyoptions.irpp.org policyoptions.irpp.org
  17. InnovationAus. “Govt’s election deepfake ban to ‘languish’ until 2026.” (Australia) 2023. innovationaus.com
  18. Ytterlegare kjelder: Artiklar frå Reuters, Wired, og CNN som er siterte innanfor kjeldene ovanfor for spesifikke hendingar (t.d. Zelensky-deepfake, Hong Kong $25 million svindel via Zoom-deepfake weforum.org), samt FTC-forbrukarvarsel om stemmekloningssvindel weforum.org. Desse er integrert i analysen og tilgjengelege gjennom kjeldelenkene over.

Legg att eit svar

Your email address will not be published.

Don't Miss

AI-Powered Cybersecurity: Risks and Solutions

KI-dreven cybersikkerheit: Risikoar og løysingar

KI-dreven cybersikkerheit Oversyn: KI (særleg maskinlæring) held på å endre cybersikkerheitsfeltet
Dubai Real Estate Market 2025: Trends, Analysis & Forecast to 2030

Dubai eigedomsmarknad 2025: Trendar, analyse og prognose fram til 2030

Oversikt (2025): Dubais eigedomssektor gjekk inn i 2025 med sterke tal.