Vooruitgang op het gebied van kunstmatige intelligentie heeft de creatie van synthetische media – door AI gegenereerde of gemanipuleerde inhoud – op een ongekende schaal mogelijk gemaakt. Nu democratische landen richting de verkiezingen van 2025 gaan, slaan ambtenaren en experts alarm over door AI aangestuurde desinformatie. In een recent onderzoek sprak 85% van de Amerikanen hun zorg uit over “misleidende video- en audiodeepfakes” die verkiezingen kunnen beïnvloeden brennancenter.org. Nieuwsberichten waarschuwen dat door AI gegeneerde “deepfakes” campagnes en het vertrouwen van kiezers kunnen ondermijnen brennancenter.org, wat de urgentie benadrukt om de integriteit van verkiezingen te beschermen. Dit rapport onderzoekt wat synthetische media en deepfakes zijn, hoe ze een bedreiging vormen voor de democratie en wat er kan worden gedaan – van technologische oplossingen tot beleidsmaatregelen – om verkiezingen in 2025 en daarna te beschermen.
Wat zijn synthetische media en deepfakes?
Synthetische media is een overkoepelende term voor digitale inhoud (beelden, video, audio, tekst) die kunstmatig is geproduceerd of aangepast met geautomatiseerde middelen, met name AI-algoritmes en.wikipedia.org. De huidige generatieve AI-systemen kunnen realistische, mensachtige output creëren in elk medium – van levensechte foto’s van mensen die nooit hebben bestaan tot gekloonde stemmen en door AI geschreven artikelen. Deepfakes zijn een specifieke subset van synthetische media: zeer realistische nepbeelden, video’s of audiofragmenten die met AI (vandaar “deep” learning + “fake”) zijn gemaakt om echte mensen te imiteren encyclopedia.kaspersky.com. In de praktijk kan een deepfake een video zijn waarin het gezicht van een politicus overtuigend op het lichaam van iemand anders staat, of een audioclip waarin een kandidaat zogenaamd iets zegt wat hij of zij nooit echt gezegd heeft.
Hoe worden deepfakes gemaakt? De meeste worden gegenereerd met behulp van geavanceerde deep learning-technieken. Een veelgebruikte methode maakt gebruik van generative adversarial networks (GANs) – twee neurale netwerken die tegen elkaar trainen icct.nl. Het ene netwerk (de generator) fabriceert nepmedia (bijv. een beeld van iemands gezicht), en het andere (de discriminator) probeert te detecteren of het nep is. Door duizenden iteraties leert de generator steeds realistischere output te produceren totdat de discriminator het verschil niet meer kan zien icct.nl. Oorspronkelijk was er voor het maken van een naadloze deepfake veel trainingsdata en krachtige hardware nodig – bijvoorbeeld, een experiment om acteur Tom Cruise te deepfaken vergde twee maanden training op high-end GPU’s icct.nl. Echter, de tools zijn razendsnel geëvolueerd. Geavanceerde deepfake-software is nu wijd beschikbaar en sneller, en werkt soms zelfs in realtime (bijvoorbeeld een live videobeeld of telefoongesprek tijdens de uitzending aanpassen) encyclopedia.kaspersky.com. Naast GANs spelen ook andere AI-architecturen een rol: transformer-modellen kunnen deepfake-tekst genereren of ondersteunen bij het klonen van stemmen encyclopedia.kaspersky.com. Samengevat hebben recente AI-doorbraken het voor vrijwel iedereen gemakkelijk en goedkoop gemaakt om misleidende audiovisuele inhoud te produceren – de drempel voor grootschalige misinformatie is fors omlaag gegaan.
Het is belangrijk om te benadrukken dat niet alle synthetische media kwaadaardig zijn. AI-gegenereerde content kan voor onschuldige en creatieve doeleinden gebruikt worden – gepersonaliseerde avatars, het nasynchroniseren van stemmen in andere talen, satire en entertainment, enz. Sterker nog, in wereldwijde verkiezingen in 2024 was ongeveer de helft van de vastgestelde AI-gebruiken in politieke content niet misleidend (bijv. een kandidaat die openlijk een AI-stem gebruikt vanwege stemverlies, of journalisten die een AI-avatar inzetten om hun identiteit te beschermen) knightcolumbia.org knightcolumbia.org. Maar dit rapport focust op de kwaadaardige kant van synthetische media – deepfakes die bedoeld zijn om kiezers en de publieke opinie te misleiden, te bedriegen of te manipuleren.
Risico’s voor democratische processen
Synthetische media en deepfakes vormen significante risico’s voor de democratie, zeker tijdens verkiezingen wanneer een goed geïnformeerd electoraat en vertrouwen in informatie cruciaal zijn. De belangrijkste dreigingen zijn onder andere:
- Desinformatie en kiezersmanipulatie: Door AI gegenereerde nepvideo’s, -beelden of -audio kunnen worden ingezet om valse informatie te verspreiden over kandidaten of onderwerpen, wat kiezers misleidt. Zo kan een deepfake een kandidaat laten zien die opruiende uitspraken doet die hij of zij nooit echt heeft gedaan. Dergelijke gefabriceerde inhoud kan giftige leugens in het publieke debat brengen. Experts waarschuwen dat deepfakes “een groot risico vormen” voor kiezers door valse inhoud toe te voegen aan campagnes en het publieke vertrouwen te ondermijnen aljazeera.com. Een overtuigend gemanipuleerde video die kort voor de verkiezingsdag wordt uitgebracht – zonder tijd voor factcheckers om deze te ontkrachten – kan zelfs zwevende kiezers beïnvloeden of de opkomst drukken, en zo mogelijk de uitslag veranderen citizen.org. Deze dreiging is niet alleen theoretisch: zoals later uitgelegd, imiteerde in 2024 een deepfake-audio de Amerikaanse president die zijn aanhangers opriep niet te stemmen, kennelijk bedoeld om de opkomst te ontmoedigen aljazeera.com aljazeera.com.
- Erosie van vertrouwen (“Liar’s Dividend”): Afgezien van een specifieke nepinformatie kan het bestaan van deepfakes op zich al het publieke vertrouwen in echte informatie ondermijnen. Kiezers kunnen authentiek bewijsmateriaal gaan betwijfelen, onzeker of een virale video echt is of een AI-vervalsing. Nog erger, corrupte actoren kunnen hier misbruik van maken: echte schandalen of waarheidsgetrouwe opnames kunnen als “slechts een deepfake” worden afgedaan, waardoor daders aan verantwoordelijkheid ontsnappen. Wetenschappers noemen dit de “liar’s dividend”, waarbij het toenemende bewustzijn van deepfakes het makkelijker maakt voor leugenaars om authentiek beeldmateriaal als nep te bestempelen brennancenter.org. Door het toegenomen publieke bewustzijn van AI kan een politicus die daadwerkelijk betrapt wordt op wangedrag gemakkelijker het publiek misleiden door belastende audio of video als een AI-hoax te bestempelen brennancenter.org. Deze dynamiek bedreigt het fundamentele vertrouwen waarop democratische discussie stoelt. Verkiezingswaarnemers merkten op dat in 2024 sommige kandidaten en hun aanhangers bij voorbaat “AI-nepnieuws” riepen om ongemakkelijke verhalen af te doen brennancenter.org brennancenter.org. Op de lange termijn, als burgers het gevoel ontwikkelen dat “je niets meer kunt vertrouwen wat je ziet of hoort”, wordt de gedeelde werkelijkheid uitgehold die nodig is voor vrije en eerlijke verkiezingen cetas.turing.ac.uk cetas.turing.ac.uk.
- Versterking van polarisatie en conflict: Tot nu toe wijst bewijs erop dat deepfake-propaganda vooral bestaande vooroordelen bij mensen versterkt in plaats van nieuwe groepen te overtuigen cetas.turing.ac.uk. Kwaadaardige AI-inhoud wordt vaak omarmd en verspreid door mensen die al extreme opvattingen aanhangen, wat echo kamers versterkt. Tijdens de Amerikaanse presidentsrace van 2024 ontdekten onderzoekers dat door AI-gegenereerde leugens vooral dienden om partijdige narratieven te versterken en debatten aan te wakkeren, en minder om nieuwe kiezers te overtuigen cetas.turing.ac.uk. Zo trokken nepvideo’s gericht op president Biden of vice-president Harris miljoenen kijkers online en werden vooral verspreid door reeds vijandig gezinde gebruikers cetas.turing.ac.uk cetas.turing.ac.uk. Door ideologische kampen te versterken met dramatisch nep-“bewijs” van het wangedrag van de andere partij, kunnen deepfakes gemeenschappen verder uit elkaar drijven, wat het verkiezingsklimaat vergiftigt. Bovendien creëren de verwarring en wantrouwen die deepfakes zaaien een vruchtbare bodem voor het ontstaan van complottheorieën cetas.turing.ac.uk, aangezien burgers elk onwelgevallig feit gemakkelijker kunnen afdoen als AI-fictie.
- Ondergraven van verkiezingsadministratie: Het risico beperkt zich niet tot het misleiden van kiezers over kandidaten – deepfakes kunnen ook het verkiezingsproces zelf verstoren. Functionarissen voorzien scenario’s waarin AI-gegenereerde stemmen of nepberichten uit naam van verkiezingsautoriteiten pollmedewerkers opdracht geven om stembureaus voortijdig te sluiten of kiezers valse instructies geven (bijv. “de verkiezingen zijn uitgesteld”) aljazeera.com. Een geavanceerde tegenstander kan een boodschap van een verkiezingscommissie of de stem van een vertrouwde lokale ambtenaar simuleren om het stemproces te saboteren. Dergelijke tactieken kunnen stemmen onderdrukken of chaos veroorzaken op de verkiezingsdag. Het Amerikaanse Brennan Center merkt op dat gemanipuleerde media kunnen worden gebruikt om niet alleen het publiek maar ook pollmedewerkers en functionarissen te misleiden, waardoor nieuwe trainings- en protocolmaatregelen nodig zijn aljazeera.com.
- Intimidatie en karaktermoord: Deepfakes geven ook krachtige wapens in handen voor persoonlijke aanvallen op kandidaten, activisten of journalisten. Een bijzonder schadelijke categorie is niet-consensuele synthetische pornografie – het hoofd van iemand plakken in expliciet seksueel materiaal. Deze tactiek is al gebruikt om vrouwelijke journalisten en politici wereldwijd te intimideren. De extreemste vorm van deepfake-intimidatie is valse intieme beelden gebruiken om individuen te vernederen of te chanteren weforum.org. In een verkiezingscontext kunnen tegenstanders kort voor de stemming een nepcompromitterende video van een kandidaat uitbrengen (bijvoorbeeld een deepfake- sekstape of een valse opname waarin zij illegale activiteiten uitvoeren). Zelfs als dit snel weerlegd wordt, is reputatieschade dan vaak al aangericht. Vrouwen en minderheden zijn onevenredig vaak doelwit van dergelijke “synthetische lastercampagnes”, wat diverse kandidaten kan ontmoedigen om zich verkiesbaar te stellen policyoptions.irpp.org policyoptions.irpp.org. Samengevat geven deepfakes oud vuil een nieuw, gevaarlijk wapen – van nepschandalen tot verzonnen citaten – en versterken ze pogingen tot karaktermoord in verkiezingen.
Tot slot moet worden opgemerkt dat er tot nu toe geen electoraal rampzalige deepfake-crisis is geweest. Empirische analyses van verkiezingen wereldwijd in 2024 tonen nauwelijks bewijs dat door AI gemanipuleerde desinformatie de uitkomst van een verkiezing bepaalde cetas.turing.ac.uk weforum.org. Traditionele misinformatie (goedkoop bewerkte “cheapfakes”, geruchten, partijdige verdraaiingen) bleef een veel grotere factor bij het verspreiden van onjuistheden dan hightech deepfakes knightcolumbia.org knightcolumbia.org. Toch waarschuwen experts dat het ontbreken van een ramp tot nu toe geen reden tot gerustheid mag zijn cetas.turing.ac.uk weforum.org. De technologie ontwikkelt zich in hoog tempo en kwaadaardige actoren leren bij. Zelfs als deepfakes geen doorslag gaven in een belangrijke verkiezing in 2024, hebben ze wél het publieke debat beïnvloed – bijvoorbeeld, virale AI-gegenereerde leugens over kandidaten werden mainstream gespreksonderwerpen cetas.turing.ac.uk. Bovendien heeft de perceptie van deepfake-bedreiging op zichzelf al bijgedragen aan publieke angst en wantrouwen rond verkiezingen cetas.turing.ac.uk cetas.turing.ac.uk. Het potentieel voor een schadelijker incident blijft bestaan, zeker nu we afstevenen op de cruciale verkiezingen van 2025. Democratische samenlevingen moeten deepfakes daarom als een serieus veiligheids- en integriteitsprobleem behandelen, door zowel het directe risico van valse media als de bredere uitholling van waarheid in de verkiezingssfeer aan te pakken.
Recente incidenten: deepfakes verstoren de politiek
Praktijkvoorbeelden uit de afgelopen jaren laten zien hoe synthetische media al zijn ingezet als wapen in politieke contexten. Hier bespreken we enkele opvallende incidenten en casestudy’s van deepfakes en AI-gegenereerde desinformatie die verkiezingen of het publieke debat beïnvloedden:
- Oekraïne (maart 2022) – “Overgave”-video: In de vroege dagen van de oorlog van Rusland tegen Oekraïne verscheen er een video die leek te laten zien dat de Oekraïense president Volodymyr Zelensky zijn troepen opriep de wapens neer te leggen en zich over te geven. De video was een deepfake, waarbij Zelensky’s beeld en stem synthetisch waren gemanipuleerd icct.nl. Kenmerkende fouten (wazige randen, een niet-overeenkomende nekkleur) verraadden de vervalsing, en de Oekraïense media ontmaskerden de hoax snel. Dit incident – het eerste bekende gebruik van een deepfake in een gewapend conflict – voorspelde hoe AI-propaganda gebruikt kan worden om leiders te ondermijnen tijdens crises icct.nl. Hoewel de nep-Zelensky-video er niet in slaagde de Oekraïense weerstand te demoraliseren, toonde het wel de intentie en het vermogen van kwaadwillende actoren (in dit geval vermoedelijk Russische operatives) om deepfakes te gebruiken voor informatieoorlogsvoering.
- Slowakije (september 2023) – Verkiezingsdesinformatie: Slechts enkele dagen voor de parlementsverkiezingen in Slowakije gingen deepfake-audio-opnames viraal waarin partijleider Michal Šimečka van Progressive Slovakia zogenaamd verkiezingsfraude opbiechtte en zelfs zou voorstellen de bierprijs te verdubbelen brennancenter.org. In sommige versies stond er vaag een disclaimer dat het om AI-gegenereerd materiaal ging, maar die verscheen pas helemaal aan het eind van het fragment – waarschijnlijk bedoeld om luisteraars te misleiden brennancenter.org. De timing was duidelijk strategisch, pal voor de stemming. Šimečka’s pro-westerse partij verloor nipt van een pro-Kremlin rivaal en sommige commentatoren speculeerden dat de lastminute deepfake-campagne de uitslag mogelijk beïnvloed heeft brennancenter.org. Deze casus benadrukt hoe buitenlandse of binnenlandse actoren deepfakes kunnen inzetten om een spannende race te beïnvloeden, en hoe moeilijk het is om valse verhalen in de laatste fase van een campagne te weerleggen.
- Taiwan (januari 2024) – Buitenlandse beïnvloedingscampagnes: In aanloop naar de Taiwanese presidentsverkiezingen van 2024 documenteerden waarnemers een Chinese desinformatiecampagne met deepfakes, gericht tegen kandidaat Lai Ching-te. Online circuleerden nepvideos waarin Lai (van de regerende pro-onafhankelijkheidspartij) uitspraken deed die hij nooit had gedaan – bijvoorbeeld dat hij het programma van zijn tegenstanders zou steunen policyoptions.irpp.org. In één geval werd er AI-gegenereerde audio van Lai verspreid waarin het leek alsof hij kritiek had op zijn eigen partij policyoptions.irpp.org, een poging om zijn achterban te verdelen. Deze synthetische media-aanvallen, herleid tot China, waren bedoeld om de publieke opinie te beïnvloeden en verwarring te zaaien binnen de Taiwanese democratie policyoptions.irpp.org. Uiteindelijk won Lai de verkiezingen en oordeelden analisten dat de Chinese deepfake-campagne geen wezenlijke invloed op de uitslag had gehad policyoptions.irpp.org. Toch was het een schoolvoorbeeld van hoe een vijandige buitenlandse mogendheid AI-propaganda inzet tegen een democratische verkiezing policyoptions.irpp.org policyoptions.irpp.org. De vrees blijft dat zulke tactieken bij een spannendere verkiezing elders een grotere impact kunnen hebben.
- Verenigde Staten (2024) – Deepfakes in de campagne: De Amerikaanse verkiezingen van 2024 werden gekenmerkt door een toename van AI-gegenereerde politieke inhoud die, hoewel het de verkiezingen niet ontspoorde, wel tot grote zorgen leidde. Begin 2024 ontvingen kiezers in New Hampshire een verwarrende robocall: een stem die sterk leek op die van president Joe Biden, met de boodschap aan de Democraten: “Bespaar je stem, gebruik hem niet bij deze verkiezing.” De stem klonk voor sommigen geloofwaardig, maar de boodschap was overduidelijk verdacht – Biden zou zijn aanhangers immers nooit oproepen niet te stemmen. In werkelijkheid was het een deepfake-stemklonen van Biden, naar duizenden kiezers gestuurd in een kennelijke poging tot kiezersonderdrukking aljazeera.com aljazeera.com. Dit incident bereikte naar schatting vijfduizend telefoonnummers in New Hampshire en liet zien hoe gemakkelijk en goedkoop zulke vuile trucs uit te voeren zijn – de consultant die het Biden-deepfake stemgeluid maakte, zei dat het slechts 20 minuten en ongeveer $1 aan rekenkosten kostte policyoptions.irpp.org policyoptions.irpp.org. Ondertussen verschenen op sociale media AI-gegenereerde afbeeldingen in officiële campagne-uitingen. Zo bracht het team van de gouverneur van Florida, Ron DeSantis, een aanvalsvideo uit met gemanipuleerde beelden van Donald Trump die Dr. Anthony Fauci omhelstte – om te suggereren dat Trump te vriendschappelijk was met de voormalige COVID-adviseur, een impopulaire figuur op rechts. Het bleek dat de beelden van Trump en Fauci AI-gegenereerde fakes waren die door de campagne in de video waren toegevoegd brennancenter.org, wat na ontdekking tot felle publieke kritiek leidde. In een ander geval verspreidde zich online een AI-video van president Biden die de natie zou toespreken met slappe spraak, maar al snel werd ontkracht. Sommige nepvideo’s van Biden en vicepresident Harris werden miljoenen keren bekeken op sociale media cetas.turing.ac.uk, wat illustreert hoe snel zulke inhoud zich verspreidt. Zelfs tech-miljardairs lieten zich niet onbetuigd: Elon Musk deelde berucht een grof bewerkte video van VP Harris (gelabeled als “satire”) waarin zij wartaal uitslaat – waarmee de grens tussen meme-humor en desinformatie verder vervaagde cetas.turing.ac.uk cetas.turing.ac.uk. Hoewel geen van deze deepfakes de verkiezingsuitslag werkelijk heeft veranderd, versterkten ze valse narratieven (bijvoorbeeld over Bidens geestelijke gezondheid of Trumps loyaliteit) en vergiftigden ze het informatielandschap. Amerikaanse autoriteiten maken zich bovendien zorgen over deepfakes gericht op verkiezingsinfrastructuur – bijvoorbeeld nep-audio van verkiezingsleiders die medewerkers instrueren om verkeerde handelingen te plegen aljazeera.com – al is in 2024 geen groot incident van dat type publiekelijk bevestigd.
Deze voorbeelden onderstrepen de wereldwijde reikwijdte van de dreiging. Deepfakes zijn ingezet door statelijke actoren in geopolitieke conflicten, door provocateurs tijdens binnenlandse verkiezingen van Europa tot Azië, en door campagnes en aanhangers in de Verenigde Staten. Ze nemen de vorm aan van nep-toespraken, beelden, telefoontjes en video’s – gericht op zowel kiezers als verkiezingsfunctionarissen. Uit de incidenten tot nu toe zijn ook enkele lessen te trekken: veel deepfakes zijn wel vrij snel opgespoord en ontmaskerd (vaak door alerte journalisten of factcheckers) en in enkele gevallen leverde de negatieve reactie op het gebruik van deepfakes (zoals de DeSantis-advertentie) slecht nieuws op voor de daders. Dit suggereert dat transparantie en waakzaamheid de schade kunnen beperken. Toch is de trend duidelijk – deze synthetische onwaarheden worden steeds frequenter én moeilijker direct van de realiteit te onderscheiden. Elke verkiezing brengt nieuwe primeurs (2024 kende de eerste AI “robocall”-oplichting om stemmen te beïnvloeden, het eerste campagegebruik van deepfake-advertenties, enzovoort), en het risico op een ernstiger deepfake-incident wordt groter naarmate we 2025 naderen.
Deepfakes detecteren en tegengaan: Tools en technologieën
Een cruciaal onderdeel van het beschermen van verkiezingen is het ontwikkelen van betrouwbare detectie- en mitigatietools tegen deepfakes. Onderzoekers, technologiebedrijven en overheden wedijveren om technologieën te creëren die AI-vervalsingen kunnen opsporen en echte inhoud kunnen verifiëren. Hier geven we een overzicht van het huidige landschap van deepfakedetectie en aanverwante tegenmaatregelen:
- Automatische Deepfakedetectoren: Een primaire verdedigingslinie is AI die AI bestrijdt — algoritmen die getraind zijn om media te analyseren en kenmerkende sporen van manipulatie te identificeren. Deze detectiesystemen zoeken naar subtiele artefacten of inconsistenties die achterblijven door generatieve modellen. Vroege deepfakes vertoonden bijvoorbeeld vaak onregelmatig knipperen met de ogen of imperfecte lipsynchronisatie. De huidige detectoren gebruiken diepe neurale netwerken om zaken als lichtval en schaduwen op gezichten, audiofrequentiepatronen of biologische signalen (zoals een hartslag in video) te onderzoeken die AI mogelijk niet goed kan namaken. Techbedrijven hebben interne tools ontwikkeld – zo bracht Microsoft in 2020 een “Video Authenticator” uit die nepvideo’s per frame kon herkennen. Platforms als Facebook en X (Twitter) hebben geïnvesteerd in detectieonderzoek en zetten filters in om bekende nepmaterialen op te sporen. Academische initiatieven en competities (zoals de Facebook Deepfake Detection Challenge en IEEE-conferenties) hebben ontwikkeling gestimuleerd, en startups als Sensity en Reality Defender bieden commerciële detectieservices voor klanten. Toch is dit een echte wapenwedloop: naarmate de detectie verbetert, passen deepfake-makers zich aan om vloeiendere vervalsingen te maken die automatische checks omzeilen. Opvallend is een rapport van Meta uit 2023, waarin staat dat van alle foutieve informatie die werd gemarkeerd tijdens de verkiezingscyclus 2024, “minder dan 1%” werd geïdentificeerd als AI-gegenereerde inhoud weforum.org, wat suggereert dat deepfakes ofwel relatief zeldzaam waren of dat velen ongezien door de detectie zijn geglipt.
- Watermerken en herkomst van inhoud: Een andere strategie is om AI-gegenereerde inhoud bij creatie te labelen, zodat gebruikers direct herkennen dat iets synthetisch is. De EU promoot deze aanpak sterk – de nieuwe EU AI Act verplicht dat elke AI-gegenereerde of AI-bewerkte inhoud duidelijk wordt gelabeld of voorzien is van een watermerk realitydefender.com. Bedrijven moeten een indicator (digitaal watermerk of een metadata-marker) inbouwen wanneer een afbeelding, video of audio door AI is gegenereerd. In theorie zouden browsers of sociale mediaplatforms dergelijke inhoud automatisch kunnen markeren of filteren. Watermerken zijn veelbelovend, vooral om ongewenst misbruik te ontmoedigen. Grote AI-modelleveranciers (zoals OpenAI, Google, en anderen) overwegen vrijwillig watermerken van hun output. Daarnaast werkt een coalitie van mediabedrijven en techorganisaties aan herkomststandaarden (zoals C2PA, Coalition for Content Provenance and Authenticity) om de oorsprong en bewerkingsgeschiedenis van digitale media cryptografisch vast te leggen. Bijvoorbeeld, een nieuwsfoto of campagneadvertentie zou een veilig echtheidscertificaat kunnen dragen waarmee iedereen kan controleren wie het heeft gemaakt en dat het niet is gemanipuleerd cetas.turing.ac.uk. De Amerikaanse regering volgt dit voorbeeld: het Witte Huis heeft federale agentschappen opgedragen om richtlijnen te ontwikkelen voor “authenticiteit by design,” het inbedden van herkomstmetadata in alle digitale inhoud die ze vóór 2025 produceren cetas.turing.ac.uk. Als zulke maatregelen breed ingevoerd worden, zal het veel moeilijker worden voor nepinhoud om zich als echt voor te doen.
- Beperkingen van labels: Hoewel transparantietools cruciaal zijn, zijn ze niet onfeilbaar. Watermerken kunnen door vastberaden tegenstanders worden verwijderd of gewijzigd. Onderzoekers hebben inmiddels methoden aangetoond om AI-watermerken te wissen of te verbergen realitydefender.com, en een kwaadwillende ontwikkelaar kan kiezen deze markers überhaupt niet toe te voegen. Herkomstmetadata helpt bovendien alleen als het breed wordt toegepast en mensen het ook daadwerkelijk controleren. Een deepfake-maker kan ook “provenance piggybacking” toepassen – een echte foto/video gebruiken en daaroverheen valse elementen plaatsen, zodat het eindbestand nog steeds het originele digitale kenmerk draagt. Deze uitdagingen betekenen dat we niet alleen op labels kunnen vertrouwen. Zoals een AI-beveiligingsbedrijf stelde: watermerk- en herkomstoplossingen werken alleen als makers meewerken aan labelling van hun output – wat gemotiveerde kwaadwillenden niet zal tegenhouden realitydefender.com. Daarom blijft inference-based detectie (analyse van de inhoud zelf op AI-manipulatie) essentieel realitydefender.com. De beste verdediging combineert waarschijnlijk beide benaderingen: robuuste automatische detectors die op nepmateriaal screenen en authenticatiesystemen die legitieme media verifiëren.
- Realtime detectie voor video- en audiostreams: Een groeiende behoefte betreft tools die deepfakes in live-situaties kunnen herkennen. Denk aan een hypothetisch scenario van een frauduleuze “live” videogesprek met een kandidaat of ambtenaar – zoals gebeurde in 2023, toen criminelen in Hongkong het uiterlijk van een bedrijfstopman deepfakten op Zoom om een frauduleuze transactie van 25 miljoen dollar te autoriseren weforum.org. In dat geval waren meerdere mensen in de call – inclusief een impostor van de CFO – volledig AI-gegenereerd. Zulke realtime-fraude detecteren is extreem moeilijk. Bedrijven werken aan oplossingen zoals plug-ins voor videobellen die gebruikers waarschuwen als een beeld of stem waarschijnlijk synthetisch is gewijzigd (bijvoorbeeld door audiovertraging of spectrale afwijkingen te analyseren, of te controleren of een gezicht exact overeenkomt met de camerabewegingen van een echt persoon). Sommige startups claimen realtime deepfakedetectie-API’s te bieden die in streamingplatforms kunnen worden geïntegreerd of zelfs sprekers verifiëren bij live-evenementen. Vooralsnog loopt realtime detectie echter achter op aanvallers en ligt de nadruk op preventieve maatregelen (zoals het gebruik van wachtwoorden of afgesproken “codewoorden” bij telefoongesprekken om identiteiten te verifiëren, zoals de politie adviseert weforum.org).
- Menselijke factchecking en meldingen door de gemeenschap: Technologie is geen wonderoplossing. Een waakzame menselijke laag blijft essentieel. Nieuwsorganisaties, factcheckgroepen en platformen hebben speciale teams opgezet om virale deepfakes te monitoren tijdens verkiezingsperioden. Deze teams gebruiken OSINT (open source intelligence) en forensische tools om verdachte media te analyseren — door bijvoorbeeld timestamps te checken, te zoeken naar inconsistenties (zoals afwijkende oorbellen van politici in een video, of gekke mondbewegingen), en snel ontkrachtingen te publiceren. Ook crowdsourcing helpt: op X/Twitter wordt de “Community Notes”-functie gebruikt om berichten met AI-afbeeldingen of video te voorzien van aanvullende context. Tijdens recente verkiezingen ontmaskerden gebruikers vaak al binnen enkele uren deepfakes, door vergelijkingen te posten of op onvolkomenheden te wijzen. Deze vorm van collectieve waakzaamheid, geholpen door digitale geletterdheid, is een krachtig middel. Platforms vertrouwen steeds meer op gebruikers en onafhankelijke factcheckers om verdachte inhoud te identificeren, gezien de schaal van automatische filters. Het nadeel: een deepfake kan voordat het ontkracht is, al viraal gaan. Toch zullen snellere respons en meer bewustwording (waardoor meer mensen zelf een fake kunnen herkennen) de schade beperken.
Samenvattend is deepfakedetectie een actief en zich snel ontwikkelend veld. Er worden stappen gezet – bijvoorbeeld, huidige detectors zijn veel effectiever dan in 2018, en initiatieven als de Content Authenticity Initiative streven naar verificatie als standaard. Maar uitdagingen blijven, door het kat-en-muisspel met aanvallers en de noodzaak van brede acceptatie van tools. De komende jaren zal detectietechnologie waarschijnlijk steeds meer geïntegreerd worden in sociale media, nieuwsredacties en zelfs apparaten (denk aan je smartphone die waarschuwt dat inkomende video mogelijk door AI is gegenereerd). Cruciaal is dat detectie- en herkomsttools gepaard moeten gaan met publieksvoorlichting, zodat zodra een waarschuwing of label verschijnt, gebruikers dit begrijpen en gepast handelen. Deze technologische maatregelen zijn slechts één pijler van de bredere strategie die nodig is om synthetische-mediabedreigingen aan te pakken.
Beleidsreacties en regelgevingskaders
Beleidsmakers wereldwijd zijn wakker geschud door de deepfake-dreiging en zijn begonnen met het opstellen van wetten en regels om deze aan te pakken. Hoewel het een nieuw fenomeen is, ontstaat er een lappendeken van maatregelen in grote democratieën. Hieronder een overzicht van wettelijke en regulatoire inspanningen die momenteel gaande zijn:
- Verenigde Staten: In de VS is er momenteel geen landelijke federale wet die politieke deepfakes verbiedt, maar er komt steeds meer beweging om dat gat te vullen. Er zijn meerdere wetsvoorstellen in het Congres ingediend gericht op het bestrijden van kwaadaardige deepfakes. In begin 2024 stelden wetgevers bijvoorbeeld de No AI FRAUD Act voor als reactie op spraakmakende incidenten (zoals AI-gegenereerde expliciete beelden van beroemdheden) policyoptions.irpp.org. Dit wetsvoorstel wil een federale basis creëren voor het strafbaar stellen van bepaalde schadelijke vormen van AI, zoals frauduleuze politieke deepfakes en misleidende synthetische porno policyoptions.irpp.org. Een ander wetgevingsidee is het verplicht vermelden van AI-inhoud in verkiezingsadvertenties (zodat campagnes duidelijke labels moeten opnemen als een advertentie synthetische media bevat). Ondertussen zette de Federal Communications Commission (FCC) een gerichte stap door het gebruik van AI-stemklonen bij robocalls te verbieden als die bedoeld zijn voor fraude of schade policyoptions.irpp.org. Dit volgde op oplichterij waarbij stemmen van echte mensen werden nagebootst. De maatregel maakt het illegaal voor telemarketeers of politieke acteurs om misleidende synthetische spraakberichten te gebruiken. Veel deepfake-regelgeving in de VS vindt plaats op deelstaatniveau. Sinds 2019 hebben staten als Californië, Texas en andere wetten aangenomen tegen deepfakes in verkiezingscontext. Californië verbiedt het verspreiden van materieel misleidende deepfake-video’s van kandidaten binnen 60 dagen voor een verkiezing (met uitzondering van satire/parodie) brennancenter.org. Texas maakte het een misdrijf om deepfakevideo’s te maken of te verspreiden met het doel een kandidaat schade te berokkenen of kiezers te beïnvloeden brennancenter.org. Medio 2025 hebben minstens veertien Amerikaanse staten wetgeving aangenomen of in behandeling om deepfakes in verkiezingssituaties te reguleren citizen.org. Opvallend is dat deze maatregelen tweepartijensteun krijgen – politici van beide partijen zijn het eens dat AI-gemanipuleerde verkiezingsdesinformatie een bedreiging vormt voor de democratie citizen.org citizen.org. Staatswetten verschillen: sommige stellen straffen op het verspreiden van schadelijke deepfakes over kandidaten, andere richten zich op verplichte waarschuwingslabels op synthetische campagnemedia. Daarnaast heeft de belangenorganisatie Public Citizen de Federal Election Commission verzocht haar regels te updaten en de FEC aangespoord om het verspreiden van misleidende deepfakes door federale kandidaten te verbieden brennancenter.org. Hoewel de FEC nog geen nieuwe regels heeft uitgevaardigd, staat het op de agenda. Beleidsmakers in de VS moeten ook het evenwicht bewaren met de vrijheid van meningsuiting: te brede verboden op gemanipuleerde media botsen met het eerste amendement. Satire en parodie (beschermde politieke uitingen) bevatten immers vaak bewerkte beelden; wetten moeten daarom gericht zijn op kwaadwillige misleiding. Veel staatswetten maken dan ook expliciet uitzonderingen voor satire, parodie of journalistiek gebruik brennancenter.org brennancenter.org. De algemene consensus is echter dat valse AI-content die bewust kiezers misleidt of ontwrichting teweegbrengt geen legitieme waarde heeft binnen een democratie en beperkt mag worden zonder de vrijheid van meningsuiting te schaden brennancenter.org brennancenter.org.
- Europese Unie: De EU ontwikkelt brede AI-regelgeving en pakt daarin deepfakes direct aan. De baanbrekende EU AI Act, overeengekomen in 2024 (volledig van kracht in 2026, sommige onderdelen eerder), bevat een transparantieplicht voor synthetische media. Volgens deze wet moet elk AI-systeem dat “deepfake”-inhoud kan produceren ervoor zorgen dat de inhoud gelabeld wordt als AI-gegenereerd (behalve in bepaalde uitzonderingsgevallen zoals kunst of veiligheidsresearch) realitydefender.com. In de praktijk betekent dit dat ontwikkelaars van AI-modellen in de EU watermarking of metadata moeten toevoegen aan hun output. Niet naleven kan hoge boetes opleveren. Ook de geüpdatete Code of Practice on Disinformation (een vrijwillige code die grote platforms tekenden) benoemt deepfakes als gevaar en verplicht platforms tot het ontwikkelen van “beleid, maatregelen en tools tegen gemanipuleerde inhoud” brennancenter.org brennancenter.org. Platforms hebben zich bijvoorbeeld verplicht om systemen te implementeren die deepfakevideo’s detecteren en labelen of verwijderen die publieke schade kunnen aanrichten, en samen te werken met factcheckers om AI-fakenieuws snel te ontkrachten. In het kader van de Digital Services Act (DSA) – sinds 2023 van kracht – moeten grote platforms in de EU “systemische risico’s” mitigeren, waaronder de verspreiding van AI-desinformatie. Deze druk heeft geleid tot aankondigingen van bedrijven als Meta, Google en TikTok van nieuwe veiligheidsmaatregelen rond de Europese verkiezingen van 2024–2025: betere deepfakedetectie en explicietere labels. Europa kiest duidelijk voor transparantie als kern van regulering: verplichte labels en platforms verantwoordelijk stellen voor deepfake-desinformatie. Critici wijzen op handhavingsproblemen (hoe vind je alle ongemarkeerde deepfakes in de online stortvloed?), maar de EU laat zien dat ongecontroleerde deepfakes onacceptabel zijn en niet bij haar digitale bestuurnormen passen realitydefender.com realitydefender.com.
- Verenigd Koninkrijk: Het VK heeft nog geen deepfake wetgeving specifiek voor verkiezingen, maar pakt het onderwerp aan via bredere online veiligheids- en AI-trajecten. In 2023 werd de Online Safety Act aangenomen, een brede wet tegen schadelijke online inhoud. Die wet heeft vooral het delen van niet-consensuele deepfakeporno strafbaar gesteld – het is illegaal om expliciete synthetische beelden van iemand te maken of verspreiden zonder diens toestemming policyoptions.irpp.org. Dat pakt de kant van intimidatie aan. Voor verkiezingsdesinformatie geeft de Online Safety Act toezichthouder Ofcom de bevoegdheid om gedragscodes in te stellen rond desinformatie. Experts dringen erop aan dat Ofcom een Code of Conduct on Disinformation uitwerkt met standaarden voor AI-manipulatie cetas.turing.ac.uk. Zo’n code – mogelijk geïnspireerd door het EU-model – kan platforms en politieke partijen ertoe bewegen geen deepfakes te verspreiden en duidelijke labels mee te geven. Ook wordt gepleit dat de UK Electoral Commission richtlijnen voor politieke partijen uitwerkt rond verantwoord AI-gebruik, met rode lijnen tegen misleidende deepfakes in campagnes cetas.turing.ac.uk. Eind 2024 adviseerde een cross-partijcommissie van Lagerhuisleden de verkiezingswetten aan te scherpen om deepfake-desinformatie te beboeten, maar formele wetgeving is er nog niet. De overheid onderzoekt of bestaande wetten (bijvoorbeeld rond laster, fraude of verkiezingsdelicten) genoeg houvast bieden om deepfake-misbruik te vervolgen of dat nieuwe wetgeving nodig is cetas.turing.ac.uk. Verder richt het VK een AI Safety Institute op en organiseerde in 2023 een wereldwijde AI Safety Summit, waar informatie-manipulatie op de agenda stond. Britse beleidsmakers richten zich voorlopig op technische verdediging en mediageletterdheid (zie aanbevelingen hieronder) naast juridische stappen. Toch laat het VK door het strafbaar stellen van deepfake-porno en het krachtiger maken van toezichthouders zien dat AI-gestuurde desinformatie een beleidsreactie vereist.
- Canada: Canada had in 2024 geen specifieke wet tegen deepfakes in verkiezingen. De Canada Elections Act verbiedt AI-desinformatie of deepfakes niet expliciet, waardoor vervolging alleen mogelijk is onder algemene bepalingen (zoals wetgeving tegen fraude of impersonatie) die mogelijk niet volstaan cef-cce.ca. Dit wordt door experts als een tekortkoming gezien: Canada loopt “een stap of twee achter” op andere democratieën policyoptions.irpp.org. In de herfst van 2023 kende Canada een klein deepfake-incident met een frauduleuze audioclip die klonk als een politicus. Het veroorzaakte weinig schade, maar vergrootte het bewustzijn. Verkiezingsautoriteit Elections Canada ziet AI-misinformatie nu als opkomende dreiging en onderzoekt mogelijke antwoorden cef-cce.ca. Beleidsanalisten pleiten voor nieuwe wetgeving “gisteren” – bijvoorbeeld door de Commissioner of Canada Elections de bevoegdheid te geven om in te grijpen bij misleidende synthetische media in campagnes policyoptions.irpp.org. Canada kan inspiratie halen uit bondgenoten, bijvoorbeeld via disclosure-regels voor AI-verkiezingsadvertenties, of het strafbaar maken van materiaal waarvan bekend is dat het een misleidende deepfake betreft. Medio 2025 is er nog geen wetsvoorstel, maar de druk op Canada neemt toe om zich in dit rijtje te voegen policyoptions.irpp.org.
- Andere democratieën: Wereldwijd nemen meerdere democratieën maatregelen:
- Australië: De Australische regering, bezorgd over AI “truth decay” voorafgaand aan komende verkiezingen, kondigde plannen aan voor “truth in political advertising”-wetgeving die bedrieglijke deepfake-video en audio in verkiezingscampagnes wil verbieden innovationaus.com. Het voorstel van de regering-Albanese uit 2023 zou het publiceren van synthetische media die echte kandidaten imiteren of kiezers kunnen misleiden tijdens verkiezingsperioden verbieden innovationaus.com. De uitvoering is traag – waarschijnlijk zijn deze deepfakebepalingen pas in 2026 van kracht innovationaus.com, dus de federale verkiezingen van 2025 vallen er mogelijk nog buiten. In de tussentijd heeft de Australische kiescommissie richtlijnen uitgegeven en gewaarschuwd voor overmatig focussen op deepfakes (wat het vertrouwen in echte informatie juist kan verlagen) ia.acs.org.au. Australische politici van alle partijen steunen het terugdringen van AI-desinformatie, en het publieke debat blijft over de balans met vrije politieke meningsuiting theguardian.com sbs.com.au.
- Taiwan: Na confrontaties met deepfake-inmenging uit China heeft Taiwan de verkiezingswetten aangepast. In 2023 wijzigde de Taiwanese wetgever de Election and Recall Act en verbiedt nu expliciet het delen van gemanipuleerde audio/video van kandidaten met als doel de uitslag vals te beïnvloeden policyoptions.irpp.org. Dat bood een duidelijk juridisch instrument tegen de soort deepfake-smearcampagnes zoals in 2024. Taiwan investeerde daarnaast in voorlichting en een snel respons-systeem (met overheid, burgermaatschappij en techplatforms) om desinformatie te ontkrachten, wat het effect afzwakte policyoptions.irpp.org policyoptions.irpp.org.
- Europese democratieën: Los van EU-regelgeving pakken individuele Europese landen deepfakes aan via bestaande wetgeving. Frankrijk kan bijvoorbeeld haar “nepinformatiewet” uit 2018 toepassen op deepfake-video’s die de verkiezingsuitslag kunnen scheeftrekken; Duitsland heeft soortgelijke instrumenten via strafrecht en kieswetgeving. Daarnaast zijn er voorstellen voor nieuwe maatregelen: in Duitsland is gesproken over verplichte AI-disclosure door politieke partijen in campagne-uitingen. Ook in het VK kan toekomstige aanpassing van verkiezingswetten (zoals imprint-plicht bij digitale advertenties) disclosure van synthetische media eisen cetas.turing.ac.uk.
- Internationale initiatieven: Er groeit besef dat internationale samenwerking noodzakelijk is, omdat desinformatie zich over grenzen verspreidt. De G7 heeft een werkgroep “AI Governance” die in 2024 een verklaring uitbracht over het tegengaan van AI-misbruik in de informatiesfeer. De VS wist vrijwillige toezeggingen te verkrijgen van grote AI-ontwikkelaars (OpenAI, Google, Meta etc.) voor het implementeren van watermerken en investeren in misbruikpreventie. Deze zijn niet bindend, maar duiden wel op een internationale norm rond transparantie en verantwoordelijkheid bij AI-gebruik.
Samenvattend: beleidsreacties op deepfakes versnellen. De wetgeving loopt nog achter op de technologie, maar de koers is duidelijk: landen bewegen zich naar het strafbaar stellen van de meest schadelijke vormen van synthetische media in verkiezingen, transparantie (labels/disclosures) voor AI-gegenereerde inhoud verplichten, en regulatoren of verkiezingsautoriteiten meer slagkracht geven tegen digitale vervalsingen. Tegelijk moeten zij legitieme expressie, zoals satire, beschermen en draconische regels die kunnen leiden tot censuur vermijden. Die balans is lastig. De verschillende aanpakken – van Amerikaanse staatswetten tot EU-brede eisen – vormen in 2025 een testveld. Beleidsmakers zullen deze instrumenten zeker verfijnen naarmate we leren wat werkt. Maar nietsdoen is geen optie: zoals een policy-tracker het stelde: “Zonder regulering zullen deepfakes waarschijnlijk kiezers steeds meer verwarren en het vertrouwen in verkiezingen ondermijnen.” citizen.org citizen.org De volgende sectie bevat strategische aanbevelingen op basis van deze inspanningen, gericht op alle belanghebbenden binnen het democratische proces.
Strategische Aanbevelingen voor het Beschermen van Verkiezingen
Het verdedigen van de electorale integriteit in het tijdperk van AI vereist een meerlagige strategie. Geen enkel instrument of wet alleen kan het deepfake-probleem oplossen; er is een gecoördineerde inspanning nodig van overheden, technologieplatforms, media en het maatschappelijk middenveld. Hieronder staan strategische aanbevelingen voor deze sectoren om risico’s te beperken en ervoor te zorgen dat kiezers weloverwogen besluiten kunnen nemen in 2025 en daarna:
Overheden en Beleidsmakers
1. Versterk wettelijke bescherming en afschrikking: Overheden zouden wetten moeten aannemen of actualiseren om het kwaadwillig gebruik van synthetische media bij verkiezingen expliciet te verbieden. Dit houdt onder andere in dat het illegaal wordt om met de intentie het publiek te misleiden of een verkiezing te saboteren, deepfakes te maken of te verspreiden die ten onrechte een kandidaat weergeven of verkiezingsgerelateerde informatie (zoals procedures rond stemmen) manipuleren. Nauwkeurige toespitsing is cruciaal: de wetten moeten zich richten op opzettelijke misleiding (desinformatie), met duidelijke uitzonderingen voor satire, parodie of duidelijke artistieke expressie. Sancties (boetes of strafrechtelijke vervolging) zullen een afschrikwekkend effect hebben op potentiële verspreiders van deepfakes, zeker als ze snel worden opgelegd. Australië’s voorgestelde verbod op misleidende deepfakes tijdens campagnes en Taiwan’s nieuwe bepalingen tegen AI-gemanipuleerde verkiezingscontent kunnen als modellen dienen innovationaus.com policyoptions.irpp.org. In de VS zou federale actie (zoals de voorgestelde No AI FRAUD Act) een landelijke basis kunnen leggen, aanvullend op staatswetgeving. Overheden zouden daarnaast campagnefinancierings- en advertentieregels moeten aanpassen: elke politieke advertentie (online of via uitzending) met synthetische media moet voorzien zijn van een duidelijke disclaimer (bijvoorbeeld “Deze afbeelding/video is met AI gegenereerd”), zodat kijkers niet worden misleid. Waarheidsgetrouwe reclamevoorschriften voor campagnes moeten van toepassing zijn op AI-inhoud.
2. Implementeer verkiezingsincident-protocollen: Verkiezingsautoriteiten moeten formele protocollen opstellen om snel te reageren op ernstige deepfake-incidenten. Een goed voorbeeld is Canada’s Critical Election Incident Public Protocol, waarbij hoge functionarissen samenwerken om het publiek te informeren over buitenlandse inmenging of desinformatiebedreigingen tijdens een verkiezing cetas.turing.ac.uk cetas.turing.ac.uk. Andere democratieën zouden soortgelijke mechanismen moeten aannemen. Als er een gevaarlijke deepfake opduikt (bijvoorbeeld een verzonnen video van een kandidaat die toegeeft te hebben verloren die op de verkiezingsdag rondgaat), wordt het protocol geactiveerd – functionarissen, inlichtingendiensten en techplatforms controleren snel de waarheid en brengen een publieke bekendmaking uit waarin het nepnieuws wordt ontkracht en de feiten worden rechtgezet cetas.turing.ac.uk. Deze snelle weerlegging is cruciaal om de impact van ‘firehose’-desinformatie te beperken. Overheden moeten deze respons van tevoren oefenen (verschillende deepfake-scenario’s naspelen) zodat ze snel en met één stem kunnen reageren als dat nodig is.
3. Investeer in detectie- en authenticatie-infrastructuur: Overheidsinstanties moeten middelen investeren in het verbeteren van deepfakedetectie en contentauthenticatie. Dit omvat financiering van R&D (zoals DARPA-achtige programma’s gericht op AI-gemedieerde desinformatie), ondersteuning van de inzet van detectietools voor verkiezingen, en het invoeren van authenticatiestandaarden in overheid communicatie. Een concrete stap is dat overheidsmedia (staatsomroepen, officiële sociale media-accounts, enz.) bewijsbare herkomstmetadata toevoegen aan alle officiële foto’s, video’s en audio die ze publiceren cetas.turing.ac.uk. Zo creëren ze een basis van “geverifieerde, authentieke” informatie. Kiezers en journalisten kunnen er dan op vertrouwen dat elke video met een overheidszegel in de metadata authentiek is – en juist meer argwaan hebben bij soortgelijke beelden zonder dat kenmerk. Overheden kunnen het goede voorbeeld geven met deze “authenticiteit van ontwerp” aanpak cetas.turing.ac.uk, wat de VS en VK al verkennen. Daarnaast moeten politie en verkiezingswaakhonden forensische analyse-eenheden hebben om verdachte media te evalueren tijdens campagnes. Wetende dat autoriteiten technisch verdachte deepfakes kunnen traceren en toeschrijven (en mogelijk de daders kunnen identificeren) zal kwaadwillenden afschrikken.
4. Verduidelijk en moderniseer bestaande wetten: Veel landen zullen merken dat huidige wetten over fraude, identiteitsdiefstal, laster of verkiezingsinmenging op sommige deepfake-zaken van toepassing kunnen zijn – maar er kunnen hiaten zijn. Overheden moeten hun wetboek herzien om te zien of nieuwe categorieën nodig zijn. Hebben we bijvoorbeeld wetgeving tegen AI-gegenereerde imitatie van een publieke functionaris? Zo niet, stel die dan in. Zorg ook dat wetten over gegevensbescherming en privacy het ongeoorloofd gebruik van iemands beeltenis/stem door AI als overtreding beschouwen. Het verduidelijken van de juridische status van schadelijke deepfakes (en hierover communiceren) is belangrijk, zodat potentiële kwaadwillenden weten dat ze aansprakelijk kunnen worden gesteld. Het stelt ook slachtoffers (kandidaten of burgers) in staat om rechtsmiddelen te zoeken als ze worden aangevallen. Deze herziening moet ook de verkiezingswetten omvatten: definities van illegale verkiezingsreclame of misleidende peilingen moeten expliciet worden uitgebreid naar manipulatie met synthetische media cetas.turing.ac.uk. Het doel is elke onduidelijkheid weg te nemen – een kwaadwillende kan niet beweren “technisch is het niet illegaal want het is AI.” Duidelijke wetten maken handhaving en vervolging eenvoudiger.
5. Versterk internationale samenwerking: Omdat desinformatiecampagnes vaak uit het buitenland komen (of zich over grenzen verspreiden), moeten democratische overheden samenwerken aan deze problematiek. Inlichtingendiensten en cybersecurityteams dienen informatie uit te wisselen over opkomende deepfaketactieken (bijvoorbeeld, als één land een buitenlandse deepfake-operatie detecteert, anderen waarschuwen). Fora als de Alliance for Securing Democracy, de G7, EU-VS dialogen en andere kunnen gezamenlijke verklaringen en normen opstellen tegen verkiezingsdeepfakes. Diplomatieke druk kan worden uitgeoefend op staten die zulke inmenging sponsoren of tolereren. Er is ook ruimte voor gezamenlijk onderzoek – bijvoorbeeld een internationaal centrum voor deepfakedetectie kan data bundelen om algoritmen te verbeteren. Verkiezingswaarnemers (zoals de OVSE of internationale missies) dienen hun methoden te actualiseren om synthetische media te identificeren, en landen kunnen deepfake-noodscenario’s opnemen in wederzijdse defensiepacten voor democratische processen. Een verenigd front maakt het voor kwaadwillenden moeilijker om zwakheden van afzonderlijke landen uit te buiten.
6. Bevorder publieke bewustwording en digitale geletterdheid: Uiteindelijk hebben overheden een rol in het voorlichten van het electoraat over deepfakes. Veel landen overwegen of voeren nu programma’s voor digitale geletterdheid in op scholen en voor het brede publiek cetas.turing.ac.uk. Deze programma’s leren mensen hoe ze online informatie kunnen controleren, signalen van gemanipuleerde media herkennen en kritisch nadenken over bronnen. Nu AI-fakes zo overtuigend zijn geworden, is het van vitaal belang dat elke kiezer weet dat zulke fakes bestaan en zich bevoegd voelt opvallende content dubbel te checken (in plaats van die klakkeloos te geloven of te delen). Overheden moeten samenwerken met onderwijsinstellingen en NGO’s om deepfake-bewustzijn op te nemen in curricula en publiekscampagnes. Denk bijvoorbeeld aan voorlichtingsspots waarin het verschil tussen echte en deepfake-politici wordt uitgelegd. Uit onderzoek blijkt dat mensen met een hoger niveau van mediageletterdheid en kritisch denken beter deepfakes kunnen herkennen en minder vatbaar zijn voor misinformatie cetas.turing.ac.uk. Daarom is financiering van mediageletterdheidsinitiatieven een van de meest effectieve lange termijnverdedigingen. Als het publiek een actief sensor-netwerk wordt – dat fakes signaleert en benoemt – kan de impact van deepfake-propaganda sterk worden verminderd.
Technologieplatforms en AI-ontwikkelaars
1. Versterk platformbeleid en handhaving: Sociale media en online platforms zijn de belangrijkste distributiekanalen voor virale deepfakes. Deze bedrijven moeten strikt beleid aannemen tegen gemanipuleerde media die gebruikers misleiden, vooral in de context van verkiezingen. Veel platforms zijn hiermee begonnen: zo hebben Facebook en Twitter (X) beleid om “gemanipuleerde media” te verwijderen of te labelen die schade kunnen veroorzaken. Maar handhaving moet robuust zijn. Platforms dienen hun automatische detectie van deepfakes te verbeteren (met de nieuwste tools zoals hierboven besproken) en zorgen voor snelle beoordeling door menselijke moderatoren wanneer gebruikers verdachte inhoud rapporteren. Tijdens verkiezingsperiodes kunnen bedrijven speciale war rooms en samenwerking met verkiezingscommissies opzetten om potentiële deepfake-incidenten in real time aan te pakken. Wanneer een fake wordt geïdentificeerd, moeten platforms deze als vals labelen of direct verwijderen, en het bereik beperken door het te laten zakken in algoritmische rangschikking brennancenter.org brennancenter.org. Transparantie is ook essentieel: platforms kunnen regelmatig rapporteren over de deepfakes die zij hebben opgespoord en welke acties zijn ondernomen, wat bijdraagt aan het publieke vertrouwen. Ook zouden ze voorbeelden van opgespoorde deepfakes met onderzoekers kunnen delen om de gezamenlijke kennis te vergroten.
2. Implementeer Deepfake-Openbaring en Traceerbaarheid: In navolging van het voorbeeld van de EU zouden platforms wereldwijd moeten eisen dat AI-gegenereerde inhoud gelabeld en bekendgemaakt wordt. Bijvoorbeeld: als er een politieke advertentie wordt geüpload met een AI-gegenereerde afbeelding of stem, kan het platform de uploader verplichten een vakje aan te vinken met “deze content bevat synthetische elementen” – waarna een melding aan kijkers wordt getoond (“Deze video is gewijzigd of gedeeltelijk gegenereerd door AI”). Zelfs buiten formele advertenties kunnen platforms detectietools gebruiken om vermoedelijke deepfake-video’s visueel te markeren (bijvoorbeeld met een waarschuwing dat de echtheid niet is geverifieerd). Daarnaast kunnen sociale netwerken en berichtendiensten functies voor content-authenticiteit integreren: met standaarden als C2PA kunnen ze een icoon tonen als de bron en bewerkingsgeschiedenis van een afbeelding geverifieerd zijn, of juist waarschuwen als deze gegevens ontbreken. Enkele technologiebedrijven (Adobe, Microsoft, Twitter) zijn al betrokken bij dergelijke inspanningen. Door herkomstsignalen in hun gebruikersinterfaces te verwerken, kunnen platforms gebruikers helpen echt van nep te onderscheiden. Ze zouden ook aan traceermechanismen moeten werken – bijvoorbeeld: als een schadelijke deepfake zich verspreidt, kunnen ze dan achterhalen wie het origineel heeft geüpload, ook als het al duizenden keren is doorgestuurd? Samenwerking met opsporingsdiensten bij grote incidenten (met inachtneming van privacywetgeving) is cruciaal om daders te pakken.
3. Verbied Kwaadwillende Deepfake-gebruikers en -Netwerken: Platforms moeten waakzaamheid betrachten tegenover georganiseerde actoren die herhaaldelijk deepfakes inzetten. Dit betekent niet alleen het verwijderen van individuele content, maar ook het sluiten van accounts, pagina’s of bots die zich bezighouden met gecoördineerde deepfake-campagnes. Als blijkt dat een operatie gelinkt is aan een door de staat gesteunde poging of een bekende trollenfabriek, moeten platforms dat openbaar maken en hun aanwezigheid elimineren. Veel desinformatienetwerken zijn de afgelopen jaren offline gehaald; dezelfde daadkrachtige aanpak moet gelden voor AI-gedreven beïnvloedingsoperaties. Platforms moeten hun gebruiksvoorwaarden updaten met een expliciet verbod op het kwaadwillend creëren of verspreiden van synthetische media om anderen te misleiden. Die regels vormen de basis voor het bannen van overtreders. In politieke advertenties zouden campagnes of actiegroepen die betrapt worden op het gebruik van misleidende deepfakes, gestraft moeten worden met bijvoorbeeld het verlies van advertentieprivileges. Techbedrijven kunnen ook samenwerken aan een gezamenlijke zwarte lijst van beruchte deepfake-hashes of -signaturen, zodat wanneer een nepvideo op het ene platform herkend wordt, deze ook op andere platforms geblokkeerd kan worden (zoals nu al gebeurt met terroristische content via consortiums). Kortom: maak het onaantrekkelijk om deepfakes te gebruiken op grote platforms – de inhoud wordt snel verwijderd of de verantwoordelijke raakt zijn account kwijt.
4. Werk Samen met Factcheckers en Autoriteiten: Geen enkel platform kan content perfect in z’n eentje controleren. Samenwerking is essentieel. Socialmediabedrijven moeten hun partnerschappen met onafhankelijke factcheckorganisaties verdiepen bij het beoordelen van virale inhoud. Wanneer factcheckers een video als nep ontmaskeren, moeten platforms die correctie versterken – bijvoorbeeld door een link naar een factcheckartikel toe te voegen telkens als de video gedeeld wordt, of alle gebruikers te informeren die het nepbericht eerst hebben gezien. Bedrijven als Facebook doen dit al bij desinformatie en zouden dat moeten voortzetten bij deepfakes. Daarnaast moeten platforms samenwerken met verkiezingscommissies en veiligheidsdiensten, vooral tijdens verkiezingstijd. Ze kunnen directe meldlijnen of kanalen opzetten zodat ambtenaren verdachte deepfakes rond het stemmen kunnen rapporteren, en andersom kunnen platforms de overheid waarschuwen bij buitenlandse desinformatie gericht tegen het land. In sommige gebieden bestaan formele afspraken (zoals de EU Code of Practice die samenwerking rond desinformatie met overheden stimuleert brennancenter.org). Ook in de VS werkt het cybersecurityteam van het Department of Homeland Security samen met platforms bij monitoring van verkiezingsdesinformatie. Deze samenwerking moet uiteraard de vrijheid van meningsuiting respecteren en niet uitmonden in censuur van legitieme meningen. Maar bij duidelijk gefabriceerd, schadelijk materiaal kan een snelle, gecoördineerde reactie tussen platforms en overheden voorkomen dat een nepvideo massaal verspreid raakt. Denk aan gezamenlijke persberichten om een viral fake te ontkrachten of algoritmes die gezaghebbende bronnen voorrang geven om verspreiding tegen te gaan.
5. Verbeter AI-modelwaarborgen: De bedrijven die generatieve AI-modellen bouwen (OpenAI, Google, Meta, enz.) hebben een bronverantwoordelijkheid. Ze moeten maatregelen treffen om misbruik van hun AI voor verkiezingsmanipulatie te voorkomen. Dit kan bestaan uit het watermerken van AI-output, zoals besproken (zodat bijvoorbeeld iedere afbeelding van DALL-E of Midjourney een ingebedde signatuur heeft). Ook zorgvuldige selectie van trainingsdata is belangrijk – bijvoorbeeld door modellen zo te trainen dat ze weigeren in te gaan op verzoeken om echte personen schadelijk te imiteren. Sommige AI-tools genereren al geen deepfakebeelden van echte politieke figuren dankzij ingebouwde contentfilters. Deze waarborgen moeten continu worden verbeterd (al vormen opensourcemodellen een uitdaging, aangezien kwaadwillenden ze zelf kunnen aanpassen zonder beperkingen). AI-ontwikkelaars zouden ook moeten investeren in onderzoek naar deepfakedetectietechnieken en die kennis delen. Positief is dat veel toonaangevende AI-bedrijven zich vrijwillig steunen hebben uitgesproken voor watermerken en contentauthenticatie. In de toekomst kunnen ze samenwerken aan een standaard API, zodat iedere video- of audiobestand snel gecheckt kan worden op AI-herkomst. Kortom: degenen die het “probleem” creëren (de generatieve technologie) moeten ook bijdragen aan de “oplossing” (herkenning van AI-output).
6. Transparantie bij Politieke Advertenties: Platforms die politieke advertenties hosten moeten strikte transparantie rondom het gebruik van AI afdwingen. Als er een campagneadvertentie op Facebook of Google wordt gepusht met AI-gegenereerde elementen, moet dat expliciet worden vermeld in de advertentiebibliotheek van het platform. Ze zouden politieke adverteerders zelfs kunnen verplichten om het ruwe, onbewerkte beeldmateriaal aan te leveren ter vergelijking. Ambitieuzer nog, socialemediaplatforms zouden kunnen overwegen om tijdelijk alle politieke advertenties met synthetische media te verbieden in de gevoelige laatste dagen van een campagne – gelijk aan het tijdelijk verbieden van nieuwe politieke advertenties net voor de verkiezingsdag. Dit zou het risico op een plotselinge deepfake-advertentiegolf wegnemen. Hoewel handhaving lastig is, is het principe dat betaalde promotie van misleidende content extra gevaarlijk is en platforms meer speelruimte hebben om reclame te reguleren dan gewone gebruikersposts. Transparantie en snelle verwijdering in de advertentiehoek zijn cruciaal, want een deepfake verspreid via betaalde advertenties kan miljoenen mensen bereiken en zo de informatieomgeving op een oneerlijke manier beïnvloeden.
Media- en Journalistieke Organisaties
1. Strikte Verificatieprotocollen: De nieuwsmedia moeten hun verificatiepraktijken aanpassen aan het deepfake-tijdperk. Elke redactie – van nationale tv-netwerken tot lokale kranten en factchecksites – zou formele procedures moeten opstellen om audiovisueel materiaal te authenticeren voordat het wordt uitgezonden of gepubliceerd. Dit betekent journalisten trainen in forensische tools (zoals videometadata controleren, beeldanalyse uitvoeren) en wanneer nodig experts inschakelen. Bij elk sensationeel of schandalen filmpje dat tijdens een verkiezing opduikt, moeten redacteuren gezonde scepsis tonen en niet overhaast uitzenden zonder bevestiging. Media moeten elke door gebruikers ingezonden content dubbel verifiëren: als er bijvoorbeeld een video opduikt van een kandidaat die iets schokkends doet, moet het medium zoeken naar bevestigende bewijzen (getuigen, officiële verklaringen, enz.) of minimaal een frame-voor-frame analyse laten uitvoeren om te controleren of het geen deepfake is. Het doel is te voorkomen dat media onbewust desinformatie versterken. Sommige nieuwsredacties hebben zelfs interne deepfake-teams opgezet. In een geval maakten journalisten in Arizona zelfs hun eigen deepfake (met toestemming) om kijkers te laten zien hoe gemakkelijk het is om video’s te manipuleren knightcolumbia.org – een slimme manier om bewustzijn te vergroten. Alle redacties zouden een “deepfake-expert” moeten hebben (of een samenwerking met een tech-lab) voor snelle analyse van verdachte beelden. Door verificatie net zo routineus te maken als factchecking, kan de media nepinformatie vroeg onderscheppen of in elk geval hun publiek waarschuwen als iets nog niet geverifieerd is.
2. Verantwoord Verslaggeven over Deepfakes: Bij berichtgeving over gevallen van synthetische media, moeten journalisten dat zorgvuldig en met context doen. Als een deepfake tegen een kandidaat viraal gaat, is het verhaal niet de nep-beschuldiging zelf, maar het feit dat het om manipulatie gaat. Media moeten niet in detail de valse beschuldigingen herhalen of klakkeloos het nepfilmpje laten zien, want daarmee verspreiden zij onbedoeld de desinformatie. Beschrijf het in plaats daarvan globaal en focus op de reactie (bijvoorbeeld: “Een gemanipuleerde video waarin X onterecht wordt afgebeeld als Y is online verschenen, maar is door experts ontkracht”). Media kunnen ervoor kiezen om het deepfake-materiaal te vervagen of niet direct te linken in hun online artikelen cetas.turing.ac.uk, om zo niet onbedoeld verkeer te genereren naar of kwaadwillende gebruikers de kans te geven het materiaal te downloaden en opnieuw te verspreiden. De framing van het bericht is belangrijk: benadruk vooral de poging tot misleiding en het feit dat het om een deepfake gaat meer dan het nepverhaal zelf cetas.turing.ac.uk. Media moeten bovendien de correcties of de waarheid onderstrepen (bijvoorbeeld: “Nee, politicus Z heeft dit niet gezegd – de video is een AI-vervalsing; dit is wat ze daadwerkelijk over het onderwerp hebben verklaard.”). Door dit consequent te doen, kunnen serieuze media helpen het publiek te beschermen tegen het geloven of delen van nepinformatie. Het is een delicate balans tussen informeren over de desinformatie (want negeren laat het niet verdwijnen) en het niet per ongeluk verder verspreiden. Richtlijnen zoals bij de berichtgeving over hoaxes of massaschietpartijen (waar bepaalde details bewust weggelaten worden om navolging te voorkomen) zouden ook voor deepfake-nieuws ontwikkeld kunnen worden. De Independent Press Standards Organisation in het VK is opgeroepen zijn codes hierop aan te passen cetas.turing.ac.uk.
3. Gebruik van authenticiteitstechnologie in redacties: Nieuwsorganisaties zelf kunnen gebruikmaken van de opkomende authenticiteitsinfrastructuur. Zo kan een mediabedrijf de tools van het Content Authenticity Initiative gebruiken om cryptografische inhoudsreferenties te koppelen aan alle originele foto’s en video’s die door haar journalisten zijn gemaakt. Dit betekent dat elk beeldmateriaal dat bijvoorbeeld door een Reuters- of ANP-cameraman is vastgelegd, een beveiligd zegel kan dragen dat de oorsprong en eventuele bewerkingen verifieert. Achteraf kunnen mensen zo eenvoudig controleren of een door Reuters geleverde video ongewijzigd is. Dergelijke maatregelen helpen om aan te tonen wat echt is en bieden het publiek een bron van waarheid. Media zouden daarnaast moeten samenwerken aan databases met bekende deepfakes (en bekende echte content), zodat factcheckers hiermee geholpen worden. Bijvoorbeeld, door een archief van officiële toespraken en interviews te onderhouden, kan een bewerkt fragment snel worden ontkracht door vergelijking. Grote persbureaus en nieuwsagentschappen kunnen coördineren om al hun abonnees onmiddellijk te waarschuwen als er een gevaarlijke deepfake wordt gespot – vergelijkbaar met breaking news alerts. Intern moeten nieuwsredacties zich ook bewust zijn dat politieke actoren mogelijk proberen nepmedia aan journalisten te leveren (zoals een tip met een “uitgelekt” audiofragment dat in werkelijkheid AI-gegenereerd is). Het is raadzaam om extra sceptisch te zijn bij anoniem aangeleverd digitaal materiaal.
4. Het publiek informeren: Media kunnen een grote rol spelen in het onderwijzen van kiezers over synthetische media. Nieuwsorganisaties en journalisten zouden explainer-artikelen, interviews met experts en reportages moeten produceren die het publiek laten zien hoe deepfakes worden gemaakt en hoe je ze kunt herkennen. Door de technologie te demystificeren, wordt haar kracht verminderd. Sommige tv-nieuwsuitzendingen in 2024 demonstreerden bijvoorbeeld AI-stemklonen live op televisie, zodat duidelijk werd hoe een oplichtings-telefoontje de stem van een familielid kan nabootsen. Evenzo kan verkiezingsberichtgeving herinneringen bevatten als: “Zie je vlak voor de stemming een schokkende video over een kandidaat? Wees dan voorzichtig – het kan nep zijn. Zo kun je verifiëren…”. Publiekscampagnes vanuit de media (mogelijk in samenwerking met overheid of NGO’s) kunnen de digitale geletterdheid aanzienlijk vergroten. Journalisten moeten daarnaast consequent precies zijn in hun bewoordingen: het benoemen van iets als een “deepfake” of “AI-gegenereerde nepvideo” in plaats van simpelweg “gemanipuleerde video” helpt om duidelijk te maken dat deze nieuwe categorie bestaat. Mettertijd zal een goed geïnformeerd publiek minder snel in een nepverhaal trappen en sneller om bewijs vragen. De media, als schakel tussen informatie en burger, hebben de plicht om die weerbaarheid op te bouwen.
5. Verantwoording en blootstelling: Tot slot moeten journalisten onderzoeken wie er achter grootschalige deepfake-operaties zit en daar licht op laten schijnen. Door daders verantwoordelijk te houden in de publieke opinie kan toekomstig misbruik worden ontmoedigd. Wordt bijvoorbeeld een concurrentiële campagne, een buitenlandse trollenfabriek of een specifieke internetgroep geïdentificeerd als bron van een kwaadaardige deepfake, dan moet dat breed worden uitgemeten – zo krijgen deze tactieken een stigma en risicofactor. Onderzoeksverhalen over de productie en financiering van desinformatiecampagnes kunnen hun effectiviteit ondermijnen. Daarnaast geldt: als een politicus of publiek figuur zelf bewust een deepfake deelt (bijvoorbeeld als een kandidaat een nepvideo van een tegenstander tweet), moeten media dat krachtig benoemen – dat is ernstig wangedrag. De dreiging van negatieve pers en reputatieschade ontmoedigt politieke actoren wellicht van “vuile trucs” zoals deepfake-gebruik. Kortom, de waakhondfunctie van de journalistiek strekt zich uit tot het digitale domein: onderzoek, wijs aan en ontmasker kwaadwillige deepfake-operaties, net zoals je bij andere fraude of corruptie in de politiek zou doen.
Initiatieven vanuit de samenleving en kiezers
1. Digitale geletterdheid en educatie in de gemeenschap: Maatschappelijke organisaties – inclusief non-profits, bibliotheken, universiteiten en lokale groepen – kunnen het voortouw nemen in het onderwijzen van burgers om hun weg te vinden in het deepfake-tijdperk. Schaalbare programma’s zouden gemeenschappen moeten leren hoe je media kunt verifiëren. Zo kunnen NGO’s workshops organiseren waarin mensen eenvoudige trucs leren, zoals omgekeerd zoeken naar afbeeldingen (om te checken of een foto door AI is gemaakt of bewerkt), het zoeken naar bevestigend nieuws en het gebruiken van factcheckwebsites. Er zijn al uitstekende toolkits en lesprogramma’s ontwikkeld door factcheckgroepen (zoals First Draft, Media Literacy Now) over het herkennen van desinformatie en deepfakes; deze moeten breed verspreid worden. De training moet zich niet alleen richten op scholieren, maar ook op oudere volwassenen, die vaak kwetsbaarder zijn voor misleiding online. Landelijke campagnes voor digitale geletterdheid kunnen worden uitgerold, eventueel met overheidsfinanciering, maar uitgevoerd door maatschappelijke organisaties vanwege het onderlinge vertrouwen. Het doel is het “kudde-immuniteit” niveau in de samenleving te verhogen: als een belangrijk deel van de mensen een nepbericht herkent of in ieder geval hun oordeel uitstelt tot na verificatie, verliezen verspreiders van desinformatie veel van hun macht. Uit onderzoeken blijkt dat het publiek deze kennis wil – veel mensen voelen zich onzeker omdat ze niet weten wat echt en nep is brennancenter.org brennancenter.org. Het maatschappelijk middenveld kan deze kloof dichten door burgers te versterken met educatie en praktische vaardigheden.
2. Factcheck- en ontkracht-initiatieven: Onafhankelijke factcheckers en maatschappelijke waakhonden blijven cruciaal. Ze zouden zich specifiek moeten voorbereiden op verkiezingsperioden met initiatieven zoals speciale deepfake-factcheckhubs. Bijvoorbeeld, coalities van factcheckorganisaties zouden tijdens verkiezingen een openbaar dashboard kunnen onderhouden dat geruchten en opduikende deepfake-claims volgt, en razendsnel ontkracht. Het News Literacy Project deed iets vergelijkbaars voor de Amerikaanse verkiezingen van 2024, waarbij misinformatie werd gelogd en werd genoteerd hoe weinig gevallen daadwerkelijk AI betroffen knightcolumbia.org knightcolumbia.org. Dergelijke transparante tracking helpt het publiek en journalisten het bredere plaatje te zien en het dreigingsniveau niet te overdrijven, terwijl echte gevallen wel worden aangepakt. Maatschappelijke groepen kunnen ook juist materiaal op sociale media verspreiden – bijvoorbeeld reageren op virale posts met feiten, ondersteund door community-notities of andere functies. Ook het promoten van “prebunken” is belangrijk: het publiek vooraf waarschuwen dat er een nepbericht kan verschijnen. Als bijvoorbeeld inlichtingendiensten of eerdere patronen aangeven dat een kandidaat doelwit kan worden van een nep schandaal, kunnen burgergroepen (in overleg met verkiezingsautoriteiten) kiezers waarschuwen: “Wees sceptisch als je plotseling een schokkende video van X ziet, het kan gaan om een deepfake.” Onderzoek laat zien dat prebunken het vertrouwen en de verspreiding van valse berichten sterk kan verminderen cetas.turing.ac.uk cetas.turing.ac.uk. Een proactieve houding vanuit het maatschappelijk middenveld die deepfakecampagnes anticipeert en voor is, kan dus grote voordelen opleveren.
3. Civic Tech en crowd-sourced detectie: De technisch onderlegde burgergemeenschap kan worden gemobiliseerd om deepfakes te bestrijden. Er zijn al “deepfake-jagers” actief die online verdachte media onderzoeken. Maatschappelijke organisaties kunnen deze inzet coördineren via platforms – bijvoorbeeld een speciaal portaal of app waar mensen audio of video die zij verdacht vinden kunnen uploaden, waarna een team van experts of AI-tools een echtheidsanalyse levert. Deze collectieve intelligentie kan officiële inspanningen aanvullen. Daarnaast kunnen civic tech-groepen browserextensies of apps ontwikkelen die gebruikers helpen synthetische media te herkennen. Denk aan een app waarmee je een video op je scherm geselecteerd analyseert met verschillende detectiealgoritmen (een soort antivirus voor deepfakes). Hoewel niet waterdicht, kan het rode vlaggen oproepen. Open-source projecten voor dit soort tools verdienen subsidie. Nog een idee zijn meldpunten voor burgers – vergelijkbaar met kiesdag-lijnen voor stemproblemen, kan er ook een kanaal komen waar mensen verdacht nepnieuws of deepfakes kunnen rapporteren aan verkiezingsautoriteiten of factcheckers. Door burgers als actieve deelnemers in te zetten bij het herkennen en signaleren van dubieuze inhoud, groeit het bereik van monitoring exponentieel. Deze gedistribueerde aanpak erkent dat in een online samenleving van miljoenen vaak iemand iets vroeg doorheeft – de sleutel is die signalen snel door te geven aan de juiste partijen die kunnen verifiëren en de waarheid kunnen versterken.
4. Pleiten voor verantwoordelijkheid bij platforms: Het maatschappelijk middenveld moet technologieplatforms en AI-bedrijven blijven aansporen om verantwoordelijk te handelen. Publieke belangengroepen en denktanks spelen een cruciale rol in het signaleren van de gevaren van deepfakes en het pleiten voor hervormingen (bijvoorbeeld Access Now, EFF en anderen met aanbevelingen). Dit pleidooi moet doorgaan – door platforms aan te sporen de eerdergenoemde beleidswijzigingen te implementeren (betere labels, verwijderingen, enzovoorts), en AI-makers te dwingen tot ethisch ontwerp. De campagne van Public Citizen om nationale wetgeving rond deepfakes bij te houden en de FEC te benaderen is een goed voorbeeld citizen.org citizen.org. Evenzo kunnen coalities pleiten voor transparantie op platforms: bijvoorbeeld door te eisen dat ze data vrijgeven over hoeveel AI-content er op hun sites staat, of hoe effectief hun detectie werkt. Maatschappelijke geluiden kunnen er ook voor zorgen dat nieuwe wetgeving of regels de burgerrechten beschermen (bijvoorbeeld door te waken voor overdreven maatregelen die vrijheid van meningsuiting kunnen onderdrukken onder het mom van deepfakebestrijding). De juiste balans vraagt om publieke consultatie, en belangenorganisaties vertegenwoordigen de burger in dat debat. De komende jaren zal er waarschijnlijk nieuwe regelgeving komen rond AI en digitale content – het is essentieel dat democratische waarden en mensenrechten daarin worden gewaarborgd, en het maatschappelijk middenveld is daarin onmisbaar als waakhond.
5. Ondersteuning voor slachtoffers en doelwitten: Als een kandidaat of privé-persoon wordt zwartgemaakt door een deepfake, kan het maatschappelijk middenveld ondersteuning bieden. Non-profitorganisaties kunnen juridische bijstand aanbieden of advies geven over hoe lasterlijke deepfakes verwijderd kunnen worden en daders verantwoordelijk gehouden kunnen worden. Er kunnen hulplijnen zijn voor slachtoffers van deepfake-porno of karaktermoord, die hen in contact brengen met de politie en geestelijke gezondheidszorg. Voor kandidaten die door een lastercampagne worden geraakt, kunnen maatschappelijke organisaties (zoals de vereniging van vrouwelijke kiezers of groepen voor verkiezingsintegriteit) helpen hun ontkenning en de ontmaskering te versterken om de schade te beperken. Snel opkomen voor iemand die valselijk wordt beschuldigd – en ervoor zorgen dat de waarheid luider klinkt dan de leugen – is iets wat gemeenschaps- en belangenorganisaties kunnen coördineren, zoals zij zo vaak doen bij het tegengaan van lastercampagnes of haatspraak. Op een bredere schaal kan het maatschappelijk middenveld overkoepelende afspraken stimuleren dat als er een deepfake opduikt, alle partijen dit zullen veroordelen. Stel je een belofte voor die alle grote partijen in een land ondertekenen, waarmee zij beloven geen deepfakes te gebruiken en elke kwaadaardige vervalsing direct te veroordelen. Dergelijke normen, ondersteund door bijvoorbeeld partijoverstijgende verkiezingscommissies of ethische NGO’s, verkleinen het risico van een “race naar de bodem” waarbij partijen het gevoel hebben dat ze moeten terugslaan met soortgelijk materiaal. Het creëert een verenigd front dat aanvallen op de waarheid niet getolereerd worden, ongeacht op wie deze zijn gericht.
Tot slot vereist het aangaan van de deepfake-uitdaging het benutten van alle verdedigingsmiddelen van de samenleving – technologisch, juridisch, institutioneel en menselijk. Door de bovenstaande stappen uit te voeren kunnen overheden het electorale systeem beter beschermen tegen AI-valsheid, kunnen tech-platforms de verspreiding van valse inhoud beperken, zorgt de media dat de waarheid in berichtgeving overheerst, en kunnen burgers slimme bewakers van de realiteit worden. Er is geen tijd te verliezen: nu generatieve AI zich blijft ontwikkelen, zal de verkiezingscyclus van 2025 de veerkracht van democratieën tegenover synthetische leugens testen. Het bemoedigende nieuws is dat we niet weerloos zijn. Met voorbereiding, transparantie en samenwerking kunnen we deepfakecampagnes te slim af zijn en beter organiseren, en zo de integriteit van onze verkiezingen behouden. Zoals een CETaS-onderzoeksrapport over AI en verkiezingen concludeerde, “zelfgenoegzaamheid mag niet in het besluitvormingsproces sluipen” – in plaats daarvan moeten we dit moment grijpen om weerbaarheid op te bouwen cetas.turing.ac.uk cetas.turing.ac.uk. Door dat te doen, bevestigen we het principe dat terwijl technologie verandert, onze democratische waarden van waarheid en vertrouwen zullen blijven bestaan.
Bronnen
- Stockwell, Sam et al. “AI-Enabled Influence Operations: Safeguarding Future Elections.” CETaS (Alan Turing Institute) Research Report, 13 nov 2024. cetas.turing.ac.uk cetas.turing.ac.uk
- Stockwell, Sam et al. Ibidem. (CETaS Rapport, 2024), Sectie 2.1 over deepfakes bij de Amerikaanse verkiezingen. cetas.turing.ac.uk cetas.turing.ac.uk
- Beaumont, Hilary. “’A lack of trust’: How deepfakes and AI could rattle the US elections.” Al Jazeera, 19 jun 2024. aljazeera.com aljazeera.com
- Sze-Fung Lee. “Canada needs deepfake legislation yesterday.” Policy Options, 18 mrt 2024. policyoptions.irpp.org policyoptions.irpp.org
- Goldstein, Josh A. & Andrew Lohn. “Deepfakes, Elections, and Shrinking the Liar’s Dividend.” Brennan Center for Justice, 23 jan 2024. brennancenter.org
- “Synthetic media.” Wikipedia (geraadpleegd 2025). en.wikipedia.org en.wikipedia.org
- “Deepfake.” Kaspersky IT Encyclopedia (2023). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
- Hamiel, Nathan. “Deepfakes proved a different threat than expected. Here’s how to defend against them.” World Economic Forum, 10 jan 2025. weforum.org weforum.org
- “Regulering van AI Deepfakes en synthetische media in de politieke arena.” Brennan Center for Justice, 4 okt 2023. brennancenter.org brennancenter.org
- Colman, Ben. “The EU AI Act and the Rising Urgency of Deepfake Detection.” Reality Defender Blog, 11 feb 2025. realitydefender.com realitydefender.com
- “Tracker: Wetgeving op deelstaatniveau over deepfakes in verkiezingen.” Public Citizen, 2025. citizen.org citizen.org
- Partnership on AI. “Synthetische media en deepfakes – case study: Slowakije 2023.” (Genoemd in Knight Columbia analyse). brennancenter.org brennancenter.org
- Kapoor, Sayash & Arvind Narayanan. “We Looked at 78 Election Deepfakes. Political Misinformation Is Not an AI Problem.” Knight First Amendment Institute, 13 dec 2024. knightcolumbia.org knightcolumbia.org
- CETaS Rapport (2024), Beleidsaanbevelingen (gericht op VK). cetas.turing.ac.uk cetas.turing.ac.uk
- CETaS Rapport (2024), Aanbevelingen over detectie en herkomst. cetas.turing.ac.uk cetas.turing.ac.uk
- Public Safety Canada. “Bescherming tegen door AI mogelijk gemaakte desinformatie” (2023 notitie). policyoptions.irpp.org policyoptions.irpp.org
- InnovationAus. “Verkiezings-deepfakeverbod van de overheid ‘blijft liggen’ tot 2026.” (Australië) 2023. innovationaus.com
- Aanvullende referenties: Reuters-, Wired- en CNN-artikelen aangehaald in bovenstaande bronnen voor specifieke incidenten (bijv. Zelensky deepfake, Hong Kong $25M fraude via Zoom deepfake weforum.org), en FTC-waarschuwingen voor consumenten over voice-clonefraude weforum.org. Deze zijn verwerkt in de analyse en beschikbaar via de genoemde bronlinks.