Les avancées en intelligence artificielle ont permis la création de médias synthétiques – du contenu généré ou manipulé par l’IA – à une échelle sans précédent. Alors que les nations démocratiques se préparent au cycle électoral de 2025, responsables et experts tirent la sonnette d’alarme concernant la désinformation alimentée par l’IA. Dans une enquête récente, 85 % des Américains ont exprimé leur inquiétude face aux « vidéos et audios trompeurs de type deepfake » susceptibles d’influencer les élections brennancenter.org. Les gros titres mettent en garde contre le fait que les « deepfakes » générés par l’IA pourraient faire des ravages sur les campagnes et la confiance des électeurs brennancenter.org, soulignant l’urgence de protéger l’intégrité électorale. Ce rapport examine ce que sont les médias synthétiques et les deepfakes, comment ils menacent la démocratie, et quelles solutions – technologiques et politiques – peuvent être mises en œuvre pour préserver les élections en 2025 et au-delà.
Que sont les médias synthétiques et les deepfakes ?
Les médias synthétiques sont un terme général désignant le contenu numérique (images, vidéos, audio, texte) qui est produit ou modifié artificiellement par des moyens automatisés, en particulier des algorithmes d’IA en.wikipedia.org. Les systèmes d’IA générative actuels peuvent créer des contenus humains réalistes dans tous les médias – depuis des photos criantes de vérité de personnes qui n’ont jamais existé, jusqu’à des voix clonées et des articles rédigés par IA. Les deepfakes sont un sous-ensemble particulier des médias synthétiques : images, vidéos ou audios faux hautement réalistes élaborés grâce à l’IA (d’où “deep” learning + “fake”) pour imiter de vraies personnes encyclopedia.kaspersky.com. En pratique, un deepfake peut être une vidéo où le visage d’un responsable politique est échangé de façon convaincante avec celui de quelqu’un d’autre, ou un enregistrement audio imitant la voix d’un candidat disant des mots qu’il n’a jamais prononcés.
Comment sont créés les deepfakes ? La plupart sont générés grâce à des techniques avancées d’apprentissage profond. Une méthode courante utilise les réseaux antagonistes génératifs (GAN) – deux réseaux neuronaux qui s’entraînent l’un contre l’autre icct.nl. Un réseau (le générateur) fabrique du faux contenu (par exemple, une image de visage humain) et l’autre (le discriminateur) tente de détecter s’il s’agit d’un faux. Au fil de milliers d’itérations, le générateur apprend à produire des résultats de plus en plus réalistes, jusqu’à ce que le discriminateur ne fasse plus la différence icct.nl. À l’origine, la création d’un deepfake crédible nécessitait de vastes bases de données pour l’apprentissage et du matériel informatique très puissant – par exemple, une expérience de deepfake de l’acteur Tom Cruise a requis deux mois d’entraînement sur des GPU haut de gamme icct.nl. Mais les outils ont évolué rapidement. Aujourd’hui, des logiciels sophistiqués de deepfake sont largement accessibles et plus rapides, certains fonctionnant même en temps réel (par exemple, en modifiant à la volée une visioconférence ou un appel vocal) encyclopedia.kaspersky.com. Outre les GAN, d’autres architectures d’IA jouent un rôle : les modèles transformer génèrent du texte deepfake ou aident à cloner des voix encyclopedia.kaspersky.com. En résumé, les récentes avancées de l’IA ont rendu facile et bon marché pour presque tout le monde la création de contenu audio-visuel trompeur – abaissant radicalement la barrière à l’entrée pour les opérations de désinformation.
Il est important de noter que les médias synthétiques ne sont pas tous malveillants. Le contenu généré par IA peut être utilisé pour des usages bénins et créatifs – avatars personnalisés, doublage d’une voix dans d’autres langues, satire et divertissement, etc. En réalité, lors des élections mondiales de 2024, environ la moitié des usages d’IA documentés dans du contenu politique étaient non trompeurs (par exemple, un candidat utilisant clairement une voix IA après avoir perdu la sienne, ou des journalistes utilisant un avatar IA pour protéger leur identité) knightcolumbia.org knightcolumbia.org. Mais ce rapport se concentre sur le versant malveillant des médias synthétiques – les deepfakes destinés à tromper, manipuler ou induire en erreur les électeurs et l’opinion publique.
Risques pour les processus démocratiques
Les médias synthétiques et les deepfakes présentent des risques importants pour la démocratie, en particulier pendant les élections où une population informée et la confiance dans l’information sont vitales. Les principales menaces comprennent :
- Désinformation et manipulation des électeurs : Les fausses vidéos, images ou audios générés par IA peuvent être utilisés pour diffuser de fausses informations sur des candidats ou des sujets, trompant les électeurs. Par exemple, un deepfake pourrait montrer un candidat faisant des déclarations incendiaires qu’il n’a jamais faites. Ce type de contenu fabriqué peut injecter de fausses informations toxiques dans le débat public. Les experts soulignent que les deepfakes « posent un risque élevé » pour les électeurs en injectant de faux contenus dans les campagnes et en érosant la confiance du public aljazeera.com. Une vidéo truquée diffusée peu avant le jour de l’élection – sans le temps nécessaire aux vérificateurs pour la contredire – pourrait même influencer le vote des indécis ou décourager la participation, pouvant changer le résultat d’une élection citizen.org. Cette menace n’a rien de théorique : comme indiqué plus loin, un deepfake audio en 2024 a imité le Président des États-Unis exhortant ses partisans à ne pas voter, avec l’objectif apparent de décourager la participation aljazeera.com aljazeera.com.
- Érosion de la confiance (« dividende du menteur ») : Indépendamment de toute falsification spécifique, la simple existence des deepfakes peut saper la confiance du public dans la réalité de l’information. Les électeurs commencent à douter de preuves authentiques, incertains qu’une vidéo virale soit réelle ou bien une supercherie fabriquée par IA. Pire encore, les acteurs corrompus peuvent exploiter ce doute : ainsi, de vrais scandales ou enregistrements véridiques peuvent être rejetés comme de « simples deepfakes », permettant aux fauteurs de troubles d’échapper à toute responsabilité. Les chercheurs appellent ce phénomène le « dividende du menteur », car la prise de conscience des deepfakes facilite le fait de prétendre que des images authentiques sont fausses brennancenter.org. La prise de conscience grandissante de la puissance de l’IA permet à un homme politique pris en flagrant délit de tromperie de convaincre plus facilement l’opinion publique en prétendant que des enregistrements accablants sont de pures fabrications brennancenter.org. Cette dynamique menace la confiance fondamentale sur laquelle reposent les débats démocratiques. Des observateurs du processus électoral ont noté qu’en 2024 certains candidats et leurs partisans ont anticipativement crié à la « supercherie IA » pour rejeter des sujets dérangeants brennancenter.org brennancenter.org. À long terme, si les citoyens estiment qu’« on ne peut plus se fier à rien de ce qu’on voit ou entend », cela érode la réalité partagée nécessaire à des élections libres et équitables cetas.turing.ac.uk cetas.turing.ac.uk.
- Amplification de la polarisation et des conflits : Jusqu’à présent, il semble que la propagande par deepfake renforce les préjugés existants des individus plutôt qu’elle n’influence au-delà des clivages cetas.turing.ac.uk. Les contenus malveillants IA sont souvent relayés et propagés par ceux qui nourrissent déjà des opinions extrêmes, ce qui amplifie les échos communautaires. Durant la campagne présidentielle américaine de 2024, les chercheurs ont montré que les faussetés générées par IA servaient surtout à renforcer les récits partisans et à enflammer les débats plus qu’à convertir de nouveaux adeptes cetas.turing.ac.uk. Par exemple, de fausses vidéos prenant pour cible le Président Biden ou la Vice-Présidente Harris ont recueilli des millions de vues en ligne et ont été majoritairement relayées par des personnes déjà hostiles cetas.turing.ac.uk cetas.turing.ac.uk. En consolidant les camps idéologiques par de fausses « preuves » spectaculaires de la perfidie du camp opposé, les deepfakes peuvent éloigner les communautés encore davantage et rendre le climat de campagne plus toxique. De plus, la confusion et la perte de confiance engendrées par les deepfakes créent un terrain fertile où les théories du complot prospèrent cetas.turing.ac.uk, puisque les citoyens peuvent plus facilement rejeter toute réalité gênante comme manipulation IA.
- Affaiblissement de l’administration électorale : Le risque ne se limite pas à la manipulation des électeurs vis-à-vis des candidats – les deepfakes peuvent aussi perturber le processus électoral en lui-même. Des responsables ont envisagé des scénarios où des clones de voix générés par IA ou de faux messages se faisant passer pour des autorités électorales ordonnent aux assesseurs de fermer les bureaux de vote plus tôt ou diffusent de fausses consignes aux électeurs (par exemple, « l’élection est reportée ») aljazeera.com. Un adversaire sophistiqué pourrait simuler une directive de la commission électorale ou imiter la voix d’un élu local pour saboter les opérations de vote. De telles tactiques pourraient supprimer des votes ou semer le chaos le jour du scrutin. Selon le Brennan Center américain, les médias manipulés pourraient tromper non seulement le public, mais aussi les assesseurs et responsables d’élections, exigeant de nouvelles formations et procédures adaptées aljazeera.com.
- Harcèlement et destruction de réputation : Les deepfakes fournissent aussi une arme puissante pour les attaques personnelles contre candidats, activistes ou journalistes. Une catégorie particulièrement pernicieuse est la pornographie synthétique non consentie – lorsqu’on greffe le visage d’une personne dans un contenu sexuel explicite. Cette tactique a déjà servi à harceler des femmes journalistes et des femmes politiques à travers le monde. La forme la plus extrême du harcèlement par deepfake reste la fausse imagerie intime utilisée pour humilier ou faire chanter des individus weforum.org. Dans un contexte électoral, des opérateurs pourraient publier une fausse vidéo compromettante d’un(e) candidat(e) (par exemple, une sextape deepfake ou un faux enregistrement d’acte illicite) juste avant un scrutin. Même rapidement déjoué, le tort à la réputation peut être irréversible. Les femmes et les minorités sont, de fait, surreprésentées parmi les victimes de ces campagnes de « calomnie synthétique », suffisamment pour dissuader certains candidats issus de la diversité de se présenter policyoptions.irpp.org policyoptions.irpp.org. En résumé, les deepfakes rajoutent du carburant moderne aux vieilles sales méthodes – faux scandales, citations inventées – et surmultiplient les cas d’assassinats de réputation en période électorale.
Enfin, il convient de noter que jusque-là, nous n’avons pas encore connu de catastrophe électorale liée aux deepfakes. Les analyses empiriques des élections 2024 à travers le monde montrent peu de preuves que la désinformation générée par IA a changé le résultat d’une élection cetas.turing.ac.uk weforum.org. La désinformation classique (« cheapfakes » grossiers, rumeurs, manipulation partisane) reste bien plus répandue et influente que les deepfakes sophistiqués knightcolumbia.org knightcolumbia.org. Cependant, les spécialistes mettent en garde : l’absence d’une catastrophe jusque-là n’est pas une raison de baisser la garde cetas.turing.ac.uk weforum.org. La technologie progresse à grande vitesse, et les acteurs hostiles apprennent. Même si les deepfakes n’ont pas renversé une présidentielle majeure en 2024, ils ont façonné le débat : des mensonges viraux générés par IA à propos de candidats ont alimenté les débats médiatisés cetas.turing.ac.uk. Par ailleurs, la simple perception de la menace des deepfakes contribue à l’anxiété et à la défiance autour des élections cetas.turing.ac.uk cetas.turing.ac.uk. Le risque d’un incident plus grave demeure, surtout à mesure qu’approchent les élections cruciales de 2025. Les sociétés démocratiques doivent donc considérer les deepfakes comme une véritable menace pour la sécurité et l’intégrité, en agissant sur le risque direct de médias trafiqués comme sur l’érosion plus large de la vérité dans la sphère électorale.
Incidents récents : les deepfakes bouleversent la politique
Des cas concrets survenus ces dernières années illustrent comment les médias synthétiques ont déjà été instrumentalisés dans des contextes politiques. Ci-dessous, nous passons en revue plusieurs incidents notables et études de cas concernant des deepfakes et des informations générées par l’IA ayant impacté des élections ou le débat public :
- Ukraine (mars 2022) – Vidéo de « reddition » : Au début de la guerre menée par la Russie contre l’Ukraine, une vidéo a circulé dans laquelle le président ukrainien Volodymyr Zelensky semblait appeler ses troupes à déposer les armes et se rendre. La vidéo était un deepfake, l’image et la voix de Zelensky ayant été synthétiquement modifiées icct.nl. Des défauts caractéristiques (bords flous, raccord imparfait du cou) l’ont trahie, et les médias ukrainiens ont rapidement dévoilé le canular. Cet incident – le premier cas connu d’utilisation d’un deepfake dans un conflit armé – a montré comment la propagande de l’IA pourrait servir à saper le moral des dirigeants en temps de crise icct.nl. Même si la fausse vidéo de Zelensky n’a pas réussi à démoraliser la résistance ukrainienne, elle a révélé l’intention et la capacité d’acteurs malveillants (dans ce cas, des agents russes présumés) d’utiliser les deepfakes pour la guerre de l’information.
- Slovaquie (septembre 2023) – Désinformation électorale : Quelques jours avant les élections législatives slovaques, des enregistrements audio deepfake ont circulé présentant Michal Šimečka, dirigeant du parti Slovaquie Progressiste, avouant une fraude électorale et proposant même de doubler le prix de la bière brennancenter.org. Certaines versions présentaient un léger avertissement, à la fin du clip, indiquant qu’il s’agissait d’un contenu généré par l’IA – probablement une stratégie délibérée pour tromper l’auditeur brennancenter.org. Le choix du timing était clairement stratégique, juste avant le scrutin. Le parti pro-occidental de Šimečka a perdu de peu face à un rival pro-Kremlin, et certains commentateurs ont spéculé que cette attaque deepfake de dernière minute a pu influencer le résultat brennancenter.org. Ce cas montre bien comment des acteurs étrangers ou nationaux peuvent utiliser les deepfakes pour peser sur une élection serrée, et combien il peut être difficile de contrer de fausses narrations dans les derniers instants d’une campagne.
- Taiwan (janvier 2024) – Opérations d’influence étrangères : Avant l’élection présidentielle taïwanaise de 2024, des observateurs ont documenté une campagne de désinformation chinoise utilisant des deepfakes pour affaiblir le candidat Lai Ching-te. De fausses vidéos ont circulé montrant Lai (du parti pro-indépendance au pouvoir) tenant des propos qu’il n’avait jamais tenus – par exemple, laissant croire à tort qu’il soutenait la plateforme de ses adversaires policyoptions.irpp.org. Dans un cas, un enregistrement audio généré par l’IA de Lai a été diffusé, semblant le faire critiquer son propre parti policyoptions.irpp.org, dans le but de diviser son électorat. Ces attaques médiatiques synthétiques, attribuées à la Chine, visaient à influencer l’opinion publique et à semer la confusion au sein de la démocratie taïwanaise policyoptions.irpp.org. Finalement, Lai a remporté l’élection, et les analystes ont estimé que la campagne deepfake chinoise n’avait pas modifié de façon significative l’issue du scrutin policyoptions.irpp.org. Cependant, cela constitue un exemple type d’une puissance étrangère hostile recourant à la propagande d’IA contre une élection démocratique policyoptions.irpp.org policyoptions.irpp.org. Il demeure inquiétant que pour une élection plus serrée ailleurs, de telles tactiques pourraient avoir un impact bien plus important.
- États-Unis (2024) – Deepfakes dans la campagne : Le cycle électoral américain de 2024 a connu une flambée de contenus politiques générés par l’IA qui, sans bouleverser l’élection, a suscité l’inquiétude. Début 2024, des électeurs du New Hampshire ont reçu un appel automatique très étrange : une voix semblant être celle du président Joe Biden intimant aux Démocrates de « préserver leur vote, de ne pas l’utiliser à cette élection ». Pour certains, la voix semblait authentique, mais le message en lui-même était évidemment suspect – jamais Biden ne demanderait à ses partisans de ne pas voter. Il s’agissait en réalité d’un clone vocal deepfake de Biden, envoyé à des milliers d’électeurs dans une forme apparente de tentative de suppression de vote aljazeera.com aljazeera.com. Cet incident, qui aurait touché environ 5 000 numéros du New Hampshire, a montré à quel point il est rapide et peu coûteux de mettre en œuvre de telles manipulations – le consultant ayant conçu le deepfake de la voix de Biden a déclaré que cela lui a seulement pris 20 minutes et coûté près de 1 $ de puissance de calcul policyoptions.irpp.org policyoptions.irpp.org. Parallèlement, sur les réseaux sociaux, des images générées par l’IA se sont retrouvées dans des supports de campagne officiels. Notamment, l’équipe du gouverneur de Floride Ron DeSantis a publié une publicité d’attaque contenant des images retouchées de Donald Trump enlaçant le Dr Anthony Fauci – sous-entendant que Trump aurait été trop proche du conseiller COVID devenu impopulaire à droite. Or, il s’est avéré que ces images de Trump serrant Fauci étaient des faux créés par IA, insérés dans la vidéo par l’équipe de campagne brennancenter.org, ce qui a entraîné des critiques publiques dès leur découverte. Dans un autre cas, une vidéo faite par IA du président Biden « s’adressant » à la nation d’une voix pâteuse a circulé en ligne, avant d’être démentie. Certaines fausses vidéos de Biden et de la vice-présidente Harris ont cumulé des millions de vues sur les réseaux sociaux cetas.turing.ac.uk, illustrant la diffusion fulgurante de ce type de contenus. Même des géants de la tech s’en sont mêlés : Elon Musk a retweeté une vidéo grossièrement modifiée de la vice-présidente Harris (présentée comme une « satire »), la montrant en train de tenir des propos incohérents – brouillant ainsi la frontière entre l’humour et la désinformation cetas.turing.ac.uk cetas.turing.ac.uk. Si aucun de ces deepfakes n’a modifié le cours de l’élection, ils ont cependant renforcé de fausses narrations (par exemple sur les capacités mentales de Biden ou les allégeances de Trump) et ont encore empoisonné l’environnement informationnel. Les autorités américaines s’inquiètent aussi de deepfakes visant l’infrastructure électorale – par exemple de fausses bandes audio dans lesquelles des superviseurs d’élection ordonneraient des manœuvres irrégulières à leur staff aljazeera.com – même si aucun incident d’ampleur de ce type n’a été publiquement confirmé en 2024.
Ces exemples illustrent l’ampleur mondiale de la menace. Les deepfakes ont été utilisés à la fois par des États dans des conflits géopolitiques, par des provocateurs lors d’élections nationales en Europe ou en Asie, et par des équipes de campagne ou leurs soutiens aux États-Unis. Ils prennent la forme de faux discours, images, appels téléphoniques ou vidéos – visant autant les électeurs que les responsables électoraux. Ces incidents apportent aussi des enseignements : de nombreux deepfakes ont bien été détectés et démasqués relativement rapidement (souvent grâce à la vigilance de journalistes ou de vérificateurs de faits), et dans plusieurs cas, le recours aux deepfakes (ex : la publicité DeSantis) a généré une mauvaise presse pour leurs auteurs. Cela montre que la transparence et la vigilance peuvent limiter leur nuisance. Toutefois, la tendance est nette : ces fausses informations synthétiques se multiplient et deviennent de plus en plus difficiles à distinguer du réel. Chaque scrutin apporte son lot de premières fois (2024 a vu les premiers « robocalls » IA pour influencer le vote, les premières publicités de campagne deepfake, etc.), et le risque d’un incident deepfake particulièrement dommageable ne cesse de croître à l’approche de 2025.
Détection et lutte contre les deepfakes : outils et technologies
Un élément essentiel pour protéger les élections consiste à développer des outils fiables de détection et de mitigation contre les deepfakes. Chercheurs, entreprises technologiques et gouvernements s’efforcent de créer des technologies capables de détecter les falsifications générées par l’IA et d’authentifier le contenu réel. Voici un aperçu du paysage actuel de la détection des deepfakes et des contre-mesures associées :
- Détecteurs de deepfakes automatisés : Une première ligne de défense consiste à utiliser l’IA contre l’IA — des algorithmes entraînés à analyser les médias et à identifier les signes révélateurs de manipulation. Ces systèmes de détection recherchent des artefacts subtils ou des incohérences laissés par les modèles génératifs. Les premiers deepfakes, par exemple, présentaient souvent des clignements d’yeux irréguliers ou un synchronisme labial imparfait. Les détecteurs actuels utilisent des réseaux neuronaux profonds pour scruter des éléments tels que l’éclairage et les ombres sur les visages, les motifs de fréquences audio ou les signaux biologiques (par exemple, le pouls dans une vidéo) que l’IA pourrait avoir du mal à reproduire. Les entreprises technologiques ont développé des outils internes – par exemple, Microsoft a publié un “Video Authenticator” en 2020 qui pouvait signaler les vidéos falsifiées par analyse des images. Les plateformes comme Facebook et X (Twitter) ont investi dans la recherche et déploient certains filtres pour détecter les faux contenus connus. Des initiatives académiques et des compétitions (comme le Facebook Deepfake Detection Challenge ou les conférences IEEE) ont stimulé les progrès, et des start-ups comme Sensity ou Reality Defender offrent des services commerciaux de détection des deepfakes à leurs clients. Cependant, il s’agit d’une véritable course à l’armement : à mesure que la détection s’améliore, les créateurs de deepfakes s’adaptent pour produire des falsifications encore plus indétectables. Un rapport Meta de 2023 a ainsi révélé que parmi toutes les désinformations signalées durant le cycle électoral 2024, “moins de 1 %” ont été identifiées comme étant du contenu généré par l’IA weforum.org, ce qui suggère soit que les deepfakes étaient relativement rares soit que beaucoup ont échappé à la détection.
- Filigranage et traçabilité du contenu (provenance) : Une autre stratégie consiste à taguer le contenu généré par l’IA dès sa création, afin que les utilisateurs suivants puissent aisément l’identifier comme synthétique. L’UE promeut fortement cette approche – le nouveau règlement sur l’IA (AI Act) exige expressément que tout contenu généré ou manipulé par l’IA soit clairement étiqueté ou filigrané en tant que tel realitydefender.com. Les entreprises devront intégrer un indicateur (filigrane numérique ou marqueur de métadonnées) lors de la production d’images, vidéos ou audios par IA. En théorie, les navigateurs ou réseaux sociaux pourraient alors signaler ou filtrer automatiquement le contenu porteur de ces marqueurs. Le filigranage présente un intérêt, notamment pour décourager les abus occasionnels. Les principaux fournisseurs de modèles d’IA (comme OpenAI, Google…) discutent du filigranage volontaire des images ou textes générés par leurs systèmes. Par ailleurs, une coalition d’organisations médiatiques et technologiques développe des standards de provenance (par exemple, le C2PA, Coalition for Content Provenance and Authenticity) permettant d’enregistrer cryptographiquement l’origine et l’historique d’édition des médias numériques. Ainsi, une photo d’actualité ou une publicité de campagne pourrait inclure un certificat d’authenticité sécurisé, vérifiable par tous, garantissant sa source et l’absence de falsification cetas.turing.ac.uk. Le gouvernement américain, dans cette logique, a demandé aux agences fédérales de prévoir des directives d’“authenticité dès la conception”, avec des métadonnées de provenance intégrées dans tout contenu digital produit à l’horizon 2025 cetas.turing.ac.uk. Si de telles mesures sont largement adoptées, il deviendrait beaucoup plus difficile pour un faux contenu de se faire passer pour du vrai.
- Limites des étiquettes : Même si ces outils de transparence sont cruciaux, ils n’offrent aucune garantie absolue. Les filigranes peuvent être supprimés ou modifiés par des adversaires déterminés. Des chercheurs ont déjà démontré des techniques pour retirer ou masquer les filigranes d’IA realitydefender.com, et bien sûr, un acteur malveillant qui développe son propre modèle génératif peut omettre tout marquage. Quant aux métadonnées de provenance, elles n’ont d’efficacité que si elles sont largement adoptées et que les utilisateurs les vérifient effectivement. Un créateur de deepfake peut aussi utiliser une astuce dite de “provenance piggybacking” : il utilise une vidéo/photo authentique et y superpose des éléments falsifiés, de sorte que le fichier final conserve la signature numérique du fichier d’origine. Ces défis impliquent que nous ne pouvons nous reposer uniquement sur les étiquettes de contenu. Comme l’a noté une société de sécurité en IA, les solutions de filigranage marchent uniquement lorsque les créateurs collaborent pour l’étiquetage – ce qui ne freinera pas les véritables acteurs malveillants realitydefender.com. C’est pourquoi la détection par inférence (analyse du contenu lui-même pour repérer les traces de manipulation IA) reste essentielle realitydefender.com. La meilleure défense consistera sans doute à combiner ces approches : des détecteurs automatisés robustes pour repérer les faux, et des systèmes d’authentification pour valider les contenus légitimes.
- Détection en temps réel de flux vidéo/audio : Un besoin émergent concerne les outils capables d’identifier les deepfakes en direct. Imaginez un faux appel vidéo “en direct” avec un candidat ou un responsable – comme ce fut le cas à Hong Kong en 2023, où des criminels ont deepfaké un dirigeant d’entreprise sur Zoom pour autoriser un transfert frauduleux de 25 millions de dollars weforum.org. Dans cet exemple, plusieurs interlocuteurs du call – dont un faux directeur financier – étaient tous générés par IA. Détecter de telles fraudes en temps réel est extrêmement difficile. Des entreprises travaillent sur des plugins pour la visioconférence capables d’alerter si l’image ou la voix semble synthétique (par exemple, via l’analyse de la latence sonore, des anomalies spectrales, ou en vérifiant si le visage à l’écran correspond précisément aux mouvements réels capturés par la caméra). Certaines startups proposent des API de détection de deepfake en temps réel intégrables aux plateformes de streaming ou d’authentification de participants à des événements en direct. Pour l’instant cependant, la détection en direct accuse un retard face aux attaquants, et l’accent est mis sur les mesures préventives (comme l’utilisation de mots de passe ou de “codes” partagés par téléphone, tel que recommandé par la police weforum.org).
- Vérification humaine et signalements communautaires : La technologie seule n’est pas une solution miracle. Une couche humaine vigilante reste indispensable. Les rédactions, groupes de fact-checking et plateformes ont mis en place des équipes dédiées à la surveillance des deepfakes viraux lors des périodes électorales. Elles utilisent des techniques OSINT (open source intelligence) et des outils forensiques pour analyser les contenus suspects – vérification des horodatages, recherche d’incohérences (boucles d’oreilles différentes sur un(e) élu(e), mouvements labiaux bizarres…), publication rapide de démentis. Les efforts collectifs aident aussi : sur X/Twitter, la fonctionnalité “Community Notes” permet de signaler des posts contenant des images ou vidéos générées par IA accompagnées d’un correctif. Lors de récentes élections, les utilisateurs ont souvent exposé des deepfakes en quelques heures, en publiant des comparatifs ou en pointant les défauts. Cette vigilance collective, poussée par l’éducation numérique, est un outil puissant. Les plateformes s’appuient de plus en plus sur les utilisateurs et les fact-checkers indépendants, vu l’ampleur du contenu à filtrer. L’inconvénient : un deepfake peut devenir viral avant d’être réfuté. Malgré tout, accélérer la réaction et renforcer la capacité à détecter un faux (pour que le plus d’usagers possible y parviennent eux-mêmes) réduit l’impact négatif.
En résumé, la détection des deepfakes est un domaine actif et en évolution. Les progrès sont notables — les détecteurs actuels sont bien meilleurs qu’en 2018, et des initiatives comme la Content Authenticity Initiative visent à standardiser la vérification. Mais les défis persistent, à cause du jeu du chat et de la souris avec les adversaires et du besoin d’une adoption massive des outils. Dans les prochaines années, on verra ces technologies intégrées aux réseaux sociaux, aux salles de rédaction ou même aux appareils grand public (imaginez un smartphone qui vous prévient qu’une vidéo entrante est potentiellement générée par l’IA). Fondamentalement, outils de détection et de traçabilité doivent être couplés à l’éducation du public pour que, lors de l’apparition d’une alerte ou d’un label, l’utilisateur comprenne et réagisse de façon adaptée. La technique n’est qu’un des piliers d’une stratégie globale pour contrer les menaces des médias synthétiques.
Réponses politiques et cadres réglementaires
Les décideurs du monde entier ont pris conscience de la menace des deepfakes et commencent à rédiger lois et règlements pour y répondre. Bien que la problématique soit récente, on observe déjà un patchwork de réponses dans les grandes démocraties. Voici un panorama des initiatives législatives et réglementaires en cours :
- États-Unis : Aux États-Unis, il n’existe actuellement pas de loi fédérale globale contre les deepfakes politiques, mais la pression monte pour combler ce vide. De nombreux projets de loi ont été déposés au Congrès afin de limiter les deepfakes malveillants. Par exemple, début 2024, des parlementaires ont proposé le No AI FRAUD Act suite à des incidents très médiatisés (comme des images explicites de célébrités générées par IA) policyoptions.irpp.org. Ce texte vise à établir un cadre fédéral criminalisant certains usages nuisibles de l’IA (par exemple les deepfakes politiques frauduleux ou la pornographie deepfake non consentie policyoptions.irpp.org). Une autre piste discutée serait d’obliger à divulguer tout contenu généré par IA dans les publicités électorales (afin que les campagnes comportent un label clair en cas de médias synthétiques). Parallèlement, la Federal Communications Commission (FCC) a pris une mesure ciblée en interdisant l’utilisation de clones vocaux IA dans les appels automatisés à visée frauduleuse ou nuisible policyoptions.irpp.org. Cette décision faisait suite à des arnaques où des imposteurs imitaient la voix de personnes réelles. Il devient donc illégal pour les télévendeurs ou acteurs politiques d’utiliser des messages vocaux synthétiques pour tromper les destinataires. Aux États-Unis, la majeure partie de la régulation des deepfakes se joue au niveau des États. Depuis 2019, la Californie, le Texas et d’autres ont voté des lois contre les deepfakes en contexte électoral. La Californie interdit la diffusion de vidéos de deepfake trompeuses concernant un candidat, dans les 60 jours précédant une élection (avec exceptions pour les satires/parodies) brennancenter.org. Le Texas en a fait un crime d’État passible de prison de créer ou de diffuser des vidéos deepfake visant à nuire à un candidat ou à influencer le vote brennancenter.org. À la mi-2025, quatorze États américains ont adopté ou examinent des lois pour encadrer les deepfakes lors des élections citizen.org. Notons que ces réformes bénéficient d’un rare soutien bipartisan : les élus des deux camps reconnaissent que la désinformation électorale manipulée par IA menace la démocratie citizen.org citizen.org. Les lois diffèrent : certaines punissent pénalement la publication de deepfakes nuisibles sur un candidat, d’autres exigent seulement un label sur les médias synthétiques employés dans les campagnes. Par ailleurs, le groupe citoyen Public Citizen a saisi la Federal Election Commission pour réclamer une interdiction du recours aux deepfakes trompeurs par les candidats fédéraux brennancenter.org. Même si la FEC n’a pas (encore) édicté de nouvelles règles, le sujet prend de l’importance. Les décideurs américains doivent aussi prendre en compte la liberté d’expression : des interdictions trop larges heurteraient le Premier amendement. L’humour, la satire politique voire le journalisme utilisent parfois des images truquées ; la loi doit cibler uniquement les tromperies malveillantes. C’est ce que reflètent de nombreuses lois locales qui prévoient explicitement des exceptions pour les parodies, satires ou l’usage journalistique brennancenter.org brennancenter.org. Le consensus général est que les contenus fallacieux générés par IA qui visent sciemment à tromper l’électeur ou à provoquer des troubles n’ont aucune légitimité dans une démocratie et peuvent donc être interdits sans menacer la liberté d’expression brennancenter.org brennancenter.org.
- Union européenne : L’UE agit rapidement sur la régulation générale de l’IA, avec des dispositions touchant directement aux deepfakes. Le grand AI Act européen, finalisé en 2024 (application complète prévue en 2026, mais certains articles en amont), prévoit une obligation de transparence pour les médias synthétiques. Toute IA capable de générer du contenu “deepfake” devra garantir que ce contenu est étiqueté comme issu de l’IA (sauf dans certaines situations comme l’art ou la recherche en sécurité) realitydefender.com. En pratique, les développeurs de modèles génératifs devront intégrer filigranage/métadonnées signalant l’aspect synthétique des sorties. Faute de quoi, de lourdes amendes sont prévues. Par ailleurs, le Code de bonne conduite contre la désinformation de l’UE (code volontaire signé par les grandes plateformes) désigne explicitement les deepfakes comme une menace et engage ces acteurs à développer “des politiques, mesures et outils pour traiter les contenus manipulés” brennancenter.org brennancenter.org. Par exemple, elles se sont engagées à implémenter des systèmes détectant et étiquetant (ou supprimant) les deepfakes susceptibles de causer un préjudice public, et à coopérer avec les fact-checkers pour réfuter rapidement les faux contenus IA. Selon le Digital Services Act (DSA) — entré en vigueur en 2023 — les très grandes plateformes opérant en Europe doivent évaluer et mitiger les “risques systémiques” sur leurs services, y compris la désinformation issue de l’IA. Cette pression réglementaire a mené des entreprises comme Meta, Google ou TikTok à lancer de nouveaux garde-fous (meilleure détection, labels plus visibles…) en vue des élections européennes 2024–2025. En somme, l’UE adopte une approche réglementaire axée sur la transparence : exiger le marquage des sorties IA et rendre les plateformes responsables de la lutte contre la désinformation deepfake. Certains notent néanmoins que l’application sera difficile (comment attraper tous les faux non étiquetés ?), mais l’UE affiche clairement que les deepfakes incontrôlés sont inacceptables et incompatibles avec ses standards de gouvernance numérique realitydefender.com realitydefender.com.
- Royaume-Uni : Le Royaume-Uni n’a pas encore adopté de lois électorales spécifiques contre les deepfakes, mais il traite le sujet à travers des initiatives plus larges sur la sécurité et l’IA. En 2023, le Royaume-Uni a promulgué l’Online Safety Act, une loi majeure de régulation des contenus nuisibles en ligne. Celle-ci criminalise en particulier la diffusion de porno deepfake non consenti — il devient interdit de créer ou diffuser des images explicites générées par IA sans le consentement de la personne policyoptions.irpp.org. Cela vise l’aspect harcèlement des deepfakes. Concernant la désinformation électorale, la loi donne à l’autorité des communications Ofcom le pouvoir de rédiger des codes de bonnes pratiques sur la désinformation. Les experts l’incitent à élaborer un Code de conduite incluant des standards pour l’IA manipulatrice cetas.turing.ac.uk. Un tel code, s’inspirant du modèle européen, pourrait inciter plateformes et acteurs politiques à s’abstenir de diffuser des deepfakes et à marquer toute production synthétique. Des appels existent aussi pour que la commission électorale publie des directives à destination des partis sur l’usage responsable de l’IA, fixant des lignes rouges pour la campagne cetas.turing.ac.uk. Fin 2024, un comité parlementaire a recommandé le durcissement de la loi pour pénaliser les deepfakes trompeurs lors des élections, sans que de texte officiel ne voie encore le jour. Le gouvernement se dit en train d’examiner si les lois existantes (diffamation, fraude électorale…) suffisent à poursuivre les deepfakes malveillants ou s’il faut de nouveaux textes cetas.turing.ac.uk. Le Royaume-Uni va aussi ouvrir un AI Safety Institute et a accueilli un sommet mondial sur la sécurité de l’IA en 2023 où la manipulation de l’information figurait à l’agenda. Les autorités britanniques semblent miser autant sur la défense technique que sur l’éducation médiatique (voir ci-dessous) que sur l’interdiction légale. Reste que les démarches du Royaume-Uni (pénaliser le porno deepfake, donner des pouvoirs renforcés aux régulateurs) montrent une vraie prise de conscience que les faux contenus IA appellent une réponse politique.
- Canada : En 2024, le Canada n’avait pas de loi spécifique contre l’usage électoral des deepfakes. La Loi électorale du Canada interdit bien la désinformation ou l’usurpation d’identité, mais rien n’y vise explicitement les contenus générés par IA/deepfakes, ce qui oblige à passer par les textes plus généraux (fraude, usurpation…) souvent inadéquats cef-cce.ca. Cette lacune est pointée du doigt par les experts, qui estiment que le Canada “a un ou deux trains de retard” sur les autres pays policyoptions.irpp.org. À l’automne 2023, le Canada a connu un incident modéré : un faux audio d’homme politique a circulé, mais son impact fut limité. Cela a néanmoins braqué l’attention sur la menace. Élections Canada a depuis signalé les infox IA comme une menace émergente et étudie les réponses possibles cef-cce.ca. Des analystes réclament une loi “pour hier” – confiant pourquoi pas au commissaire aux élections le pouvoir de réprimer les médias synthétiques trompeurs en campagne policyoptions.irpp.org. Le Canada peut s’inspirer des alliés : réglementation sur l’obligation d’étiquetage des pubs IA, sanction de la diffusion de matériaux sciemment deepfakes visant à tromper l’électeur… À la mi-2025, aucun projet de loi n’a été déposé, mais la pression monte pour que le pays s’aligne sur les juridictions en pointe policyoptions.irpp.org.
- Autres démocraties : Dans le monde, d’autres pays adoptent déjà diverses mesures :
- Australie : Le gouvernement australien, préoccupé par la désinformation IA avant les prochaines élections, a annoncé un projet de loi “vérité dans la publicité politique” qui interdirait les vidéos et audio deepfake trompeurs en campagne innovationaus.com. Le projet, porté par le gouvernement Albanese en 2023, interdirait de publier des médias synthétiques se faisant passer pour des candidats ou susceptibles d’induire en erreur durant la période électorale innovationaus.com. Cependant, le processus législatif est lent — on estime que ces mesures ne s’appliqueront pas avant 2026 innovationaus.com, laissant probable que l’élection fédérale de 2025 se tienne sans protection complète. En attendant, la Commission électorale australienne a émis des recommandations insistant sur l’importance de la perspective (selon elle, trop insister sur les deepfakes risque de miner la confiance dans les vraies infos) ia.acs.org.au. Les responsables politiques australiens, tous partis confondus, s’accordent à lutter contre la désinformation IA, le débat portant surtout sur les limites à la liberté d’expression theguardian.com sbs.com.au.
- Taiwan : Après avoir été la cible d’ingérences deepfake de la Chine, Taiwan a actualisé ses lois électorales. En 2023, le parlement a modifié la loi électorale pour interdire explicitement la diffusion d’audio/vidéo modifiés sur un candidat dans l’intention d’influencer faussement le scrutin policyoptions.irpp.org. Cela dote les autorités d’un instrument clair pour poursuivre les auteurs des diffamations deepfake observées en 2024. Taiwan a aussi investi dans l’éducation du public et dans un système de réponse rapide (impliquant gouvernement, société civile et plateformes) pour démentir les fausses infos, avec une certaine efficacité policyoptions.irpp.org policyoptions.irpp.org.
- Démocraties européennes : Certains pays européens, indépendamment des règles UE, adaptent le droit existant pour viser les deepfakes. Par exemple, la loi française de 2018 contre les “fausses informations” électorales peut s’appliquer à des deepfakes diffusés pour fausser un scrutin. La législation allemande sur la diffamation et les élections pourrait être mobilisée de même. Mais des propositions émergent : en Allemagne, débats sur l’obligation de déclaration de tout média synthétique utilisé dans une campagne. Au Royaume-Uni, comme vu plus haut, des amendements futurs (étiquetage des pubs digitales…) pourraient aussi cibler les deepfakes cetas.turing.ac.uk.
- Initiatives internationales : On reconnaît de plus en plus que la coopération mondiale est indispensable, la désinformation franchissant les frontières. Le G7 a mis en place un groupe de travail “Gouvernance de l’IA” qui, en 2024, a publié une déclaration sur la lutte contre les usages malveillants de l’IA dans l’espace informationnel. L’administration Biden a obtenu des grands développeurs IA (OpenAI, Google, Meta, etc.) des engagements volontaires : filigranage des contenus IA, investissements dans la prévention des abus… Ces démarches ne sont pas contraignantes mais témoignent d’une norme internationale émergente en faveur de la transparence et responsabilité dans l’usage de l’IA.
En résumé, les réponses politiques aux deepfakes s’accélèrent. La législation doit encore rattraper la technologie, mais la tendance est nette : les États cherchent à pénaliser les usages les plus dangereux des médias synthétiques en politique, à imposer la transparence (labels/déclarations) pour les contenus IA et à donner pouvoir aux autorités ou commissions électorales pour sévir contre les falsifications numériques. Simultanément, il s’agit de protéger l’expression légitime (satire, journalisme…) et d’éviter toute dérive liberticide. Trouver ce juste équilibre est délicat. Les approches – des lois locales américaines aux mandats européens – offriront un laboratoire grandeur nature dès 2025. Nul doute que les outils seront adaptés au fil de l’expérience. Mais l’inaction n’est pas une option : comme le résume un site de veille, “Sans régulation, les deepfakes risquent de désorienter encore plus les électeurs et de miner la confiance dans les élections.” citizen.org citizen.org La prochaine section présentera nos recommandations stratégiques à destination de l’ensemble des parties prenantes de la démocratie.
Recommandations stratégiques pour la protection des élections
Défendre l’intégrité électorale à l’ère de l’IA nécessitera une stratégie à volets multiples. Aucun outil ni loi unique ne peut résoudre le problème des deepfakes ; au contraire, un effort coordonné des gouvernements, des plateformes technologiques, des médias et de la société civile est nécessaire. Vous trouverez ci-dessous des recommandations stratégiques à travers ces secteurs pour atténuer les risques et garantir que les électeurs puissent prendre des décisions éclairées en 2025 et au-delà :
Gouvernements et décideurs politiques
1. Renforcer les protections juridiques et la dissuasion : Les gouvernements devraient adopter ou mettre à jour des lois pour interdire explicitement l’utilisation malveillante des médias synthétiques lors des élections. Cela inclut le fait de rendre illégal la création ou la diffusion, dans l’intention de tromper le public ou de saboter une élection, de tout deepfake représentant faussement un candidat ou manipulant des informations liées à l’élection (comme les procédures de vote). Il est essentiel que la législation soit précisément ciblée : elle doit viser la tromperie intentionnelle (désinformation), avec des exemptions claires pour la satire, la parodie ou l’expression artistique évidente. Les sanctions (amendes ou peines pénales) créeront un effet dissuasif pour les diffuseurs potentiels de deepfakes, surtout si elles sont appliquées rapidement. Par exemple, l’interdiction proposée en Australie concernant les deepfakes trompeurs lors des campagnes et les nouvelles clauses de Taïwan contre les contenus électoraux manipulés par l’IA peuvent servir de modèles innovationaus.com policyoptions.irpp.org. Aux États-Unis, une action fédérale (comme la proposition de loi No AI FRAUD Act) pourrait fixer une référence nationale, en complément aux lois des États. Par ailleurs, les gouvernements devraient mettre à jour les règles de financement des campagnes et de publicité : toute publicité politique (en ligne ou diffusée) contenant des médias synthétiques devrait obligatoirement comporter un avertissement clair (ex : « Cette image/vidéo est générée par l’IA »), afin que les spectateurs ne soient pas induits en erreur. La réglementation de la vérité dans la publicité politique doit s’étendre au contenu généré par l’IA.
2. Mettre en place des protocoles d’intervention en cas d’incident électoral : Les autorités électorales doivent établir des protocoles formels pour réagir en temps réel à des incidents graves impliquant des deepfakes. Un excellent exemple est le Protocole public d’incident électoral critique du Canada, qui rassemble les hauts responsables afin d’évaluer et d’informer le public des menaces d’ingérence étrangère ou de désinformation lors d’une élection cetas.turing.ac.uk cetas.turing.ac.uk. D’autres démocraties devraient adopter des mécanismes similaires. Si un deepfake dangereux apparaît (par exemple, une vidéo fabriquée d’un candidat concédant sa défaite diffusée le jour de l’élection), le protocole serait déclenché – les responsables, les experts du renseignement et les plateformes technologiques vérifieraient rapidement la véracité de l’information et publieraient une annonce publique pour démentir le faux et clarifier les faits cetas.turing.ac.uk. Cette capacité de réfutation rapide est cruciale pour freiner l’impact de la désinformation de type « lance à incendie ». Les gouvernements devraient s’entraîner à répondre à ces situations à l’avance (par la simulation de divers scénarios de deepfakes) afin de pouvoir réagir rapidement et d’une seule voix lorsque cela s’avère nécessaire.
3. Investir dans l’infrastructure de détection et d’authentification : Les agences du secteur public doivent investir massivement dans l’amélioration de la détection des deepfakes et l’authentification des contenus. Il s’agit de financer la R&D (par exemple, des programmes de type DARPA axés sur la désinformation médiée par l’IA), de soutenir le déploiement d’outils de détection pour un usage électoral, et d’adopter des normes d’authentification dans les communications gouvernementales. Une mesure concrète consiste pour les médias publics (chaînes d’État, comptes officiels sur les réseaux sociaux, etc.) à intégrer des métadonnées de provenance vérifiables à toutes les photos, vidéos et audios officiels qu’ils publient cetas.turing.ac.uk. Ce faisant, ils créent un socle d’informations « authentiques et vérifiées ». Électeurs et journalistes pourraient alors faire confiance à toute vidéo portant le sceau gouvernemental dans ses métadonnées – et, à l’inverse, se montrer plus méfiants face à des images similaires sans cette garantie. Les gouvernements peuvent ouvrir la voie à cette approche « authenticité par conception » cetas.turing.ac.uk, déjà explorée par les États-Unis et le Royaume-Uni. Par ailleurs, les forces de l’ordre et les instances de supervision électorale devraient être dotées d’unités d’analyse médico-légale pour évaluer les médias suspects lors des campagnes. Savoir que les autorités disposent de moyens techniques pour tracer et attribuer les deepfakes (et potentiellement remonter jusqu’aux auteurs) aura aussi un effet dissuasif sur les acteurs malveillants.
4. Clarifier et moderniser les lois existantes : De nombreux pays pourraient constater que les lois actuelles sur la fraude, l’usurpation d’identité, la diffamation ou l’ingérence électorale s’appliquent à certains cas de deepfakes – mais il peut exister des lacunes. Les gouvernements doivent passer en revue leur code juridique afin de déterminer si de nouvelles catégories sont nécessaires. Par exemple, avons-nous des lois qui couvrent l’usurpation d’identité d’un responsable public générée par l’IA ? Si ce n’est pas le cas, il faut les instaurer. Veiller à ce que les lois sur la protection des données et la vie privée incluent l’utilisation non autorisée par l’IA de l’image/voix d’une personne comme infraction. Clarifier le statut légal des deepfakes préjudiciables (et mener une sensibilisation publique sur ce point) est important pour que les potentiels malfaiteurs sachent qu’ils pourront être tenus pour responsables. Cela permet également aux victimes (candidats ou citoyens) de demander réparation si elles sont visées. Cette révision doit aussi porter sur les lois électorales : il s’agit de mettre à jour les définitions de publicité électorale illégale ou d’informations trompeuses sur les sondages pour inclure explicitement les manipulations des médias synthétiques cetas.turing.ac.uk. L’objectif est de supprimer toute ambiguïté – un désinformateur potentiel ne doit pas pouvoir prétendre « techniquement ce n’est pas illégal car c’est fait par l’IA ». Des lois explicites simplifient l’application et les poursuites.
5. Renforcer la collaboration internationale : Puisque les campagnes de désinformation proviennent fréquemment de l’étranger (ou se propagent au-delà des frontières), les gouvernements démocratiques devraient collaborer sur ce sujet. Les agences de renseignement et les unités de cybersécurité doivent partager les informations sur les nouvelles tactiques de deepfake observées (par exemple, si un pays repère une opération étrangère de deepfakes, il doit en avertir les autres). Des forums comme l’Alliance pour la Sécurisation de la Démocratie, le G7, les dialogues UE-États-Unis, et d’autres, peuvent coordonner des déclarations et normes conjointes contre les deepfakes électoraux. Des pressions diplomatiques peuvent être exercées sur les acteurs étatiques qui sponsorisent ou tolèrent de telles ingérences. La recherche commune est aussi une piste – par exemple, un centre international de détection des deepfakes pourrait mutualiser les données pour améliorer les algorithmes. Les organismes de surveillance électorale (comme l’OSCE ou les missions d’observation internationales) devraient adapter leurs méthodes pour repérer l’influence des médias synthétiques, et les nations peuvent intégrer des dispositifs face aux deepfakes dans leurs pactes de défense mutuelle des processus démocratiques. Un front uni compliquera l’exploitation des vulnérabilités d’un seul pays par les acteurs malveillants.
6. Promouvoir la sensibilisation du public et la littératie numérique : In fine, les gouvernements ont un rôle à jouer pour éduquer l’électorat sur les deepfakes. De nombreux pays envisagent ou déploient désormais des programmes d’éducation à la littératie numérique dans les écoles et pour le public cetas.turing.ac.uk. Ces programmes enseignent aux citoyens comment vérifier les informations en ligne, reconnaître les signes de manipulation des médias, et exercer leur esprit critique face à la provenance des sources. Vu la crédibilité des faux générés par l’IA, il est vital que chaque électeur sache que ce type de contenus existe et se sente capable de vérifier une information choquante (au lieu de la croire ou la partager aveuglément). Les gouvernements devraient s’associer aux établissements éducatifs et aux ONG pour intégrer la sensibilisation aux deepfakes aux programmes et campagnes de service public. Exemple : diffuser des spots montrant côte à côte de véritables images et des deepfakes d’un responsable politique et expliquant la différence peut accroître la vigilance. Les données montrent que les individus ayant une littératie médiatique et des compétences critiques développées détectent bien mieux les deepfakes et résistent à la désinformation cetas.turing.ac.uk. Le financement d’initiatives de littératie médiatique est donc l’un des moyens de défense les plus efficaces à long terme. Quand le public devient un réseau actif de capteurs – repérant et signalant les faux –, l’impact de la propagande par deepfakes peut être considérablement réduit.
Plateformes technologiques et développeurs d’IA
1. Renforcer les politiques des plateformes et leur application : Les réseaux sociaux et plateformes en ligne sont les principaux canaux de diffusion des deepfakes viraux. Ces entreprises devraient adopter des politiques strictes contre les contenus manipulés trompant les utilisateurs, surtout dans un contexte électoral. Beaucoup de plateformes ont commencé à le faire : par exemple, Facebook et Twitter (X) disposent de politiques visant à supprimer ou étiqueter les « médias manipulés » susceptibles de nuire. Mais l’application doit être robuste. Les plateformes doivent améliorer la détection automatisée des deepfakes (en utilisant les outils récents évoqués précédemment) et garantir une révision rapide par des modérateurs humains lorsque des utilisateurs signalent des contenus suspects. En période électorale, les entreprises peuvent mettre en place des cellules de crise spéciales et des canaux de collaboration avec les commissions électorales pour traiter les incidents de deepfakes en temps réel. Lorsqu’un faux est identifié, les plateformes doivent l’étiqueter comme faux ou le supprimer rapidement, et le déréférencer dans leurs algorithmes pour limiter sa diffusion brennancenter.org brennancenter.org. La transparence est également clé : les plateformes peuvent publier des rapports réguliers sur les deepfakes détectés et les mesures prises, ce qui renforce la confiance du public. Elles doivent aussi partager des exemples de deepfakes détectés avec les chercheurs pour améliorer la compréhension collective.
2. Mettre en œuvre la divulgation et la traçabilité des deepfakes : S’inspirant de l’avance prise par l’UE, les plateformes du monde entier devraient exiger que tout contenu généré par l’IA soit étiqueté et divulgué. Par exemple, si une publicité politique est téléchargée et contient une image ou une voix générée par l’IA, la plateforme pourrait obliger l’uploadeur à cocher une case indiquant « ce contenu comporte des éléments synthétiques » – puis afficher un avertissement aux spectateurs (« Cette vidéo a été modifiée ou partiellement générée par l’IA »). Même en dehors des publicités officielles, les plateformes peuvent utiliser des outils de détection afin de marquer visuellement les vidéos suspectées d’être des deepfakes (par exemple, une superposition avertissant que l’authenticité de la vidéo n’est pas vérifiée). De plus, les réseaux sociaux et services de messagerie pourraient intégrer des fonctionnalités d’authenticité du contenu : en utilisant des standards comme C2PA, ils peuvent afficher une icône à l’utilisateur si la source et l’historique de modification d’une image sont vérifiés, ou signaler si ces données sont absentes. Certaines entreprises technologiques (Adobe, Microsoft, Twitter) sont déjà impliquées dans ce type d’initiatives. En intégrant des signaux de provenance dans leurs interfaces, les plateformes peuvent aider les utilisateurs à distinguer le vrai du faux. Elles devraient aussi mettre en place des mécanismes de traçabilité – par exemple, si un deepfake nuisible se propage, peuvent-elles retrouver qui l’a initialement téléchargé, même si le contenu a été reposté des milliers de fois ? La coopération avec les forces de l’ordre lors d’incidents majeurs (tout en respectant la législation sur la vie privée) sera essentielle pour traquer les auteurs.
3. Bannir les utilisateurs et réseaux de deepfakes malveillants : Les plateformes doivent faire preuve de vigilance face aux acteurs organisés qui déploient des deepfakes de manière répétée. Cela implique de ne pas seulement retirer des contenus individuels, mais bien de fermer les comptes, pages ou bots impliqués dans des campagnes coordonnées de deepfakes. Si une opération est liée à un effort soutenu par un État ou à une ferme de trolls connue, les plateformes devraient le rendre public et éliminer leur présence. De nombreux réseaux de désinformation ont été démantelés ces dernières années ; la même approche agressive doit s’appliquer aux opérations d’influence alimentées par l’IA. Les plateformes doivent mettre à jour leurs conditions d’utilisation pour interdire explicitement la création ou le partage malveillants de médias synthétiques dans le but de tromper autrui. Ces règles servent de base pour l’exclusion des contrevenants. En publicité politique, toute campagne ou PAC pris en flagrant délit d’utilisation de deepfakes trompeurs devrait être sanctionné, par exemple par la perte du droit de diffuser des annonces. Les entreprises technologiques pourraient également coopérer en maintenant une liste noire partagée de hachages ou signatures notoires de deepfakes, afin qu’une fois un faux identifié sur une plateforme, il puisse être bloqué sur d’autres (un peu comme les hachages de contenus terroristes sont partagés via un consortium). L’objectif est essentiellement de rendre l’usage des deepfakes non rentable sur les grandes plateformes – le contenu sera rapidement supprimé, ou l’auteur perdra son compte.
4. Collaborer avec les fact-checkeurs et les autorités : Aucune plateforme ne peut contrôler seule tous les contenus de façon parfaite. La collaboration est vitale. Les entreprises de réseaux sociaux devraient renforcer les partenariats avec des organisations indépendantes de vérification des faits pour évaluer les contenus viraux. Lorsque les fact-checkeurs démentent une vidéo comme étant fausse, les plateformes doivent amplifier cette correction – par exemple en ajoutant un lien vers l’article de vérification à chaque fois que la vidéo est partagée, ou en notifiant tous les utilisateurs l’ayant vue initialement. Des entreprises comme Facebook l’ont déjà fait contre la désinformation traditionnelle et devraient poursuivre dans le cas des deepfakes. De plus, les plateformes devraient collaborer avec les commissions électorales et les agences de sécurité, en particulier lors des périodes électorales. Elles peuvent établir des lignes directes ou des canaux permettant aux autorités de signaler rapidement des deepfakes susceptibles d’influencer le vote, et inversement, alerter les gouvernements en cas de détection de désinformation étrangère. Dans certaines juridictions, des dispositifs formels existent (par exemple, le Code de bonnes pratiques de l’UE encourage le partage d’informations avec les gouvernements sur les menaces de désinformation brennancenter.org). Même aux États-Unis, l’unité cybersécurité du Département de la Sécurité intérieure collabore avec les plateformes pour surveiller la désinformation électorale. Ces collaborations doivent bien sûr respecter la liberté d’expression et ne pas verser dans la censure de discours légitimes. Mais pour les contenus manifestement fabriqués et nuisibles, une réaction rapide et coordonnée entre plateformes et institutions publiques peut empêcher un faux de se propager. Cela peut inclure des communiqués de presse conjoints pour démentir un faux viral ou l’amplification par algorithme de sources faisant autorité pour contrer la propagation.
5. Renforcer les garde-fous des modèles d’IA : Les entreprises qui développent des modèles d’IA générative (OpenAI, Google, Meta, etc.) ont une responsabilité à la source. Elles devraient mettre en place des dispositifs pour empêcher l’utilisation abusive de leurs IA à des fins d’ingérence électorale. Cela peut inclure le filigranage des contenus générés par l’IA, comme évoqué (toute image générée par DALL-E ou Midjourney comporterait une signature intégrée). Cela passe aussi par la curation des données d’entraînement – par exemple, s’assurer que leurs modèles ont appris à refuser des requêtes visant à usurper l’identité réelle d’individus de manière nuisible. Certains outils d’IA refusent déjà de générer des deepfakes d’hommes politiques grâce à des filtres de contenus intégrés. Ces garde-fous doivent être constamment améliorés (même si les modèles open source présentent un défi : ils peuvent être modifiés par des acteurs malveillants pour contourner ces restrictions). Les développeurs d’IA devraient aussi investir dans la recherche sur les techniques de détection des deepfakes et partager leurs avancées avec la communauté. C’est un signe positif que de nombreux grands acteurs de l’IA se soient engagés volontairement à soutenir le filigranage et la vérification de l’authenticité des contenus. À l’avenir, ils pourraient collaborer autour d’une API standard permettant rapidement de vérifier si une vidéo ou un fichier audio a été généré par l’un de leurs modèles. En somme, ceux qui créent le « problème » (la technologie générative) doivent aussi contribuer à la « solution » (les moyens d’identifier leurs productions).
6. Transparence en publicité politique : Les plateformes hébergeant des publicités politiques doivent imposer une transparence stricte concernant l’usage de l’IA. Si une publicité électorale promue sur Facebook ou Google comporte des éléments générés par l’IA, la bibliothèque d’annonces de la plateforme devrait le préciser explicitement. Les plateformes pourraient même exiger des annonceurs politiques qu’ils soumettent la séquence brute non éditée à des fins de comparaison. Plus ambitieusement, les réseaux sociaux pourraient envisager une interdiction temporaire de toutes les publicités politiques contenant des médias synthétiques durant les derniers jours sensibles d’une campagne – comme certaines interdisent déjà les nouvelles publicités politiques à l’approche du jour de l’élection. Cela éliminerait tout risque de blitz de deepfakes de dernière minute. Même si l’application de cette mesure est complexe, le principe est que la promotion payante de contenus trompeurs est particulièrement dangereuse et que les plateformes disposent d’un levier plus important pour réglementer la publicité que les simples publications d’utilisateurs. Assurer une transparence maximale et un retrait rapide des contenus de l’espace publicitaire est crucial, car un deepfake promu par une publicité payante peut toucher des millions de personnes ciblées par les algorithmes, faussant injustement l’information.
Médias et organisations journalistiques
1. Protocoles de vérification rigoureux : Les médias doivent adapter leurs pratiques de vérification à l’ère des deepfakes. Toutes les rédactions – des chaînes de télévision nationales aux journaux locaux en passant par les sites de fact-checking – devraient établir des procédures formelles pour authentifier les contenus audio-visuels avant diffusion ou publication. Cela inclut la formation des journalistes à l’utilisation d’outils d’investigation (par exemple, vérifier les métadonnées des vidéos, analyser les images) et à consulter des experts lorsque nécessaire. Pour tout extrait sensationnaliste ou scandaleux qui surgirait lors d’une élection, les rédacteurs doivent le traiter avec un scepticisme sain et ne pas se précipiter pour le diffuser sans confirmation. Les médias devraient recouper tout contenu généré par des utilisateurs : par exemple, si une vidéo montre un candidat dans une situation choquante, le média doit chercher des preuves corroborantes (témoins, déclarations officielles, etc.) ou, à défaut, obtenir une analyse image par image pour vérifier qu’il ne s’agit pas d’un deepfake. L’objectif est d’éviter de devenir des relais involontaires de la désinformation. De façon encourageante, certaines rédactions ont déjà lancé des cellules internes dédiées aux deepfakes. Dans un cas, des journalistes en Arizona ont même créé leur propre deepfake (avec autorisation) pour sensibiliser leur public à la facilité avec laquelle on peut manipuler une vidéo knightcolumbia.org – une manière astucieuse de sensibiliser. Toutes les rédactions devraient envisager de disposer d’un « expert deepfake » de garde (ou d’un partenariat avec un laboratoire technologique) pour l’analyse rapide de séquences suspectes. En rendant la vérification aussi routinière que le fact-checking, les médias peuvent détecter les faux tôt, ou du moins prévenir leur audience si l’authenticité n’est pas confirmée.
2. Une couverture responsable des deepfakes : Lorsqu’ils traitent de cas de médias synthétiques, les journalistes doivent le faire avec soin et contexte. Si un deepfake visant un candidat devient viral, le sujet n’est pas les allégations fausses elles-mêmes, mais le fait que c’est une manipulation. Les reportages médiatiques doivent éviter de reprendre en détail les fausses allégations ou de diffuser la vidéo truquée sans esprit critique, car cela ne ferait que propager la désinformation. Ils peuvent au contraire la décrire de façon générale et se concentrer sur la réaction (par exemple : « Une vidéo manipulée présentant faussement X accomplissant Y a été publiée en ligne, les experts l’ont démentie »). Les médias pourraient choisir de flouter ou de ne pas lier directement le contenu du deepfake dans leurs articles en ligne cetas.turing.ac.uk, afin d’éviter de générer du trafic vers celui-ci ou de donner aux utilisateurs malveillants la possibilité de le télécharger et de le repartager. Le cadrage du reportage est essentiel : il faut d’abord mettre en avant la tentative de tromper l’opinion et le caractère factice du deepfake plus que la narration qu’il contient cetas.turing.ac.uk. Les médias doivent également souligner les rectifications et la vérité (par exemple : « Non, le politicien Z n’a pas dit cela – la vidéo est une fabrication par IA ; voici ce qu’il a réellement déclaré sur le sujet. »). En agissant ainsi de façon constante, les médias reconnus peuvent aider à immuniser le public contre la croyance ou la diffusion du faux. Il s’agit de trouver le juste équilibre entre traiter la désinformation (car la taire ne la fera pas disparaître) et ne pas la propager involontairement. Des directives, similaires à celles pour la couverture des canulars ou des fusillades de masse (où certains détails sont minimisés pour éviter les imitateurs), pourraient être élaborées pour traiter les deepfakes. L’Independent Press Standards Organisation au Royaume-Uni s’est vue demander d’actualiser ses codes pour traiter ces situations cetas.turing.ac.uk.
3. Utilisation des technologies d’authenticité dans les rédactions : Les organisations de presse elles-mêmes peuvent tirer parti de l’infrastructure d’authenticité émergente. Par exemple, un média pourrait adopter les outils de la Content Authenticity Initiative pour attacher des certificats cryptographiques d’authenticité à toutes les photos et vidéos originales prises par ses journalistes. Cela signifie que toute séquence capturée par, disons, un caméraman de Reuters ou de l’AP pourrait porter un sceau sécurisé attestant de sa provenance et des éventuelles modifications. Par la suite, lorsque le public voit une vidéo issue de Reuters, il pourrait vérifier qu’elle n’a pas été altérée. De telles mesures aident à affirmer ce qui est réel, offrant au public une source de vérité. Les médias devraient également collaborer à la constitution de bases de données de deepfakes connus (et de contenus authentiques), qui pourront aider les vérificateurs de faits. Par exemple, tenir à jour un référentiel de discours et d’entretiens officiels peut permettre de réfuter rapidement un extrait falsifié par comparaison. Les grandes agences de presse pourraient coordonner l’alerte à tous leurs abonnés en cas de détection d’un deepfake dangereux – un peu comme elles lancent les alertes de dernière minute. En interne, les rédacteurs devraient aussi garder à l’esprit que des acteurs politiques pourraient tenter de fournir aux journalistes des médias contrefaits (par exemple : un “fichier audio divulgué” en réalité généré par IA). Il est donc prudent de rester très sceptique envers tout contenu numérique provenant de sources anonymes.
4. Sensibiliser le public : Les médias ont un rôle majeur à jouer pour éduquer les électeurs quant aux médias synthétiques. Les rédactions et journalistes devraient produire des articles explicatifs, des interviews d’experts et des reportages qui montrent au public comment les deepfakes sont créés et comment les repérer. Démystifier cette technologie réduit sa puissance. Par exemple, en 2024, certains journaux télévisés ont démontré à l’antenne des clones vocaux IA pour illustrer comment un appel d’arnaque pourrait imiter la voix d’un proche. De même, la couverture électorale pourrait inclure des rappels : « Si vous voyez une vidéo choquante d’un candidat à la dernière minute, soyez prudent – cela pourrait être un faux. Voici comment vérifier… ». Des campagnes de sensibilisation menées par les médias (voire en partenariat avec le gouvernement ou des ONG) pourraient grandement renforcer la littératie numérique. Les journalistes devraient également adopter un langage précis et constant : qualifier un contenu de « deepfake » ou de « vidéo fausse générée par IA » plutôt que de simple « vidéo truquée » contribue à faire reconnaître cette nouvelle catégorie. À long terme, un public bien informé sera moins susceptible de se faire avoir et plus prompt à exiger des preuves. Le rôle des médias comme interface entre l’information et le public implique le devoir de construire cette résilience.
5. Responsabilité et révélation : Enfin, les journalistes devraient enquêter et mettre en lumière qui se cache derrière les opérations de deepfakes à forte visibilité. Tenir les auteurs responsables devant l’opinion publique peut dissuader les futurs abus. Si une campagne rivale, une ferme à trolls étrangère, ou un groupe en ligne précis est identifié comme source d’un deepfake malveillant, le fait de le rendre public y attachera un stigmate et un risque pour de tels procédés. Les enquêtes sur la production et le financement de ces campagnes de désinformation contribuent à leur perte d’efficacité. Par ailleurs, si un politique ou une personnalité publique partage sciemment un deepfake (par exemple, un candidat tweete une vidéo falsifiée de son adversaire), les médias devraient le dénoncer fermement – en traitant cela comme une faute grave. La perspective de retombées médiatiques négatives peut ainsi dissuader les acteurs politiques de recourir à de telles « sales manœuvres ». En résumé, la mission de vigilance du journalisme s’étend au domaine numérique : enquêter, attribuer et exposer les opérations médiatiques synthétiques malveillantes, comme pour toute autre fraude ou corruption politique.
Initiatives citoyennes et actions de la société civile
1. Littératie numérique et éducation communautaire : Les organisations de la société civile – associations, bibliothèques, universités, groupes locaux – peuvent jouer le premier rôle pour éduquer les citoyens à naviguer l’ère des deepfakes. Des programmes à grande échelle devraient être proposés au sein des communautés pour apprendre à vérifier les médias. Par exemple, des ONG peuvent organiser des ateliers pour enseigner des trucs simples comme la recherche d’images inversées (pour vérifier si une photo a été produite par IA ou manipulée), la recherche de confirmations dans les médias, ou l’utilisation de sites de vérification. Il existe déjà d’excellents guides et programmes développés par des groupes spécialisés (ex. First Draft, Media Literacy Now) consacrés à la détection de la désinformation et des deepfakes ; ils devraient être relayés le plus largement possible. Ces formations devraient viser non seulement les élèves mais aussi les adultes plus âgés, souvent plus exposés à la tromperie en ligne. Des campagnes nationales de littératie numérique peuvent être lancées, éventuellement avec un financement public mais exécutées par des organisations de proximité afin de susciter la confiance. L’objectif est d’élever “l’immunité collective” numérique : si une part suffisante de la population sait reconnaître un faux ou au moins suspendre son jugement jusqu’à vérification, les dés-informateurs perdent une grande partie de leur puissance. Les sondages montrent que le public souhaite acquérir ces compétences – beaucoup se sentent anxieux à l’idée de ne pas savoir distinguer le vrai du faux brennancenter.org brennancenter.org. La société civile peut combler ce manque en donnant aux citoyens des connaissances et des compétences pratiques.
2. Initiatives de vérification et de débunkage : Les vérificateurs indépendants et les vigies citoyennes resteront essentiels. Ils devraient se préparer spécifiquement pour les périodes électorales avec des initiatives du type plateformes de vérification de deepfakes. Par exemple, des coalitions de fact-checkers pourraient tenir un tableau de bord public pendant une élection pour suivre rumeurs et allégations émergentes et proposer des vérifications rapides. Le News Literacy Project a mené une démarche similaire lors des élections américaines de 2024, répertoriant les cas de désinformation et notant combien peu impliquaient réellement l’IA knightcolumbia.org knightcolumbia.org. Ce suivi transparent aide le public et les journalistes à appréhender la réalité de la menace, sans exagérer, tout en traitant les cas avérés. Les groupes civiques peuvent aussi cibler les réseaux sociaux avec des messages correctifs – répondre aux contenus viraux biaisés par des informations justes, en profitant d’outils de type « notes de la communauté ». Il faut aussi promouvoir le « prébunking » : prévenir le public avant qu’un faux ne circule. Par exemple, si les services de renseignement ou les précédents laissent penser qu’un candidat risque d’être ciblé, des groupes citoyens (en lien avec les autorités électorales) peuvent alerter : « Soyez prudent si une vidéo choquante de X apparaît soudainement, il pourrait s’agir d’un deepfake. » Des études montrent que le prébunking permet de réduire significativement la crédulité et la propagation des fausses affirmations cetas.turing.ac.uk cetas.turing.ac.uk. Ainsi, une approche proactive de la société civile – anticipant et neutralisant les campagnes de deepfakes – pourrait s’avérer très payante.
3. Civic Tech et détection participative : Les citoyens technophiles peuvent être mobilisés pour lutter contre les deepfakes. Il existe déjà des bénévoles « chasseurs de deepfakes » qui analysent les médias suspects en ligne. La société civile peut organiser ces efforts via des plateformes – par exemple un portail ou une appli dédiée où les gens soumettent des vidéos ou des sons douteux, et un réseau d’experts ou d’outils d’IA fournit un rapport d’authenticité. Cette intelligence collective pourrait compléter les efforts officiels. De plus, les groupes civic tech pourraient développer des extensions de navigateur ou des applis mobiles permettant à chacun d’identifier des contenus synthétiques. Par exemple, une appli pourrait permettre à l’utilisateur de sélectionner une vidéo sur son écran et de recevoir une analyse instantanée par plusieurs algorithmes de détection (un peu comme un antivirus pour les deepfakes). Même imparfaites, ces solutions pourraient signaler des risques potentiels. Les initiatives open source dans ce domaine devraient être soutenues par des subventions. Autre idée : des numéros de signalement citoyen – comme les hotlines électorales pour les problèmes de vote, il pourrait exister un canal pour signaler désinformation ou deepfakes et permettre aux autorités ou vérificateurs d’y répondre. En impliquant les citoyens comme acteurs de la détection et du signalement, l’ampleur du contrôle s’accroît considérablement. Cette approche distribuée part du principe que dans une société de millions d’internautes, quelqu’un repérera souvent une manipulation rapidement – l’important étant d’acheminer ces alertes sans délai vers ceux qui peuvent vérifier et relayer la vérité.
4. Plaidoyer pour la responsabilité des plateformes : La société civile doit poursuivre ses actions de pression auprès des plateformes technologiques et des entreprises d’IA pour les inciter à adopter des comportements responsables. Les groupes d’intérêt public et think tanks ont été essentiels pour alerter sur les dangers des deepfakes et défendre des réformes (ex. Access Now, EFF et d’autres ont publié des recommandations). Ce plaidoyer doit continuer – en exigeant des plateformes qu’elles mettent en œuvre les mesures citées plus haut (meilleur étiquetage, suppressions efficaces, etc.), et en incitant les fabricants d’IA à intégrer l’éthique dès la conception. La campagne de Public Citizen pour suivre la législation sur les deepfakes dans les États et interpeller la FEC en est un exemple citizen.org citizen.org. De même, les coalitions peuvent exiger de la transparence de la part des plateformes : demander la publication de données sur la quantité de contenus IA présents sur le site, ou sur l’efficacité de leurs outils de détection. Les voix citoyennes sont aussi essentielles pour s’assurer que les éventuelles nouvelles lois protègent bien les libertés civiles (par exemple, en évitant toute réglementation excessive qui bâillonnerait la liberté d’expression sous prétexte de lutte contre les deepfakes). Trouver ce juste équilibre requiert une consultation publique, et les groupes de plaidoyer incarnent la parole citoyenne dans ces débats. Les prochaines années verront sans doute émerger de nouveaux cadres réglementaires pour l’IA et les contenus en ligne – il est crucial que les valeurs démocratiques et les droits humains y soient défendus, rôle que doit jouer la société civile en tant que vigie.
5. Soutien aux victimes et aux personnes visées : Si un candidat ou une personne privée est diffamé par un deepfake, la société civile peut apporter son soutien. Les associations à but non lucratif peuvent offrir une assistance juridique ou des conseils sur la manière de faire retirer des deepfakes diffamatoires et de poursuivre les responsables. Il pourrait y avoir des lignes d’assistance pour les victimes de deepfake pornographique ou d’assassinat de réputation, les mettant en relation avec les forces de l’ordre et des ressources en santé mentale. Pour un candidat victime d’une campagne de dénigrement, les organisations civiques (comme la Ligue des électrices ou les groupes pour l’intégrité électorale) peuvent contribuer à amplifier leur démenti et la réfutation pour minimiser les dégâts. Réagir rapidement pour défendre une personne faussement ciblée – veiller à ce que la vérité soit plus forte que le mensonge – est quelque chose que les groupes communautaires et de plaidoyer peuvent coordonner, comme ils le font souvent en réponse à la diffamation ou aux discours de haine. Plus globalement, la société civile peut faciliter des engagements transpartisans pour qu’en cas de deepfake, tous les camps le condamnent. Imaginez un engagement signé par tous les grands partis d’un pays, promettant de ne pas utiliser les deepfakes et de dénoncer rapidement toute falsification malveillante. De telles normes, encouragées par des groupes comme des comités électoraux interpartis ou des ONG éthiques, réduiraient le risque d’une “course vers le bas” où les partis se sentiraient obligés de répondre de la même façon. Cela crée un front uni qui proclame que les attaques contre la vérité ne seront pas tolérées, quel qu’en soit la cible.
En conclusion, relever le défi des deepfakes exige de mobiliser toutes les défenses de la société : technologiques, juridiques, institutionnelles et humaines. En appliquant les mesures ci-dessus, les gouvernements peuvent renforcer le système électoral contre les manipulations générées par l’IA, les plateformes technologiques peuvent freiner la propagation de contenus trompeurs, les médias peuvent garantir la prévalence de la vérité dans leur couverture, et les citoyens peuvent devenir des gardiens avertis de la réalité. Il n’y a pas de temps à perdre : à mesure que l’IA générative progresse, le cycle électoral de 2025 mettra à l’épreuve la résilience des démocraties face aux mensonges synthétiques. Mais il y a une bonne nouvelle : nous ne sommes pas sans défense. Avec préparation, transparence et collaboration, nous pouvons déjouer et surpasser les campagnes de deepfakes, et préserver l’intégrité de nos élections. Comme le conclut un rapport de recherche de CETaS sur l’IA et les élections, « la complaisance ne doit pas s’installer dans la prise de décision » – nous devrions plutôt saisir ce moment pour renforcer la résilience cetas.turing.ac.uk cetas.turing.ac.uk. Ce faisant, nous défendons le principe que si la technologie évolue, nos valeurs démocratiques de vérité et de confiance doivent perdurer.
Sources
- Stockwell, Sam et al. « AI-Enabled Influence Operations: Safeguarding Future Elections. » CETaS (Alan Turing Institute) Research Report, 13 nov. 2024. cetas.turing.ac.uk cetas.turing.ac.uk
- Stockwell, Sam et al. Ibid. (Rapport CETaS, 2024), Section 2.1 sur les deepfakes lors des élections américaines. cetas.turing.ac.uk cetas.turing.ac.uk
- Beaumont, Hilary. « ‘A lack of trust’: How deepfakes and AI could rattle the US elections. » Al Jazeera, 19 juin 2024. aljazeera.com aljazeera.com
- Sze-Fung Lee. « Le Canada a besoin d’une législation sur les deepfakes au plus vite. » Policy Options, 18 mars 2024. policyoptions.irpp.org policyoptions.irpp.org
- Goldstein, Josh A. & Andrew Lohn. « Deepfakes, Elections, and Shrinking the Liar’s Dividend. » Brennan Center for Justice, 23 janv. 2024. brennancenter.org
- « Médias synthétiques. » Wikipedia (consulté en 2025). en.wikipedia.org en.wikipedia.org
- « Deepfake. » Kaspersky IT Encyclopedia (2023). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
- Hamiel, Nathan. « Les deepfakes se sont révélés une menace différente de celle attendue. Voici comment s’en protéger. » World Economic Forum, 10 janv. 2025. weforum.org weforum.org
- « Réglementer les deepfakes et médias synthétiques en politique. » Brennan Center for Justice, 4 oct. 2023. brennancenter.org brennancenter.org
- Colman, Ben. « Le règlement européen sur l’IA et l’urgence croissante de la détection des deepfakes. » Reality Defender Blog, 11 févr. 2025. realitydefender.com realitydefender.com
- « Tracker : législation locale sur les deepfakes lors des élections. » Public Citizen, 2025. citizen.org citizen.org
- Partnership on AI. « Médias synthétiques et deepfakes – Étude de cas : Slovaquie 2023. » (Cité dans l’analyse Knight Columbia). brennancenter.org brennancenter.org
- Kapoor, Sayash & Arvind Narayanan. « Nous avons étudié 78 deepfakes électoraux. La désinformation politique n’est pas un problème de l’IA. » Knight First Amendment Institute, 13 déc. 2024. knightcolumbia.org knightcolumbia.org
- Rapport CETaS (2024), Recommandations de politique (focus Royaume-Uni). cetas.turing.ac.uk cetas.turing.ac.uk
- Rapport CETaS (2024), Recommandations concernant la détection et la traçabilité. cetas.turing.ac.uk cetas.turing.ac.uk
- Sécurité publique Canada. « Prévenir la désinformation grâce à l’IA » (note de synthèse 2023). policyoptions.irpp.org policyoptions.irpp.org
- InnovationAus. « L’interdiction des deepfakes électoraux du gouvernement en attente jusqu’en 2026. » (Australie) 2023. innovationaus.com
- Références supplémentaires : articles Reuters, Wired et CNN cités dans les sources ci-dessus pour des incidents spécifiques (par exemple, le deepfake de Zelensky, fraude de 25 millions de dollars à Hong Kong via deepfake sur Zoom weforum.org), et alertes de la FTC aux consommateurs sur les arnaques par clonage vocal weforum.org. Celles-ci sont intégrées à l’analyse et accessibles via les liens sources listés.