I progressi nell’intelligenza artificiale hanno reso possibile la creazione di media sintetici – contenuti generati o manipolati dall’IA – su una scala senza precedenti. Mentre le nazioni democratiche si avviano verso il ciclo elettorale del 2025, funzionari ed esperti stanno lanciando l’allarme sul rischio di disinformazione guidata dall’IA. In un sondaggio recente, l’85% degli americani ha espresso preoccupazione riguardo ai “deepfake video e audio ingannevoli” che potrebbero influenzare le elezioni brennancenter.org. I titoli dei giornali avvertono che i “deepfake” generati dall’IA potrebbero scatenare il caos nelle campagne elettorali e minare la fiducia degli elettori brennancenter.org, sottolineando l’urgenza di proteggere l’integrità elettorale. Questo rapporto esamina cosa sono i media sintetici e i deepfake, come minacciano la democrazia e cosa si può fare – dalle soluzioni tecnologiche alle politiche – per salvaguardare le elezioni del 2025 e oltre.
Cosa sono i Media Sintetici e i Deepfake?
Media sintetici è un termine generico che si riferisce a contenuti digitali (immagini, video, audio, testo) prodotti o alterati artificialmente mediante strumenti automatizzati, in particolare algoritmi di intelligenza artificiale en.wikipedia.org. Gli attuali sistemi di IA generativa possono creare risultati realistici e simili a quelli umani in qualsiasi mezzo – da foto verosimili di persone che non sono mai esistite, a voci clonate e articoli scritti dall’IA. I deepfake sono un sottoinsieme particolare dei media sintetici: immagini, video o audio falsi e altamente realistici creati dall’IA (da qui il termine “deep learning” + “fake”) per impersonare persone reali encyclopedia.kaspersky.com. Nella pratica, un deepfake può essere un video in cui il volto di un politico viene convincentemente sostituito su un altro corpo, o una registrazione audio che imita la voce di un candidato dicendo parole che in realtà non ha mai pronunciato.
Come vengono creati i deepfake? La maggior parte viene generata attraverso tecniche avanzate di deep learning. Un approccio comune utilizza le reti generative avversarie (GAN) – due reti neurali che si allenano l’una contro l’altra icct.nl. Una rete (il generatore) fabbrica media falsi (ad es. l’immagine del volto di una persona) e l’altra (il discriminatore) cerca di individuare se sono falsi. Attraverso migliaia di iterazioni, il generatore impara a produrre risultati sempre più realistici finché il discriminatore non riesce più a distinguerli icct.nl. Originariamente, per creare un deepfake credibile erano necessari molti dati di addestramento e hardware potente – ad esempio, un esperimento per realizzare un deepfake dell’attore Tom Cruise ha richiesto due mesi di training su GPU di fascia alta icct.nl. Tuttavia, gli strumenti si sono evoluti rapidamente. Software di deepfake sofisticati sono ormai ampiamente accessibili e più veloci, talvolta persino operativi in tempo reale (ad esempio, alterando un flusso video live o una chiamata vocale al volo) encyclopedia.kaspersky.com. Oltre alle GAN, altre architetture di IA giocano un ruolo: i modelli transformer possono generare deepfake testuali o aiutare nella clonazione vocale encyclopedia.kaspersky.com. In sintesi, le recenti scoperte sull’IA hanno reso facile ed economico per chiunque creare contenuti audiovisivi ingannevoli – abbassando drasticamente la barriera agli operatori di disinformazione.
È importante sottolineare che non tutti i media sintetici sono dannosi. I contenuti generati dall’IA possono essere usati per finalità innocue e creative – avatar personalizzati, doppiaggio della voce in altre lingue, satira ed intrattenimento, ecc. In effetti, durante le elezioni del 2024 a livello globale, circa la metà dei casi documentati di utilizzo dell’IA nei contenuti politici erano non ingannevoli (ad esempio, un candidato che dichiara apertamente di usare una voce IA perché ha perso la propria voce, o giornalisti che usano un avatar IA per proteggere la propria identità) knightcolumbia.org knightcolumbia.org. Questo rapporto, tuttavia, si concentra sul lato dannoso dei media sintetici – i deepfake ideati per ingannare, trarre in inganno o manipolare elettori e opinione pubblica.
Rischi per i Processi Democratici
I media sintetici e i deepfake rappresentano rischi significativi per la democrazia, soprattutto durante le elezioni in cui un elettorato informato e la fiducia nelle informazioni sono fondamentali. Le principali minacce includono:
- Disinformazione e Manipolazione degli Elettori: Video, immagini o audio falsificati con l’IA possono essere utilizzati per diffondere false informazioni sui candidati o sugli argomenti in voto, fuorviando gli elettori. Ad esempio, un deepfake potrebbe mostrare un candidato che pronuncia dichiarazioni incendiarie che non ha mai fatto. Questi contenuti fabbricati possono iniettare falsità tossiche nel dibattito pubblico. Gli esperti avvertono che i deepfake “rappresentano un rischio elevato” per gli elettori poiché iniettano contenuti falsi nelle campagne e erodono la fiducia pubblica aljazeera.com. Un video falsificato rilasciato poco prima delle elezioni – senza tempo per i fact-checker di smentirlo – potrebbe persino influenzare gli elettori indecisi o scoraggiare la partecipazione, potenzialmente alterando il risultato citizen.org. Questa minaccia non è puramente teorica: come descritto più avanti, un deepfake audio nel 2024 ha impersonato il Presidente degli Stati Uniti invitando i sostenitori a non votare, apparentemente con l’intento di scoraggiare la partecipazione aljazeera.com aljazeera.com.
- Erosione della Fiducia (“Dividendo del Bugiardo”): Oltre il singolo caso falso, la sola esistenza dei deepfake può minare la fiducia pubblica nelle informazioni reali. Gli elettori possono iniziare a dubitare delle prove autentiche, senza sapere se un video virale sia reale o una contraffazione IA. Ancora peggio, attori corrotti possono sfruttare questo dubbio: scandali reali o registrazioni veritiere possono essere liquidati come “è solo un deepfake”, permettendo agli scorretti di evitare responsabilità. Gli studiosi hanno definito questo fenomeno il “dividendo del bugiardo”, dove la maggiore consapevolezza dei deepfake rende più facile ai bugiardi affermare che materiale autentico sia falso brennancenter.org. La crescente consapevolezza dei poteri dell’IA significa che un politico colto realmente in fallo potrebbe più facilmente ingannare il pubblico etichettando come falso IA audio o video compromettenti brennancenter.org. Questa dinamica minaccia la fiducia fondamentale su cui si basa il discorso democratico. Gli osservatori elettorali hanno notato che nel 2024 alcuni candidati e i loro sostenitori hanno preventivamente gridato “è un falso IA” per screditare notizie scomode brennancenter.org brennancenter.org. Nel lungo termine, se i cittadini arrivano a pensare che “non ci si può fidare di nulla di ciò che si vede o si sente”, si erode la realtà condivisa necessaria per elezioni libere e corrette cetas.turing.ac.uk cetas.turing.ac.uk.
- Amplificazione della Polarizzazione e del Conflitto: Finora, le prove suggeriscono che la propaganda deepfake rafforza spesso i pregiudizi preesistenti delle persone più che convincere chi sta dall’altra parte cetas.turing.ac.uk. I contenuti maligni generati dall’IA vengono spesso accolti e diffusi da chi ha già posizioni estreme, amplificando le echo chamber. Durante la campagna presidenziale statunitense del 2024, i ricercatori hanno rilevato che le falsità IA hanno perlopiù intensificato le narrazioni partigiane e infiammato i dibattiti, più che convertire nuovi sostenitori cetas.turing.ac.uk. Ad esempio, video falsi contro il Presidente Biden o la Vicepresidente Harris hanno ottenuto milioni di visualizzazioni online e sono stati diffusi principalmente da utenti già ostili verso di loro cetas.turing.ac.uk cetas.turing.ac.uk. Consolidando i vari schieramenti ideologici con drammatiche prove “finte” delle nefandezze dell’altra parte, i deepfake possono allontanare sempre di più le comunità e avvelenare il clima della campagna elettorale. Inoltre, la confusione e la sfiducia seminate dai deepfake creano terreno fertile per le teorie del complotto cetas.turing.ac.uk, poiché i cittadini possono più facilmente negare qualsiasi realtà scomoda come artificio dell’IA.
- Sovvertimento dell’Amministrazione Elettorale: Il rischio va oltre la semplice disinformazione sui candidati – i deepfake potrebbero anche distorcere direttamente il processo elettorale. I funzionari hanno immaginato scenari in cui voci clonate dall’IA o messaggi falsi si presentano come provenienti dalle autorità elettorali, ordinando agli scrutatori di chiudere i seggi in anticipo o fornendo agli elettori istruzioni sbagliate (ad es. “le elezioni sono state rimandate”) aljazeera.com. Un avversario sofisticato potrebbe simulare una direttiva di una commissione elettorale o la voce di un funzionario locale affinché si saboti il corretto svolgimento del voto. Tali tattiche potrebbero ridurre la partecipazione o creare caos nel giorno delle elezioni. Il Brennan Center statunitense osserva che i media manipolati potrebbero essere usati per ingannare non solo il pubblico ma anche scrutatori e funzionari, richiedendo nuove formazioni e protocolli aljazeera.com.
- Molestie e Distruzione della Reputazione: I deepfake offrono anche un’arma potente per attacchi personali contro candidati, attivisti o giornalisti. Una categoria particolarmente insidiosa consiste nella pornografia sintetica non consensuale – il viso di una persona montato su contenuti sessuali espliciti. Questa tattica è già stata usata per molestare giornaliste e politiche in tutto il mondo. La forma più estrema di molestie deepfake è la creazione di immagini intime false con lo scopo di umiliare o ricattare le vittime weforum.org. Nel contesto elettorale, operatori potrebbero rilasciare un video compromettente falso (ad esempio un sex tape deepfake o una registrazione fasulla di un candidato coinvolto in attività illegali) poco prima delle votazioni. Anche se rapidamente smentito, il danno reputazionale potrebbe essere irreversibile. Donne e minoranze sono colpite in modo sproporzionato da queste “campagne diffamatorie sintetiche”, che scoraggiano la partecipazione di candidati diversi policyoptions.irpp.org policyoptions.irpp.org. In sintesi, i deepfake danno nuovo impulso ai vecchi trucchi sporchi – da scandali falsi a citazioni inventate – alimentando la distruzione della reputazione in campagna elettorale.
Infine, va notato che finora non si è ancora verificata una catastrofe elettorale causata dai deepfake. Analisi empiriche delle elezioni 2024 in tutto il mondo hanno riscontrato pochissime prove che la disinformazione IA abbia cambiato i risultati finali cetas.turing.ac.uk weforum.org. La disinformazione “tradizionale” (video manipolati a basso costo, voci, propaganda partigiana) ha avuto un impatto molto più rilevante nella diffusione delle falsità rispetto ai deepfake high-tech knightcolumbia.org knightcolumbia.org. Tuttavia, gli esperti avvertono che l’assenza di una catastrofe finora non deve portare a compiacimento cetas.turing.ac.uk weforum.org. La tecnologia sta avanzando rapidamente e gli attori ostili stanno imparando. Anche se i deepfake non hanno determinato l’esito di una grande gara nel 2024, essi hanno comunque plasmato il discorso pubblico – ad esempio, menzogne IA virali sui candidati sono diventate argomenti di dibattito nei confronti mainstream cetas.turing.ac.uk. Inoltre, la percezione stessa del rischio deepfake ha contribuito ad aumentare ansia e sfiducia nei confronti delle elezioni cetas.turing.ac.uk cetas.turing.ac.uk. Rimane elevato il potenziale per un incidente più grave, soprattutto avvicinandoci alle elezioni critiche del 2025. Le società democratiche devono quindi trattare i deepfake come una seria questione di sicurezza e integrità, affrontando sia il rischio diretto dei media fabbricati che la più ampia erosione della verità nell’ambito elettorale.
Incidenti Recenti: I Deepfake che Sconvolgono la Politica
Casi reali degli ultimi anni illustrano come i media sintetici siano già stati utilizzati come arma in contesti politici. Di seguito esaminiamo alcuni incidenti e casi di studio notevoli di deepfake e disinformazione generata dall’IA che hanno influenzato elezioni o il dibattito pubblico:
- Ucraina (marzo 2022) – Video della “Resa”: Nei primi giorni della guerra della Russia contro l’Ucraina, è emerso un video che sembrava mostrare il presidente ucraino Volodymyr Zelensky che invitava le sue truppe a deporre le armi e arrendersi. Il video era un deepfake, con l’immagine e la voce di Zelensky alterate sinteticamente icct.nl. Flaws evidenti (bordi sfocati, tono del collo non corrispondente) ne hanno svelato la falsità e i media ucraini hanno rapidamente smascherato l’inganno. Questo episodio – il primo uso noto di un deepfake in un conflitto armato – ha anticipato come la propaganda IA potrebbe essere usata per indebolire i leader durante crisi icct.nl. Anche se il video falso di Zelensky non è riuscito a demoralizzare la resistenza ucraina, ha dimostrato l’intenzione e la capacità di attori malintenzionati (in questo caso presunti operativi russi) di usare i deepfake per la guerra informativa.
- Slovacchia (settembre 2023) – Disinformazione Elettorale: Pochi giorni prima delle elezioni parlamentari in Slovacchia, registrazioni audio deepfake sono diventate virali fingendo di mostrare Michal Šimečka, leader del partito Progressive Slovakia, che confessava brogli elettorali e proponeva addirittura di raddoppiare il prezzo della birra brennancenter.org. Alcune versioni avevano una debole avvertenza che si trattava di audio generato dall’IA, ma compariva solo alla fine del clip – probabilmente una strategia deliberata per ingannare gli ascoltatori brennancenter.org. Il tempismo era chiaramente strategico, immediatamente prima del voto. Il partito filo-occidentale di Šimečka perse di poco contro un rivale filo-Cremlino e alcuni commentatori hanno ipotizzato che la campagna diffamatoria deepfake all’ultimo minuto possa aver influenzato il risultato brennancenter.org. Questo caso sottolinea come attori stranieri o interni possano utilizzare deepfake per influenzare una gara elettorale serrata, e quanto possa essere difficile contrastare narrazioni false negli ultimi momenti di una campagna.
- Taiwan (gennaio 2024) – Operazioni di Influenza Straniera: In vista delle elezioni presidenziali di Taiwan del 2024, osservatori hanno documentato una campagna di disinformazione cinese che utilizza deepfake per minare il candidato Lai Ching-te. Falsi video circolavano online mostrando Lai (del partito di governo pro-indipendenza) fare dichiarazioni mai pronunciate – ad esempio, facendo falsamente intendere il suo sostegno alla piattaforma degli avversari policyoptions.irpp.org. In un caso, fu pubblicato un audio IA di Lai che sembrava criticarlo il proprio partito policyoptions.irpp.org, nel tentativo di frammentare il suo sostegno. Questi attacchi mediatici sintetici, ricondotti alla Cina, volevano influenzare l’opinione pubblica e seminare confusione nella democrazia di Taiwan policyoptions.irpp.org. Alla fine, Lai ha vinto le elezioni e gli analisti hanno valutato che la campagna cinese dei deepfake non abbia modificato significativamente il risultato policyoptions.irpp.org. Tuttavia, ha fornito un esempio da manuale di una potenza straniera ostile che usa la propaganda IA contro un’elezione democratica policyoptions.irpp.org policyoptions.irpp.org. Rimane la preoccupazione che, in un’elezione più combattuta altrove, tali tattiche potrebbero avere un impatto maggiore.
- Stati Uniti (2024) – Deepfake nella Campagna Elettorale: Il ciclo elettorale statunitense del 2024 ha visto un aumento di contenuti politici generati dall’IA che, pur non avendo sconvolto le elezioni, ha comunque generato allarme. All’inizio del 2024, alcuni elettori del New Hampshire hanno ricevuto una misteriosa telefonata automatica: una voce simile a quella del presidente Joe Biden che diceva ai Democratici “di salvare il proprio voto, di non usarlo in queste elezioni.” La voce sembrava autentica a molti, ma il messaggio era palesemente sospetto – Biden non inviterebbe mai i suoi elettori a non votare. In realtà si trattava di un clone vocale deepfake di Biden, inviato a migliaia di elettori in un apparente tentativo di soppressione del voto aljazeera.com aljazeera.com. Questo episodio, che ha raggiunto circa 5.000 numeri del New Hampshire, ha illustrato quanto siano facili ed economici questi trucchi sporchi – il consulente che ha creato la voce deepfake di Biden ha raccontato che ha impiegato solo 20 minuti e circa 1 dollaro di costi di calcolo policyoptions.irpp.org policyoptions.irpp.org. Nel frattempo, sui social, immagini generate dall’IA hanno trovato spazio nei materiali ufficiali della campagna. In particolare, il team del governatore della Florida Ron DeSantis ha pubblicato uno spot contro Trump che mostrava immagini manipolate di Donald Trump che abbraccia il dottor Anthony Fauci – a suggerire che Trump fosse troppo amichevole con l’ex consigliere per il COVID, impopolare presso i conservatori. Si è scoperto che le immagini di Trump che abbracciava Fauci erano falsi creati dall’IA, inseriti nel video dalla campagna brennancenter.org, generando molte critiche quando il fatto è venuto alla luce. In un altro caso, un video IA di Biden che “si rivolgeva” alla nazione biascicando le parole si è diffuso rapidamente online, salvo poi essere smentito. Alcuni video falsi di Biden e della vicepresidente Harris hanno raggiunto milioni di visualizzazioni sui social media cetas.turing.ac.uk, dimostrando la rapidità di propagazione di questi contenuti. Anche alcuni magnati tech sono intervenuti: Elon Musk ha rilanciato un video alterato in modo rozzo e etichettato “satira” sulla VP Harris, che la mostrava mentre pronunciava assurdità – confondendo così il confine tra meme umoristici e disinformazione cetas.turing.ac.uk cetas.turing.ac.uk. Pur non avendo cambiato la traiettoria delle elezioni, questi deepfake hanno rafforzato narrazioni false (ad esempio, sulla salute mentale di Biden o sulle lealtà di Trump) e hanno avvelenato ulteriormente l’ambiente informativo. Le autorità statunitensi temono anche i deepfake diretti alle infrastrutture elettorali – ad esempio, audio falsificati di supervisori elettorali che danno istruzioni improprie aljazeera.com – anche se nel 2024 non si sono registrati episodi rilevanti di questo tipo resi pubblici.
Questi esempi evidenziano la portata globale della minaccia. I deepfake sono già stati utilizzati da attori statali in conflitti geopolitici, da provocatori in elezioni interne dall’Europa all’Asia, e da campagne e sostenitori negli Stati Uniti. Hanno assunto la forma di discorsi, immagini, telefonate e video fasulli – prendendo di mira sia gli elettori, sia i funzionari elettorali. Gli episodi finora hanno suggerito alcune lezioni: molti deepfake sono stati scoperti ed esposti abbastanza rapidamente (spesso grazie a giornalisti o fact-checker attenti) e in diversi casi la reazione contro l’uso di deepfake (ad esempio lo spot di DeSantis) ha generato effetti negativi per chi li ha promossi. Tutto ciò suggerisce che trasparenza e vigilanza possono ridurne i danni. Tuttavia, la tendenza è chiara: queste falsità sintetiche stanno diventando sempre più frequenti e difficili da distinguere subito dalla realtà. Ogni elezione introduce nuove “prime volte” (il 2024 ha visto le prime telefonate automatizzate IA per influenzare il voto, il primo utilizzo di pubblicità deepfake in campagna, ecc.) e il rischio di un incidente deepfake più dannoso si fa sempre più concreto con l’avvicinarsi del 2025.
Rilevamento e contrasto dei deepfake: strumenti e tecnologie
Una componente fondamentale per la tutela delle elezioni è lo sviluppo di strumenti affidabili di rilevamento e mitigazione contro i deepfake. Ricercatori, aziende tecnologiche e governi stanno gareggiando per creare tecnologie in grado di individuare i falsi creati dall’AI e autenticare i contenuti reali. Di seguito, una panoramica dello scenario attuale del rilevamento dei deepfake e delle relative contromisure:
- Rilevatori automatici di deepfake: Una difesa primaria è l’AI che combatte l’AI: algoritmi addestrati per analizzare i media e individuare i segni tipici della manipolazione. Questi sistemi di rilevamento cercano sottili artefatti o incoerenze lasciati dai modelli generativi. I primi deepfake, ad esempio, avevano spesso battiti di ciglia irregolari o un lip-sync imperfetto. I rilevatori odierni usano reti neurali profonde per analizzare elementi come illuminazione e ombre sui volti, schemi di frequenza audio o segnali biologici (ad esempio il battito in un video) che l’intelligenza artificiale potrebbe non replicare bene. Le aziende tech hanno sviluppato strumenti interni – Microsoft, ad esempio, ha lanciato il “Video Authenticator” nel 2020, capace di segnalare video falsi tramite analisi dei frame. Piattaforme come Facebook e X (Twitter) hanno investito in ricerca sul rilevamento e applicano alcuni filtri per intercettare media falsi noti. Iniziative accademiche e competizioni (come il Facebook Deepfake Detection Challenge e i congressi IEEE) hanno stimolato i progressi, e startup come Sensity e Reality Defender offrono servizi commerciali di rilevamento deepfake ai clienti. Tuttavia, si tratta di una vera corsa agli armamenti: man mano che il rilevamento migliora, i creatori di deepfake si adattano per generare falsi sempre più credibili e difficili da individuare automaticamente. In particolare, un report di Meta del 2023 ha rilevato che tra tutte le disinformazioni segnalate durante il ciclo elettorale 2024, “meno dell’1%” è stato identificato come contenuto generato da AI weforum.org, il che suggerisce che i deepfake fossero relativamente rari oppure che molti siano sfuggiti al rilevamento.
- Watermarking e provenienza dei contenuti: Un’altra strategia consiste nel etichettare i contenuti generati dall’AI fin dalla loro creazione, affinché gli utenti a valle possano riconoscerli facilmente come sintetici. L’UE sta promuovendo fortemente questo approccio – il nuovo AI Act europeo impone esplicitamente che ogni contenuto creato o manipolato dall’AI sia chiaramente etichettato o watermarked come tale realitydefender.com. Le aziende saranno tenute a inserire un indicatore (watermark digitale o metadato) quando un’immagine, un video o un audio è prodotto dall’AI. In teoria, i browser o i social network potranno quindi segnalare o filtrare automaticamente i contenuti con questi marker. Il watermarking appare promettente, soprattutto come deterrente contro gli abusi occasionali. I principali fornitori di modelli AI (come OpenAI, Google e altri) hanno discusso l’adozione volontaria di watermark per immagini o testi generati dai loro sistemi. Inoltre, una coalizione di enti media e tech sta sviluppando standard di provenienza (ad es. la C2PA, Coalition for Content Provenance and Authenticity) per registrare in modo crittografico l’origine e la cronologia delle modifiche dei media digitali. Per esempio, una foto giornalistica o un annuncio elettorale potrebbero avere un certificato di autenticità sicuro, consentendo a chiunque di verificare chi l’ha prodotta e se è stata alterata cetas.turing.ac.uk. Il governo USA segue questo approccio: la Casa Bianca ha ordinato alle agenzie federali di elaborare linee guida per “l’autenticità by design”, inserendo metadati di provenienza in tutti i contenuti digitali prodotti entro il 2025 cetas.turing.ac.uk. Se misure simili fossero ampiamente adottate, sarebbe molto più difficile per i contenuti falsi spacciarsi per veri.
- Limiti delle etichette: Sebbene gli strumenti di trasparenza siano fondamentali, non sono infallibili. I watermark possono essere rimossi o alterati da attori determinati. Di fatto, la ricerca ha già mostrato metodi per eliminare o oscurare i watermark AI realitydefender.com, e ovviamente un malintenzionato che sviluppa un proprio modello generativo può semplicemente non includere marcatori. Anche i metadati di provenienza aiutano solo se sono adottati su larga scala e se gli utenti li controllano davvero. Un creatore di deepfake può anche sfruttare il trucco della “provenance piggybacking” – prendere una foto o un video autentico e sovrapporvi elementi falsi, così il file mantiene ancora la firma digitale originale. Queste sfide significano che non possiamo affidarci unicamente alle etichette sui contenuti. Come osserva una società di sicurezza AI, le soluzioni di watermark e provenienza funzionano solo se i creatori collaborano nell’etichettare i loro output – cosa che non fermerà gli attori malevoli più determinati realitydefender.com. Per questo motivo il rilevamento a inferenza (l’analisi diretta dei contenuti per trovarne le tracce di manipolazione AI) resta essenziale realitydefender.com. La difesa più efficace sarà probabilmente la combinazione di entrambi gli approcci: rilevatori automatici robusti che scandagliano i media alla ricerca di falsi, e sistemi di autenticazione per verificare i contenuti legittimi.
- Rilevamento in tempo reale per video/audio streaming: Un’esigenza emergente è dotarsi di strumenti in grado di smascherare i deepfake in ambienti live. Immaginiamo uno scenario ipotetico in cui una videochiamata “in diretta” fraudolenta con un politico o un funzionario serva, come avvenuto a Hong Kong nel 2023, per autorizzare trasferimenti illeciti tramite l’uso dell’immagine deepfake di un dirigente aziendale su Zoom, con una frode da 25 milioni di dollari weforum.org. In quel caso, più persone nella chiamata – inclusa una controfigura del CFO – erano generate interamente dall’AI. Individuare fake in tempo reale è estremamente complesso. Alcune aziende stanno lavorando a plugin per videoconferenze capaci di allertare l’utente se un’immagine o una voce appaiono sintetiche (ad esempio analizzando la latenza audio e le anomalie spettrali, o verificando che il volto sullo schermo replichi fedelmente i movimenti di una persona reale ripresa dalla fotocamera). Alcune startup affermano di offrire API di rilevamento deepfake in tempo reale da integrare sulle piattaforme di streaming o direttamente per autenticare i relatori in eventi dal vivo. Tuttavia, per ora il rilevamento live è meno efficace degli attacchi; si punta quindi su misure preventive (come password o “parole in codice” condivise nelle telefonate per verificare le identità, come consiglia la polizia weforum.org).
- Fact-checking umano e segnalazioni della comunità: La tecnologia da sola non è una soluzione magica. La vigilanza umana resta fondamentale. Testate giornalistiche, associazioni di fact-checking e piattaforme hanno allestito team specializzati per monitorare i deepfake virali nei periodi elettorali. Questi team utilizzano tecniche OSINT (open source intelligence) e strumenti forensi per analizzare i media sospetti – controllano ad esempio data/orario, cercano incoerenze (come orecchini diversi su un politico in un video, o movimenti della bocca innaturali), e pubblicano rapidamente smentite. Anche il crowdsourcing contribuisce: su X/Twitter la funzione “Community Notes” è stata impiegata per segnalare post con immagini o video generati dall’AI, aggiungendo contesto. Nelle elezioni recenti, spesso gli utenti stessi hanno smascherato deepfake in poche ore, pubblicando confronti affiancati o indicando errori. Questa vigilanza collettiva, rafforzata dalla alfabetizzazione digitale, è uno strumento potentissimo. Le piattaforme si affidano sempre più agli utenti e ai fact-checker indipendenti per filtrare i contenuti dubbi, dato l’enorme volume che i filtri automatici devono vagliare. Il rovescio della medaglia è che un deepfake può diventare virale prima che venga smentito. Migliorare la velocità di risposta e ampliare la consapevolezza (così che sempre più persone sappiano individuare un falso) contribuirà però a limitare i danni.
In sintesi, il rilevamento dei deepfake è un campo attivo e in evoluzione. Sono stati fatti progressi – ad esempio, i rilevatori odierni sono molto migliori rispetto al 2018, e iniziative come la Content Authenticity Initiative puntano a rendere la verifica uno standard. Ma persistono le sfide legate all’effetto gatto-e-topo con gli avversari e alla necessità di una vasta adozione di strumenti. Nei prossimi anni, la tecnologia di rilevamento sarà probabilmente sempre più integrata in piattaforme social, redazioni giornalistiche e anche nei dispositivi (immaginate uno smartphone che avvisa se un video in arrivo sembra generato dall’AI). Fondamentale, strumenti di rilevamento e provenienza dovranno essere accompagnati da una educazione pubblica affinché quando compare un avviso o un’etichetta, l’utente capisca e agisca di conseguenza. Questo tassello tecnologico è solo una delle colonne portanti di una più ampia strategia per contrastare le minacce rappresentate dai media sintetici.
Risposte politiche e quadri normativi
I decisori politici di tutto il mondo hanno preso coscienza della minaccia dei deepfake e hanno iniziato a elaborare leggi e regolamenti per affrontarla. Pur essendo una questione nuova, sta emergendo una varietà di reazioni tra le grandi democrazie. Di seguito una panoramica degli sforzi legislativi e regolatori in corso:
- Stati Uniti: Negli USA, attualmente non esiste una legge federale generale contro i deepfake politici, ma si sta facendo pressione per colmare questa lacuna. Sono stati presentati diversi disegni di legge al Congresso per frenare i deepfake dannosi. Nel 2024 è stato proposto il No AI FRAUD Act in risposta a casi eclatanti (come immagini esplicite generate dall’AI di celebrità) policyoptions.irpp.org. Il disegno di legge mira a istituire un quadro federale per rendere reato penale alcuni usi dannosi dell’AI, come deepfake politici fraudolenti e falsi pornografici ingannevoli policyoptions.irpp.org. Un’altra ipotesi di legge è imporre la dichiarazione obbligatoria dei contenuti generati dall’AI negli spot elettorali (così le campagne dovrebbero chiaramente etichettare gli annunci con contenuti sintetici). Nel frattempo, la Federal Communications Commission (FCC) ha adottato una misura mirata vietando l’uso di cloni vocali AI nelle chiamate automatiche finalizzate a truffare o danneggiare policyoptions.irpp.org. Ciò è avvenuto dopo le truffe in cui truffatori imitavano la voce di persone reali. L’intervento rende illegale per i call center o operatori politici usare messaggi vocali sintetici per ingannare i riceventi. Molte regolamentazioni deepfake negli USA si realizzano a livello di stato federato. Dal 2019, stati come California, Texas e altri hanno introdotto leggi su deepfake elettorali. La California vieta la diffusione di video deepfake ingannevoli su candidati nei 60 giorni precedenti un’elezione (con eccezioni per satira/parodia) brennancenter.org. Il Texas ha reso reato grave creare o condividere deepfake per arrecare danno a un candidato o influenzare gli elettori brennancenter.org. A metà 2025, almeno quattordici stati USA hanno emanato o stanno discutendo leggi per regolare i deepfake in ambito elettorale citizen.org. Questi sforzi hanno ottenuto sostegno bipartisan – i legislatori di entrambi i partiti riconoscono che la disinformazione elettorale manipolata da AI è una minaccia per la democrazia citizen.org citizen.org. Le leggi statali sono eterogenee: alcune puniscono penalmente la pubblicazione di deepfake dannosi su un candidato, altre impongono etichette di avvertimento sui media sintetici negli spot politici. Inoltre, il gruppo di pressione Public Citizen ha chiesto alla Federal Election Commission di aggiornare le proprie regole, proponendo di vietare ai candidati federali la diffusione di deepfake ingannevoli nelle campagne brennancenter.org. Anche se la FEC non ha ancora adottato nuovi regolamenti, il tema è chiaramente nell’agenda politica. I policymaker USA devono anche bilanciare i timori di censura – divieti troppo ampi contro i media manipolati possono scontrarsi con il Primo Emendamento. Ad esempio, spesso satira e parodia (tutelate come espressione politica) implicano immagini o video alterati; di conseguenza la legge deve colpire solo l’inganno doloso. Ne è testimonianza il fatto che molte leggi statali fanno esplicito riferimento a eccezioni per parodia, satira o scopi giornalistici brennancenter.org brennancenter.org. Il consenso generale è però che i contenuti AI falsi che mirano deliberatamente a ingannare gli elettori o seminare disordini non hanno valore in democrazia e possono essere limitati senza ledere la libertà di espressione brennancenter.org brennancenter.org.
- Unione Europea: L’UE si sta muovendo con decisione su una regolamentazione ampia dell’AI, incluso quanto riguarda direttamente i deepfake. Il AI Act europeo, concordato nel 2024 (entrerà pienamente in vigore nel 2026, alcune disposizioni prima), prevede l’obbligo di trasparenza per i media sintetici. L’AI Act impone che ogni sistema AI capace di creare contenuti “deepfake” garantisca che il contenuto sia segnalato come generato da AI (salvo alcune eccezioni come arte o ricerca sulla sicurezza) realitydefender.com. In pratica, chi sviluppa modelli generativi di immagini o video dovrà integrare watermark o metadati che segnalano l’origine sintetica dei contenuti. Inadempienze comportano multe salate ai sensi dell’Act. Inoltre, il nuovo Codice UE di Buona Condotta sulla Disinformazione (firmato da tutte le principali piattaforme digitali) cita i deepfake come minaccia e impegna le piattaforme a sviluppare “politiche, misure e strumenti per affrontare i contenuti manipolati” brennancenter.org brennancenter.org. Ad esempio, le piattaforme si sono impegnate a implementare sistemi per rilevare e segnalare o rimuovere i video deepfake che potrebbero arrecare danno pubblico, e a collaborare con i fact-checker nella smentita rapida di contenuti AI falsi. Ai sensi del Digital Services Act (DSA) – in vigore dal 2023 – le grandi piattaforme online UE sono tenute a valutare e mitigare i “rischi sistemici” dei propri servizi, inclusa la disinformazione AI. Questa pressione regolatoria ha portato aziende come Meta, Google e TikTok ad annunciare nuove misure per le elezioni europee 2024–2025: dal miglioramento del rilevamento deepfake a una segnalazione più evidente dei media sintetici. In breve, l’Europa adotta un approccio normativo orientato alla trasparenza: etichette obbligatorie sugli output AI e sanzioni alle piattaforme che non frenano la disinformazione tramite deepfake. I critici fanno notare che far rispettare queste regole (come individuare tutti i falsi non etichettati in un oceano di contenuti?) sarà una sfida, ma l’UE segnala chiaramente che i deepfake fuori controllo sono inaccettabili e incompatibili con i suoi standard di governance digitale realitydefender.com realitydefender.com.
- Regno Unito: Il Regno Unito non ha ancora leggi specifiche sui deepfake elettorali, ma affronta il fenomeno con iniziative più ampie per la sicurezza online e l’intelligenza artificiale. Nel 2023 è stato approvato l’Online Safety Act, normativa organica volta a regolare i contenuti dannosi online. Tale legge ha reso illegale la diffusione di deepfake pornografici non consensuali – cioè creare o diffondere immagini sintetiche a sfondo sessuale di una persona senza il suo consenso policyoptions.irpp.org. Questo colpisce il versante molesto dei deepfake. Per la disinformazione politica, l’Online Safety Act conferisce a Ofcom (il regolatore delle comunicazioni) il potere di emanare codici di condotta sulla disinformazione. Gli esperti invitano Ofcom a elaborare un Codice di Condotta sulla Disinformazione che includa standard per i contenuti manipolati da AI cetas.turing.ac.uk. Un simile codice, sul modello UE, potrebbe indurre piattaforme e attori politici UK ad astenersi dal diffondere deepfake e a etichettare chiaramente ogni media sintetico. Si chiede anche che la Electoral Commission fornisca linee guida ai partiti politici sull’uso responsabile dell’AI, con chiare linee rosse contro i deepfake ingannevoli nella propaganda cetas.turing.ac.uk. Alla fine del 2024, una commissione parlamentare trasversale ha raccomandato di irrigidire le leggi elettorali con pene per la disinformazione deepfake, sebbene una legge formale non sia ancora stata presentata. Il governo sta valutando se le norme esistenti (come quelle su diffamazione, frode e reati elettorali) bastino per perseguire l’utilizzo doloso dei deepfake o se occorrano nuovi reati cetas.turing.ac.uk. Il Regno Unito inoltre sta istituendo un AI Safety Institute e ha ospitato un summit globale sull’AI Safety nel 2023, trattando anche la manipolazione delle informazioni. Le autorità britanniche sembrano puntare tanto su difese tecniche e alfabetizzazione mediatica (discusse più sotto) quanto su divieti giuridici. Tuttavia, passi come il bando del deepfake porn e i nuovi poteri ai regolatori dimostrano che il contenuto falso prodotto da AI necessita risposte di policy.
- Canada: Al 2024, il Canada non aveva una legge specifica contro l’uso dei deepfake nelle elezioni. La legge elettorale canadese non vieta esplicitamente la disinformazione AI o i deepfake, il che implica che dovrebbero essere perseguiti con leggi generali (come quelle contro frode o falsa identità), risultando però inadeguati cef-cce.ca. Questo vuoto normativo è stato denunciato da esperti che avvertono che il Canada è “uno o due passi indietro” rispetto ad altre democrazie policyoptions.irpp.org. Nell’autunno 2023, il Canada ha registrato un caso minore di deepfake: un audio falso che imitava la voce di un politico. L’impatto è stato limitato ma la vicenda ha richiamato l’attenzione sul fenomeno. Elections Canada (l’ente elettorale) ha segnalato l’AI misinformation come nuova minaccia e sta studiando possibili contromisure cef-cce.ca. Gli osservatori politici chiedono nuove leggi “ieri”, forse conferendo al Commissioner of Canada Elections il potere di intervenire sui media sintetici ingannevoli in campagna policyoptions.irpp.org. Il Canada può prendere spunto dagli alleati: per esempio, introdurre regole di disclosure negli annunci elettorali AI, o rendere reato diffondere materiali noti per essere deepfake volti a ingannare gli elettori. A metà 2025 non risultano nuovi disegni di legge in Parlamento, ma la pressione per adeguarsi cresce policyoptions.irpp.org.
- Altre democrazie: In tutto il mondo, anche altre democrazie hanno adottato misure:
- Australia: Il governo australiano, preoccupato per la “verità decrescente” dell’AI in vista delle elezioni, ha annunciato una legge “truth in political advertising” per vietare deepfake audio/video ingannevoli nelle campagne innovationaus.com. Il progetto del governo Albanese (2023) vieterebbe la pubblicazione di media sintetici che fingono veri candidati o possono indurre in errore gli elettori, nei periodi elettorali innovationaus.com. Ma l’iter normativo è lento – secondo notizie, queste disposizioni non entreranno in vigore prima del 2026 innovationaus.com, lasciando il voto federale 2025 senza piena tutela. In attesa della legge, l’Australian Electoral Commission ha diffuso linee guida e sottolineato il rischio della “prospettiva” (la commissione segnala che focalizzarsi troppo sui deepfake può ridurre la fiducia anche nelle informazioni reali) ia.acs.org.au. I politici di tutti gli schieramenti sostengono la lotta all’IA disinformativa; il dibattito continua su come bilanciarla con la libertà di espressione politica theguardian.com sbs.com.au.
- Taiwan: Dopo aver subito interferenze deepfake dalla Cina, Taiwan ha aggiornato la propria legge elettorale. Nel 2023 il Parlamento ha modificato la Election and Recall Act per vietare specificamente la condivisione di audio/video alterati di candidati con l’intento di influenzare l’esito del voto policyoptions.irpp.org. Questo offre uno strumento giuridico chiaro contro chi diffonde campagne diffamatorie deepfake (tipico del 2024). Taiwan ha anche investito in educazione pubblica e in sistemi di risposta rapida (con governo, società civile e piattaforme tech) per smentire false informazioni, mitigandone così l’impatto policyoptions.irpp.org policyoptions.irpp.org.
- Democrazie europee: Ogni paese europeo, oltre alle norme UE, ha iniziato ad affrontare i deepfake tramite le leggi esistenti. In Francia, la legge contro le “informazioni false” (2018) può essere applicata ai video deepfake diffusi per influenzare il voto, e nella rigida normativa tedesca su diffamazione e propaganda elettorale si trovano strumenti analoghi. Emergono anche proposte nuove: in Germania si discute di obbligare i partiti a dichiarare l’utilizzo di media sintetici nei materiali di campagna. Nel Regno Unito, come già detto, sono in studio futuri emendamenti alle leggi elettorali (come gli imprint digitali obbligatori negli spot) che potrebbero includere la disclosure sui contenuti AI cetas.turing.ac.uk.
- Iniziative internazionali: Cresce la consapevolezza che serve cooperazione globale perché la disinformazione non ha confini. Il G7 ha un gruppo di lavoro sull’“AI Governance” che nel 2024 ha diffuso una dichiarazione contro l’uso malevolo dell’AI nello spazio dell’informazione. L’amministrazione Biden (USA) ha ottenuto impegni volontari dai principali sviluppatori AI (OpenAI, Google, Meta, ecc.) per implementare watermark nei contenuti AI e investire nella prevenzione degli abusi. Sebbene non vincolanti, questi segnali mostrano una norma internazionale nascente in favore di trasparenza e responsabilità nell’uso dell’AI.
In sintesi, le risposte di policy ai deepfake stanno accelerando. La legislazione fatica a stare al passo con la tecnologia, ma la direzione è chiara: i governi stanno puntando a criminalizzare gli usi più dannosi dei media sintetici in ambito elettorale, a rendere obbligatorie trasparenza ed etichette sui contenuti AI e a dare poteri ai regolatori/autorità elettorali contro i falsi digitali. Nel contempo, si devono tutelare la satira e la libertà di espressione, evitando regole draconiane che potrebbero essere usate per censura. Trovare il giusto equilibrio è difficile. I modelli adottati – dalle leggi statali USA ai regolamenti UE – fungeranno da banco di prova nel 2025. I legislatori senz’altro affineranno questi strumenti col tempo. Ma restare inattivi non è un’opzione: come osserva un tracker policy, “Senza regolamentazione, i deepfake rischiano di disorientare gli elettori e minare la fiducia nelle elezioni.” citizen.org citizen.org La prossima sezione presenta raccomandazioni strategiche rivolte a tutti gli attori del processo democratico.
Raccomandazioni Strategiche per la Salvaguardia delle Elezioni
Difendere l’integrità elettorale nell’era dell’IA richiederà una strategia a più livelli. Nessun singolo strumento o legge può risolvere il problema dei deepfake; è invece necessario uno sforzo coordinato da parte di governi, piattaforme tecnologiche, media e società civile. Di seguito sono riportate raccomandazioni strategiche per questi settori al fine di mitigare i rischi e garantire che gli elettori possano prendere decisioni informate nel 2025 e oltre:
Governi e Politici
1. Rafforzare le Tutele Legali e la Deterrenza: I governi dovrebbero promulgare o aggiornare le leggi per vietare esplicitamente l’uso malevolo dei media sintetici nelle elezioni. Questo include rendere illegale la creazione o la distribuzione, con intento di ingannare il pubblico o sabotare un’elezione, di qualsiasi deepfake che ritrae falsamente un candidato o manipola informazioni relative alle elezioni (come le procedure di voto). È fondamentale che le leggi siano ben delimitate – devono puntare all’inganno intenzionale (disinformazione), con chiari esoneri per satira, parodia o espressione artistica evidente. Le sanzioni (multe o incriminazioni penali) creeranno una deterrenza per potenziali diffusori di deepfake, soprattutto se applicate tempestivamente. Ad esempio, la proposta australiana di vietare i deepfake ingannevoli durante le campagne e le nuove clausole di Taiwan contro i contenuti elettorali manipolati dall’IA possono fungere da modelli innovationaus.com policyoptions.irpp.org. Negli Stati Uniti, un’azione federale (come il proposto No AI FRAUD Act) potrebbe fissare uno standard minimo a livello nazionale, completando le leggi statali. Inoltre, i governi dovrebbero aggiornare le regole sul finanziamento e la pubblicità delle campagne: richiedere che qualsiasi pubblicità politica (online o radiotelevisiva) che contenga media sintetici riporti una dichiarazione chiara (ad esempio “Questa immagine/video è generata dall’IA”) affinché gli spettatori non vengano ingannati. I regolamenti sulla veridicità della pubblicità per le campagne devono estendersi anche ai contenuti IA.
2. Implementare Protocolli di Risposta agli Incidenti Elettorali: Le autorità elettorali dovrebbero stabilire protocolli formali per rispondere in tempo reale a gravi incidenti di deepfake. Un ottimo esempio è il Critical Election Incident Public Protocol del Canada, che riunisce funzionari di alto livello per valutare e informare il pubblico su minacce di interferenza straniera o disinformazione durante un’elezione cetas.turing.ac.uk cetas.turing.ac.uk. Anche altre democrazie dovrebbero adottare meccanismi simili. Se dovesse emergere un deepfake pericoloso (ad esempio un video falso di un candidato che ammette la sconfitta diffuso il giorno delle elezioni), il protocollo verrebbe attivato – funzionari, esperti di intelligence e piattaforme tecnologiche verificherebbero rapidamente la veridicità e rilascerebbero un annuncio pubblico sfatando il falso e chiarendo i fatti cetas.turing.ac.uk. Questa capacità di smentita rapida è cruciale per attenuare l’impatto della “disinformazione a getto”. I governi dovrebbero allenarsi a queste risposte in anticipo (simulando diversi scenari di deepfake) così da poter reagire tempestivamente e con un’unica voce quando necessario.
3. Investire in Infrastrutture di Rilevamento e Autenticazione: Gli enti del settore pubblico dovrebbero investire risorse nello sviluppo del rilevamento dei deepfake e nell’autenticazione dei contenuti. Questo implica finanziare R&S (ad esempio programmi stile DARPA focalizzati sulla disinformazione mediata dall’IA), sostenere la diffusione di strumenti di rilevamento per uso elettorale e adottare standard di autenticazione nelle comunicazioni governative. Una misura concreta è che i media governativi (emittenti pubbliche, account social ufficiali, ecc.) inizino ad aggiungere metadati di provenienza verificabili a tutte le foto, i video e gli audio ufficialmente rilasciati cetas.turing.ac.uk. Così facendo, creano una base di informazioni “genuine verificate”. Gli elettori e i giornalisti potrebbero così fidarsi che ogni video con un sigillo governativo nei metadati sia autentico – e al contrario essere più scettici verso filmati senza tali credenziali. I governi possono dare l’esempio con questo approccio “autenticità by design” cetas.turing.ac.uk, che USA e UK stanno già esplorando. Inoltre, le forze dell’ordine e gli organismi di vigilanza elettorale dovrebbero essere dotati di unità di analisi forense per valutare i media sospetti durante le campagne. Sapere che le autorità dispongono di mezzi tecnici per rintracciare e attribuire deepfake (e potenzialmente identificare i responsabili) scoraggerà anche gli attori malevoli.
4. Chiarire e Modernizzare le Norme esistenti: Molti paesi possono scoprire che le leggi attuali su frode, furto d’identità, diffamazione o interferenza elettorale possono essere applicate ad alcuni casi di deepfake – ma potrebbero esserci delle lacune. I governi dovrebbero revisionare il proprio codice legale per verificare se siano necessarie nuove categorie. Ad esempio, esistono disposizioni che coprono l’imitazione con IA di un funzionario pubblico? In caso contrario, introdurle. Assicurarsi che le leggi su protezione dei dati e privacy considerino l’uso non autorizzato dell’immagine/voce di una persona da parte dell’IA come una violazione. Chiarire lo stato giuridico dei deepfake dannosi (e informare il pubblico a riguardo) è importante affinché gli autori sappiano che possono essere ritenuti responsabili. Ciò rafforza anche chi subisce (candidati o cittadini) nell’adire vie legali se viene preso di mira. Questa revisione dovrebbe includere anche le leggi elettorali: aggiornare le definizioni di pubblicità elettorale illegale o disinformazione nei sondaggi per includere esplicitamente le manipolazioni di media sintetici cetas.turing.ac.uk. L’obiettivo è eliminare ogni ambiguità – un potenziale disinformatore non deve poter dichiarare “tecnicamente non è illegale perché è IA”. Se le leggi sono esplicite, l’applicazione e il perseguimento risultano semplificati.
5. Rafforzare la Collaborazione Internazionale: Essendo le campagne di disinformazione spesso di origine estera (o diffuse attraverso i confini), i governi democratici dovrebbero collaborare su questo tema. Le agenzie d’intelligence e le unità di cybersicurezza dovrebbero scambiarsi informazioni sulle nuove tattiche deepfake individuate (ad esempio, se un paese scopre un’operazione di deepfake straniera, dovrebbe avvertire gli altri). Forum come l’Alliance for Securing Democracy, il G7, i dialoghi UE-USA e altri possono coordinare dichiarazioni e norme congiunte contro i deepfake elettorali. Una pressione diplomatica può essere esercitata sugli attori statali che sponsorizzano o tollerano tali interferenze. Esiste anche margine per ricerche collaborative – ad es. un centro internazionale per il rilevamento dei deepfake potrebbe mettere in comune dati per migliorare gli algoritmi. Le organizzazioni di monitoraggio elettorale (come l’OSCE o le missioni internazionali di osservazione) dovrebbero aggiornare le loro metodologie per rilevare l’influenza dei media sintetici e i paesi possono inserire le contingenze deepfake nei patti di difesa reciproca per i processi democratici. Un fronte unito renderà più difficile per gli attori maligni sfruttare le vulnerabilità di singoli paesi.
6. Promuovere la Consapevolezza Pubblica e l’Alfabetizzazione Digitale: In definitiva, i governi hanno il compito di educare l’elettorato riguardo i deepfake. Molti paesi stanno ora valutando o introducendo programmi di alfabetizzazione digitale nelle scuole e per la cittadinanza cetas.turing.ac.uk. Questi programmi insegnano come verificare le informazioni online, riconoscere i segnali di media manipolati e valutare criticamente le fonti. Data la crescente plausibilità dei falsi IA, è fondamentale che ogni elettore sia consapevole della loro esistenza e abbia gli strumenti per verificare i contenuti scioccanti (invece che credervi ciecamente o condividerli). I governi dovrebbero collaborare con enti educativi e ONG per inserire l’educazione ai deepfake nei curriculum e nelle campagne di pubblica utilità. Ad esempio, trasmettere messaggi di servizio pubblico che mostrano video reali e deepfake affiancati di un politico e ne spiegano le differenze può aumentare la consapevolezza. Secondo le ricerche, le persone con maggiore alfabetizzazione mediatica e capacità critica sono molto più efficaci nell’individuare deepfake e resistere alla disinformazione cetas.turing.ac.uk. Perciò, finanziare iniziative di alfabetizzazione mediatica è una delle difese più efficaci a lungo termine. Quando il pubblico diventa una rete attiva di sensori – riconoscendo e segnalando i falsi – l’impatto della propaganda deepfake può essere fortemente ridotto.
Piattaforme Tecnologiche e Sviluppatori di IA
1. Rafforzare le Politiche di Piattaforma e l’Applicazione delle Regole: I social media e le piattaforme online sono i principali canali di diffusione dei deepfake virali. Queste aziende dovrebbero adottare politiche severe contro i media manipolati che ingannano gli utenti, in particolare nel contesto elettorale. Molte piattaforme hanno già iniziato: ad esempio, Facebook e Twitter (X) hanno politiche per rimuovere o etichettare i “media manipolati” che potrebbero causare danni. Ma l’applicazione deve essere rigorosa. Le piattaforme dovrebbero migliorare il rilevamento automatico dei deepfake (usando gli strumenti più avanzati visti sopra) e garantire una rapida revisione da parte di moderatori umani quando gli utenti segnalano contenuti sospetti. Durante i periodi elettorali, le aziende possono istituire “war room” dedicate e canali di collaborazione con le commissioni elettorali per gestire in tempo reale eventuali incidenti deepfake. Quando un falso viene identificato, le piattaforme dovrebbero etichettarlo come falso o rimuoverlo prontamente, e ridurne la diffusione negli algoritmi per limitarne l’impatto brennancenter.org brennancenter.org. Anche la trasparenza è fondamentale: le piattaforme possono pubblicare report periodici sui deepfake rilevati e sulle azioni intraprese, rafforzando così la fiducia pubblica. Dovrebbero inoltre condividere campioni di deepfake rilevati con la comunità scientifica per migliorare la comprensione collettiva.
2. Implementare la divulgazione e la tracciabilità dei deepfake: Seguendo l’esempio dell’UE, le piattaforme di tutto il mondo dovrebbero richiedere che i contenuti generati dall’IA siano etichettati e resi noti. Ad esempio, se viene caricato uno spot politico che contiene un’immagine o una voce generata dall’IA, la piattaforma potrebbe obbligare chi lo carica a spuntare una casella che indichi “questo contenuto ha elementi sintetici” – e poi mostrare un avviso agli spettatori (“Questo video è stato alterato o parzialmente generato dall’IA”). Anche al di fuori delle pubblicità formali, le piattaforme possono utilizzare strumenti di rilevamento per segnare visivamente i video deepfake sospetti (ad esempio, un overlay di avviso che l’autenticità del video non è verificata). Inoltre, i social network e i servizi di messaggistica potrebbero integrare funzionalità di autenticità dei contenuti: utilizzando standard come C2PA, possono mostrare agli utenti un’icona se la fonte e la cronologia delle modifiche di un’immagine sono verificate, o al contrario segnalare se questi dati mancano. Alcune aziende tecnologiche (Adobe, Microsoft, Twitter) sono già coinvolte in questi sforzi. Integrando i segnali di provenienza nelle loro interfacce utente, le piattaforme possono aiutare gli utenti a distinguere il vero dal falso. Dovrebbero anche lavorare su meccanismi di tracciamento inverso – ad esempio, se un deepfake dannoso si sta diffondendo, possono risalire a chi lo ha caricato originariamente, anche se è stato ripubblicato migliaia di volte? Sarà importante la cooperazione con le forze dell’ordine nei casi più gravi (nel rispetto delle leggi sulla privacy) per individuare i responsabili.
3. Bandire utenti e reti deepfake dannose: Le piattaforme devono esercitare vigilanza contro attori organizzati che diffondono ripetutamente deepfake. Questo significa non solo rimuovere i singoli contenuti, ma chiudere account, pagine o bot impegnati in campagne coordinate di deepfake. Se le prove collegano un’operazione a uno sforzo sponsorizzato da uno Stato o a una nota “troll farm”, le piattaforme dovrebbero pubblicizzarlo ed eliminarne la presenza. Negli ultimi anni molte reti di disinformazione sono state smantellate; lo stesso approccio aggressivo deve essere applicato alle operazioni di influenza basate sull’IA. Le piattaforme dovrebbero aggiornare i termini di servizio per proibire esplicitamente la creazione o la condivisione dolosa di media sintetici al fine di ingannare. Queste regole offrono la base per bandire i trasgressori. Nella pubblicità politica, qualsiasi campagna o PAC colto a utilizzare deepfake ingannevoli dovrebbe subire pene come la perdita dei privilegi pubblicitari. Le aziende tecnologiche potrebbero anche collaborare per mantenere una blacklist condivisa delle firme digitali dei deepfake più noti, così che, una volta individuato un falso su una piattaforma, possa essere bloccato anche sulle altre (come già avviene con gli hash dei contenuti terroristici tramite consorzi). In sostanza, rendere sconveniente tentare di usare deepfake sulle piattaforme mainstream: o il contenuto viene rapidamente rimosso, o chi lo diffonde perde l’account.
4. Collaborare con fact-checker e autorità: Nessuna piattaforma può controllare perfettamente i contenuti da sola. La collaborazione è fondamentale. Le aziende dei social media dovrebbero rafforzare la partnership con organizzazioni indipendenti di fact-checking per valutare i contenuti virali. Quando i fact-checker smentiscono un video come falso, le piattaforme devono amplificare quella correzione – ad esempio aggiungendo un link all’articolo di verifica ogni volta che il video viene condiviso, o notificando a tutti gli utenti che hanno visto inizialmente il falso. Società come Facebook hanno già adottato queste misure contro la disinformazione e dovrebbero continuare anche sui deepfake. Inoltre, le piattaforme dovrebbero coordinarsi con le commissioni elettorali e le agenzie di sicurezza, soprattutto in periodo elettorale. Possono istituire hotline o canali diretti tramite cui i funzionari segnalano sospetti deepfake che influenzano il voto e, allo stesso modo, le piattaforme possono avvertire i governi se rilevano disinformazione estera mirata al paese. In alcune giurisdizioni esistono già accordi formali (per esempio, il Codice di Condotta dell’UE incoraggia la condivisione di informazioni con i governi sulle minacce di disinformazione brennancenter.org). Anche negli Stati Uniti, l’unità cyber del Dipartimento della Homeland Security collabora con le piattaforme sul monitoraggio della disinformazione elettorale. Queste collaborazioni devono ovviamente rispettare la libertà di espressione e non sconfinare nella censura del discorso legittimo. Ma in presenza di materiale palesemente falso e dannoso, una risposta rapida e coordinata tra piattaforme e istituzioni pubbliche può fermare la diffusione di un falso. Questo può includere comunicati stampa congiunti che smascherano un deepfake virale o algoritmi che danno maggiore visibilità a fonti autorevoli per contrastare la diffusione.
5. Rafforzare le misure di sicurezza nei modelli IA: Le aziende che sviluppano modelli di IA generativa (OpenAI, Google, Meta, ecc.) hanno una responsabilità alla fonte. Dovrebbero implementare misure per prevenire l’uso improprio dell’IA per interferenze elettorali. Questo può includere watermarking delle uscite IA, come già discusso (così ogni immagine generata, ad esempio, da DALL-E o Midjourney abbia una firma digitale incorporata). Può anche comprendere la curazione dei dati di addestramento – per esempio assicurandosi che i modelli siano addestrati a rifiutare richieste di personificare in modo dannoso individui reali. Già oggi alcuni strumenti IA non creano deepfake di noti politici grazie a filtri integrati sui contenuti. Queste barriere dovrebbero essere costantemente rafforzate (anche se i modelli open-source presentano una sfida, perché possono essere perfezionati da malintenzionati senza tali limiti). Gli sviluppatori IA dovrebbero investire nella ricerca sulle tecniche di rilevamento dei deepfake e condividerle con la comunità. È un segnale positivo che molte importanti aziende IA abbiano volontariamente promesso di sostenere watermarking e autenticazione dei contenuti. In futuro, potrebbero collaborare su un’API standard che permetta di verificare rapidamente se un file video o audio è stato generato da uno dei loro modelli. In sostanza, chi crea il “problema” (la tecnologia generativa) dovrebbe contribuire anche alla “soluzione” (i mezzi per identificarne l’output).
6. Trasparenza nella pubblicità politica: Le piattaforme che ospitano annunci politici dovrebbero imporre trasparenza rigorosa sull’uso dell’IA. Se una pubblicità elettorale su Facebook o Google contiene elementi generati dall’IA, la libreria annunci della piattaforma dovrebbe segnalarlo esplicitamente. Le piattaforme potrebbero persino richiedere ai pubblicitari politici di fornire il girato grezzo e non modificato per un confronto. In modo più ambizioso, i social potrebbero valutare di sospendere temporaneamente tutti gli annunci politici con media sintetici nei giorni più delicati prima del voto, come già accade con i divieti sugli spot negli ultimissimi giorni. Questo eliminerebbe il rischio di una raffica di deepfake elettorali dell’ultimo minuto. Anche se far rispettare questa regola è complesso, il principio è che la promozione a pagamento di contenuti ingannevoli è particolarmente pericolosa e le piattaforme hanno maggiore libertà di regolamentare la pubblicità rispetto ai post degli utenti. Garantire trasparenza e rimozione rapida in ambito pubblicitario è cruciale, poiché un deepfake diffuso tramite annunci a pagamento può raggiungere milioni di persone mirate dall’algoritmo, distorcendo gravemente il contesto informativo.
Media e organizzazioni giornalistiche
1. Protocolli di verifica rigorosi: I media devono adattare le proprie pratiche di verifica all’era dei deepfake. Ogni redazione – dalle tv nazionali ai giornali locali e ai siti di fact-checking – dovrebbe stabilire procedure formali di autenticazione del materiale audio-visivo prima di trasmetterlo o pubblicarlo. Questo include la formazione dei giornalisti all’uso di strumenti forensi (es: verifica dei metadati dei video, analisi delle immagini) e la consulenza con esperti quando necessario. In caso di filmati sensazionali o scandalosi emersi durante una campagna elettorale, i direttori dovrebbero mantenere uno scetticismo sano e non affrettarsi a mandare in onda o pubblicare senza conferme. I media dovrebbero verificare tutto con almeno due fonti: ad esempio, se emerge un video di un candidato in atteggiamenti scioccanti, la testata dovrà cercare prove indipendenti (testimoni, dichiarazioni ufficiali, ecc.) o almeno effettuare un’analisi frame-by-frame per assicurarsi che non sia un deepfake. L’obiettivo è non diventare amplificatori involontari della disinformazione. In modo esemplare, alcune redazioni hanno creato task force interne sui deepfake. In un caso, giornalisti in Arizona hanno persino realizzato un loro deepfake (con autorizzazione) per educare il pubblico su quanto fosse semplice manipolare i video knightcolumbia.org – un modo brillante per sensibilizzare. Tutte le redazioni dovrebbero prevedere un “esperto di deepfake” di riferimento (o una partnership con un laboratorio tech) per analizzare rapidamente i filmati sospetti. Rendendo la verifica routine come il fact-checking, si possono individuare i falsi con tempestività, o almeno avvertire il pubblico se un contenuto non è stato autenticato.
2. Informazione responsabile sui deepfake: Quando si coprono casi di media sintetici, i giornalisti dovrebbero farlo con attenzione e dando contesto. Se un deepfake contro un candidato diventa virale, la notizia non sono le false accuse in sé, ma il fatto che si tratta di una manipolazione. I servizi giornalistici dovrebbero evitare di ripetere dettagliatamente le false accuse o trasmettere il video falso senza filtri critici, perché così facendo amplificano involontariamente la disinformazione. Meglio descriverlo in modo generico e concentrarsi sulle smentite (es. “Un video manipolato che raffigura falsamente X mentre fa Y è stato diffuso online, ma è stato smentito da esperti”). I media possono anche scegliere di sfumare oppure non linkare direttamente al deepfake nei propri articoli online cetas.turing.ac.uk, per evitare di generare traffico o dare modo agli utenti malintenzionati di scaricare e ripubblicare il video. Anche l’impostazione del servizio è fondamentale: sottolineare il tentativo di inganno e l’esistenza del deepfake più che la narrazione contenuta nel falso cetas.turing.ac.uk. I media dovrebbero anche mettere in risalto le correzioni o la verità (“No, il politico Z non ha detto questa frase – il video è un artefatto AI; ecco cosa ha realmente dichiarato sull’argomento”). Con questa coerenza, i media autorevoli contribuiscono a immunizzare il pubblico contro la condivisione o la credulità verso i falsi. È un equilibrio delicato: ignorare la disinformazione non la fa sparire, ma coprirla in modo acritico la amplifica. Potrebbero essere elaborate linee guida simili a quelle adottate per la cronaca delle bufale o delle stragi (dove alcuni dettagli vengono minimizzati per evitare emulazioni) anche per i deepfake. In UK l’Independent Press Standards Organisation è stata chiamata ad aggiornare il proprio codice deontologico per gestire questi casi cetas.turing.ac.uk.
3. Uso della tecnologia di autenticità nelle redazioni: Le organizzazioni giornalistiche stesse possono sfruttare l’infrastruttura emergente per l’autenticità. Ad esempio, una testata giornalistica potrebbe adottare gli strumenti della Content Authenticity Initiative per allegare credenziali crittografiche di autenticità a tutte le foto e i video originali realizzati dai suoi giornalisti. Ciò significa che qualsiasi filmato catturato, ad esempio, da un cameraman Reuters o AP potrebbe portare un sigillo sicuro che ne verifica l’origine e le eventuali modifiche. Successivamente, quando le persone vedono un video proveniente da Reuters, potrebbero verificare che non sia stato alterato. Misure di questo tipo aiutano a dimostrare cosa è reale, offrendo al pubblico una fonte di verità. Le redazioni dovrebbero anche collaborare alla creazione di banche dati di deepfake noti (e contenuti autentici) utili ai fact-checker. Ad esempio, mantenere un archivio di discorsi e interviste ufficiali può aiutare a smentire rapidamente un video manipolato tramite confronto. Le principali agenzie di stampa potrebbero coordinarsi per avvisare rapidamente tutti i propri abbonati qualora venga individuato un deepfake pericoloso – un po’ come fanno con le breaking news. Internamente, i redattori dovrebbero anche essere consapevoli che operatori politici potrebbero tentare di fornire ai giornalisti media falsi (ad esempio, una soffiata contenente un audio “trapelato” che è in realtà generato dall’IA). È prudente mantenere alto il livello di scetticismo per qualunque materiale digitale proveniente da fonti anonime.
4. Educare il pubblico: I media possono svolgere un ruolo importante nell’educare gli elettori riguardo ai media sintetici. Testate e giornalisti dovrebbero produrre contenuti esplicativi, interviste con esperti e servizi che mostrano al pubblico come vengono realizzati i deepfake e come riconoscerli. Demistificando la tecnologia, ne riducono il potere. Alcuni servizi televisivi del 2024, ad esempio, hanno dimostrato in diretta la clonazione vocale tramite IA per mostrare come una telefonata truffaldina possa imitare la voce di un parente. Analogamente, durante la copertura delle elezioni si possono inserire avvisi: “Se vedi un video oltraggioso su un candidato all’ultimo minuto, sii prudente – potrebbe essere falso. Ecco come verificare…”. Campagne di sensibilizzazione pubblica guidate dai media (eventualmente in collaborazione con governo o ONG) potrebbero incrementare notevolmente la alfabetizzazione digitale. Inoltre, i giornalisti dovrebbero usare sempre un linguaggio preciso: chiamare qualcosa “deepfake” o “video falso generato dall’IA” invece del solo “video manipolato” aiuta a rafforzare la percezione di questa nuova categoria di contenuti. Con il tempo, un pubblico ben informato sarà meno incline a cadere vittima di un falso e più propenso a esigere prove. I media, in quanto interfaccia tra l’informazione e il pubblico, hanno il dovere di costruire questa resilienza.
5. Responsabilità ed esposizione: Infine, i giornalisti dovrebbero indagare e fare luce su chi si cela dietro le operazioni di deepfake più importanti. Portare i responsabili davanti al tribunale dell’opinione pubblica può scoraggiare futuri abusi. Se una campagna rivale, una “troll farm” straniera o uno specifico gruppo online viene identificato come fonte di un deepfake malevolo, riferirlo in modo prominente legherà uno stigma e dei rischi a queste tattiche. Inchieste sulla produzione e sul finanziamento di campagne di disinformazione possono svuotare di efficacia tali operazioni. Inoltre, se un politico o una figura pubblica condivide di proposito un deepfake sapendo che è falso (ad esempio, un candidato che twitta un video falso del rivale), i media dovrebbero denunciarlo con fermezza – trattandolo come una grave scorrettezza. La prospettiva di danno reputazionale e cattiva stampa può scoraggiare attori politici da “trucchi sporchi” come l’uso di deepfake. In breve, la funzione di cane da guardia del giornalismo si estende al digitale: investigare, attribuire e smascherare operazioni di media sintetici malevoli esattamente come si farebbe con altre frodi o casi di corruzione in politica.
Società civile e iniziative degli elettori
1. Alfabetizzazione digitale ed educazione della comunità: Le organizzazioni della società civile – inclusi enti non profit, biblioteche, università e gruppi di base – possono guidare l’impegno nell’educare i cittadini a orientarsi nell’era dei deepfake. Programmi scalabili dovrebbero essere proposti alle comunità per insegnare come verificare i contenuti mediatici. Ad esempio, le ONG possono organizzare workshop in cui si insegnano trucchi semplici come la ricerca inversa delle immagini (per vedere se una foto è stata generata dall’IA o manipolata), controllare notizie da fonti diverse e usare siti di fact-checking. Esistono già ottimi kit didattici e curricula sviluppati da gruppi di fact-checking (ad esempio, First Draft, Media Literacy Now) che trattano il riconoscimento della disinformazione e dei deepfake; questi dovrebbero essere diffusi il più possibile. Tale formazione dovrebbe riguardare non solo gli studenti delle scuole, ma anche gli adulti più anziani, spesso più vulnerabili all’inganno online. Campagne nazionali di alfabetizzazione digitale possono essere lanciate, magari finanziate da fondi pubblici ma realizzate da organizzazioni di comunità per garantire fiducia. L’obiettivo è aumentare l’“immunità di gregge” sociale: se una massa critica di persone sa riconoscere un falso o quantomeno sospende il giudizio finché non arriva la verifica, i disinformatori perdono gran parte del loro potere. I sondaggi mostrano che il pubblico desidera queste conoscenze – molti si sentono ansiosi di non sapere distinguere il vero dal falso brennancenter.org brennancenter.org. La società civile può colmare questa lacuna, rafforzando i cittadini tramite educazione e competenze pratiche.
2. Iniziative di fact-checking e debunking: I fact-checker indipendenti e le sentinelle della società civile continueranno a essere fondamentali. Per i periodi elettorali, dovrebbero attrezzarsi specificamente con iniziative come veri e propri hub di fact-checking sui deepfake. Ad esempio, coalizioni di organizzazioni di fact-checking potrebbero mantenere una dashboard pubblica durante le elezioni che tenga traccia di voci e casi emergenti di presunti deepfake, fornendo smentite rapide. Il News Literacy Project ha fatto qualcosa di simile per le elezioni USA del 2024, registrando i casi di disinformazione e notando come pochi coinvolgessero realmente l’IA knightcolumbia.org knightcolumbia.org. Questo tipo di monitoraggio trasparente aiuta pubblico e giornalisti a vedere il quadro generale senza però sottovalutare la minaccia, affrontando i casi reali. I gruppi della società civile possono inoltre diffondere correzioni sui social – ad esempio rispondendo a post virali con informazioni accurate, supportati da community notes o altre funzionalità. Si dovrebbe anche promuovere il “prebunking”: cioè avvisare il pubblico in anticipo che potrebbe comparire un falso. Ad esempio, se servizi di intelligence o precedenti pattern suggeriscono che un candidato potrebbe essere preso di mira con uno scandalo fasullo, i gruppi civici (in coordinamento con le autorità elettorali) possono avvisare gli elettori: “Siate scettici se vedete improvvisamente un video sconvolgente su X, è possibile che sia un deepfake”. Gli studi indicano che il prebunking può ridurre notevolmente la credulità e la diffusione delle fake news cetas.turing.ac.uk cetas.turing.ac.uk. Dunque, un approccio proattivo della società civile, che anticipi e contrasti in anticipo le campagne di deepfake, può essere molto efficace.
3. Civic tech e rilevamento partecipativo: La comunità di cittadini tecnologicamente preparati può essere mobilitata per combattere i deepfake. Esistono già volontari, i cosiddetti “cacciatori di deepfake”, che analizzano online contenuti sospetti. La società civile può organizzare questi sforzi tramite piattaforme – magari un portale o un’app dedicata dove le persone possano segnalare video o audio per cui nutrono dubbi e ricevere un rapporto di autenticità da parte di una rete di esperti o strumenti IA. Questa intelligence partecipata può integrare le iniziative ufficiali. Inoltre, i gruppi civic tech potrebbero sviluppare plugin per browser o app per smartphone che aiutino gli utenti a riconoscere media sintetici. Ad esempio, un’app potrebbe permettere agli utenti di selezionare un video sullo schermo e ricevere un’analisi istantanea da più algoritmi di rilevamento (simile a un antivirus per deepfake). Pur non essendo infallibili, questi strumenti potrebbero segnalare anomalie. Gli sforzi open source per creare simili tool dovrebbero essere sostenuti con finanziamenti. Un’altra idea sono le hotline per la segnalazione dei cittadini – come le hotline per problemi elettorali nel giorno del voto, si potrebbe istituire un canale per segnalare disinformazione o deepfake, allertando immediatamente le autorità elettorali o i fact-checker che possono poi intervenire. Coinvolgendo i cittadini come protagonisti nell’individuare e segnalare contenuti sospetti, la capacità di monitoraggio aumenta enormemente. Questo approccio distribuito riconosce che in una società composta da milioni di utenti online, qualcuno spesso noterà un problema per primo – la chiave è far arrivare rapidamente quelle osservazioni a chi può verificare e amplificare la verità.
4. Advocacy per la responsabilità delle piattaforme: La società civile deve continuare a fare pressione sulle piattaforme tecnologiche e sulle aziende di IA affinché si comportino responsabilmente. I gruppi di interesse pubblico e i think tank hanno avuto un ruolo centrale nel mettere in luce i pericoli dei deepfake e nell’avanzare proposte di riforma (ad esempio, Access Now, EFF e altri hanno emesso raccomandazioni). Questa attività di advocacy deve proseguire – sollecitando le piattaforme ad adottare i cambiamenti politici sopra descritti (migliore etichettatura, rimozione di contenuti, ecc.), e spingendo i produttori di IA ad adottare principi etici nella progettazione. La campagna di Public Citizen per monitorare la legislazione statale sui deepfake e presentare petizioni alla FEC è un esempio citizen.org citizen.org. Allo stesso modo, le coalizioni possono chiedere trasparenza alle piattaforme: pretendere che pubblichino dati su quanta parte dei loro contenuti sia generata con l’IA, o sull’efficacia delle loro soluzioni di rilevamento. La voce della società civile può anche aiutare a garantire che eventuali nuove leggi o regolamenti tutelino adeguatamente le libertà civili (ad esempio, opponendosi a norme troppo restrittive che potrebbero censurare la libera espressione con la scusa di combattere i deepfake). Mantenere questo equilibrio richiede consultazione pubblica, e i gruppi di advocacy rappresentano la cittadinanza in questi dibattiti. I prossimi anni potrebbero vedere nuovi quadri regolatori per l’IA e i contenuti online – è fondamentale che i valori democratici e i principi dei diritti umani siano rispettati, e la società civile è essenziale in questo ruolo di controllo.
5. Sostegno per le vittime e i bersagli: Se un candidato o un privato cittadino viene diffamato da un deepfake, la società civile può offrire supporto. Le organizzazioni non profit potrebbero offrire assistenza legale o consulenza su come far rimuovere deepfake diffamatori e su come perseguire i responsabili. Potrebbero esistere linee di assistenza per le vittime di deepfake pornografici o di diffamazione, che le mettano in contatto con forze dell’ordine e risorse di supporto psicologico. Per i candidati colpiti da campagne diffamatorie, le organizzazioni civiche (come la lega delle elettrici o i gruppi per l’integrità elettorale) possono aiutare ad amplificare la loro smentita e la smentita pubblica, riducendo il danno. Mobilitarsi rapidamente in difesa di qualcuno falsamente preso di mira – assicurandosi che la verità sia più forte della menzogna – è qualcosa che i gruppi della comunità e di advocacy possono coordinare, come spesso fanno contro la diffamazione o l’incitamento all’odio. A un livello più ampio, la società civile può facilitare impegni trasversali tra i partiti affinché, qualora emergesse un deepfake, tutte le parti lo condannino. Immaginate un impegno firmato da tutti i principali partiti di un paese, in cui promettono di non usare deepfake e di condannare prontamente qualsiasi falsificazione dolosa che appaia. Tali norme, promosse da gruppi come comitati elettorali interpartitici o ONG etiche, ridurrebbero la probabilità di una “corsa al ribasso” dove i partiti si sentono costretti a rispondere con le stesse armi. Si crea così un fronte unito che gli attacchi alla verità non saranno tollerati, a prescindere da chi ne sia il bersaglio.
In conclusione, affrontare la sfida dei deepfake richiede di sfruttare tutte le difese della società: tecnologiche, giuridiche, istituzionali e umane. Seguendo i passaggi sopra elencati, i governi possono rafforzare il sistema elettorale contro le falsificazioni generate dall’IA, le piattaforme tecnologiche possono limitare la diffusione dei contenuti falsi, i media possono garantire la prevalenza della verità nell’informazione e i cittadini possono diventare custodi consapevoli della realtà. Non c’è tempo da perdere: mentre l’IA generativa continua ad avanzare, il ciclo elettorale del 2025 metterà alla prova la resilienza delle democrazie di fronte alle menzogne sintetiche. La buona notizia è che non siamo indifesi. Con preparazione, trasparenza e collaborazione possiamo superare e organizzare meglio le campagne di deepfake, preservando l’integrità delle nostre elezioni. Come conclude un rapporto di ricerca CETaS su IA ed elezioni, “complicità e autocompiacimento non devono influenzare le scelte decisionali” – dobbiamo invece cogliere questo momento per costruire resilienza cetas.turing.ac.uk cetas.turing.ac.uk. Facendo così, difendiamo il principio che anche se la tecnologia evolve, i nostri valori democratici di verità e fiducia continueranno a prevalere.
Fonti
- Stockwell, Sam et al. “AI-Enabled Influence Operations: Safeguarding Future Elections.” CETaS (Alan Turing Institute) Research Report, 13 Nov 2024. cetas.turing.ac.uk cetas.turing.ac.uk
- Stockwell, Sam et al. Ibid. (CETaS Report, 2024), Sezione 2.1 sui deepfake nelle elezioni statunitensi. cetas.turing.ac.uk cetas.turing.ac.uk
- Beaumont, Hilary. “‘Una mancanza di fiducia’: Come i deepfake e l’IA potrebbero scuotere le elezioni statunitensi.” Al Jazeera, 19 giu 2024. aljazeera.com aljazeera.com
- Sze-Fung Lee. “Il Canada ha bisogno di una legislazione sui deepfake, e subito.” Policy Options, 18 mar 2024. policyoptions.irpp.org policyoptions.irpp.org
- Goldstein, Josh A. & Andrew Lohn. “Deepfakes, Elections, and Shrinking the Liar’s Dividend.” Brennan Center for Justice, 23 gen 2024. brennancenter.org
- “Media sintetici.” Wikipedia (consultato nel 2025). en.wikipedia.org en.wikipedia.org
- “Deepfake.” Kaspersky IT Encyclopedia (2023). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
- Hamiel, Nathan. “I deepfake hanno rappresentato una minaccia diversa dal previsto. Ecco come difendersi.” World Economic Forum, 10 gen 2025. weforum.org weforum.org
- “Regolamentare i deepfake e i media sintetici con IA nell’arena politica.” Brennan Center for Justice, 4 ott 2023. brennancenter.org brennancenter.org
- Colman, Ben. “L’AI Act europeo e la crescente urgenza della rilevazione dei deepfake.” Reality Defender Blog, 11 feb 2025. realitydefender.com realitydefender.com
- “Tracker: Legislazione statale sui deepfake in ambito elettorale.” Public Citizen, 2025. citizen.org citizen.org
- Partnership on AI. “Media sintetici e deepfake – Caso di studio: Slovacchia 2023.” (Citato nell’analisi di Knight Columbia). brennancenter.org brennancenter.org
- Kapoor, Sayash & Arvind Narayanan. “Abbiamo analizzato 78 deepfake elettorali. La disinformazione politica non è un problema dell’IA.” Knight First Amendment Institute, 13 dic 2024. knightcolumbia.org knightcolumbia.org
- Rapporto CETaS (2024), Raccomandazioni di policy (focus Regno Unito). cetas.turing.ac.uk cetas.turing.ac.uk
- Rapporto CETaS (2024), Raccomandazioni su rilevazione e provenienza. cetas.turing.ac.uk cetas.turing.ac.uk
- Public Safety Canada. “Protezione contro la disinformazione abilitata dall’IA” (sintesi 2023). policyoptions.irpp.org policyoptions.irpp.org
- InnovationAus. “Il divieto sui deepfake nelle elezioni del governo ‘resterà in sospeso’ fino al 2026.” (Australia) 2023. innovationaus.com
- Riferimenti aggiuntivi: Articoli di Reuters, Wired e CNN citati nelle fonti sopra per incidenti specifici (ad es. deepfake su Zelensky, frode a Hong Kong da 25 mln $ via deepfake su Zoom weforum.org), e allerta ai consumatori FTC su truffe vocali tramite clonazione weforum.org. Questi sono inclusi nelle analisi e accessibili tramite i link delle fonti elencate.