Medios Sintéticos y Deepfakes: Protegiendo el Ciclo Electoral de 2025

junio 30, 2025
Synthetic Media and Deepfakes: Safeguarding the 2025 Election Cycle

Los avances en inteligencia artificial han permitido la creación de medios sintéticos: contenido generado o manipulado por IA a una escala sin precedentes. A medida que las naciones democráticas se acercan al ciclo electoral de 2025, funcionarios y expertos están lanzando alarmas sobre la desinformación impulsada por IA. En una encuesta reciente, el 85% de los estadounidenses expresó preocupación por los “videos y audios engañosos de deepfakes” que podrían afectar las elecciones brennancenter.org. Los titulares advierten que los “deepfakes” generados por IA podrían causar estragos en las campañas y la confianza de los votantes brennancenter.org, subrayando la urgencia de proteger la integridad electoral. Este informe analiza qué son los medios sintéticos y los deepfakes, cómo amenazan a la democracia y qué se puede hacer —desde soluciones tecnológicas hasta políticas públicas— para proteger las elecciones en 2025 y en adelante.

¿Qué son los medios sintéticos y los deepfakes?

Medios sintéticos es un término amplio para referirse a contenido digital (imágenes, video, audio, texto) que es producido o alterado artificialmente por medios automatizados, especialmente algoritmos de IA en.wikipedia.org. Los sistemas de IA generativa actuales pueden crear resultados realistas similares a los humanos en todos los medios: desde fotos de personas que nunca existieron, hasta voces clonadas y artículos escritos por IA. Los deepfakes son un subconjunto particular de los medios sintéticos: imágenes, videos o audios falsos de altísimo realismo creados con IA (de ahí “deep” learning + “fake”) para suplantar a personas reales encyclopedia.kaspersky.com. En la práctica, un deepfake puede ser un video donde el rostro de un político es intercambiado de manera convincente por el de otra persona, o un audio que imita la voz de un candidato diciendo palabras que nunca pronunció en realidad.

¿Cómo se crean los deepfakes? La mayoría se generan mediante técnicas avanzadas de aprendizaje profundo. Un método común utiliza redes generativas antagónicas (GANs): dos redes neuronales que se entrenan mutuamente icct.nl. Una red (el generador) fabrica medios falsos (por ejemplo, la imagen del rostro de una persona) y la otra (el discriminador) intenta detectar si es falso. Tras miles de iteraciones, el generador aprende a producir resultados cada vez más realistas hasta que el discriminador ya no puede distinguir la diferencia icct.nl. Originalmente, crear un deepfake convincente requería grandes cantidades de datos de entrenamiento y hardware muy potente—por ejemplo, un experimento para simular al actor Tom Cruise requirió dos meses de entrenamiento en GPUs de alta gama icct.nl. Sin embargo, las herramientas han evolucionado rápidamente. Ahora, el software de deepfakes sofisticado es ampliamente accesible y rápido, a veces incluso operando en tiempo real (por ejemplo, alterando una transmisión de video en vivo o una llamada de voz al instante) encyclopedia.kaspersky.com. Además de las GANs, otras arquitecturas de IA también participan: los modelos transformers pueden generar texto deepfake o ayudar en la clonación de voces encyclopedia.kaspersky.com. En resumen, los avances recientes en IA han hecho que sea fácil y barato para casi cualquiera crear contenido audiovisual engañoso, bajando drásticamente la barrera para operaciones de desinformación.

Es importante notar que no todos los medios sintéticos son maliciosos. El contenido generado por IA puede usarse para fines benignos y creativos—avatares personalizados, doblaje de voz a otros idiomas, sátira y entretenimiento, etc. De hecho, en elecciones globales durante 2024, aproximadamente la mitad de los usos documentados de IA en contenido político fueron no engañosos (por ejemplo, un candidato usando transparentemente una voz de IA tras perder la suya, o periodistas empleando un avatar de IA para proteger su identidad) knightcolumbia.org knightcolumbia.org. Pero este informe se enfoca en el lado malicioso de los medios sintéticos: deepfakes destinados a engañar, manipular o desinformar a los votantes y a la opinión pública.

Riesgos para los procesos democráticos

Los medios sintéticos y los deepfakes representan riesgos significativos para la democracia, particularmente durante las elecciones, cuando un electorado informado y la confianza en la información son fundamentales. Las amenazas clave incluyen:

  • Desinformación y manipulación de votantes: Videos, imágenes o audios falsos generados por IA pueden usarse para difundir información falsa sobre candidatos o temas, engañando a los votantes. Por ejemplo, un deepfake puede mostrar a un candidato haciendo declaraciones incendiarias que nunca realizó. Este tipo de contenido fabricado puede inyectar falsedades tóxicas en el debate público. Los expertos advierten que los deepfakes “presentan un alto riesgo” para los votantes al introducir contenido falso en las campañas y socavando la confianza pública aljazeera.com. Un video manipulado de manera convincente difundido poco antes del Día de la Elección—sin tiempo para ser desmentido—podría influir incluso en los votantes indecisos o suprimir la participación, pudiendo alterar el resultado citizen.org. Esta amenaza no es solo teórica: como se detalla más adelante, un deepfake de audio en 2024 suplantó al presidente de EE.UU. alentando a sus seguidores a no votar, aparentemente con el fin de desalentar la participación aljazeera.com aljazeera.com.
  • Socavamiento de la confianza (“Dividendos del mentiroso”): Más allá de una falsificación puntual, la mera existencia de deepfakes puede minar la confianza pública en la información real. Los votantes pueden comenzar a dudar de la evidencia auténtica, sin estar seguros de si un video viral es real o una falsificación por IA. Aún peor, actores corruptos pueden explotar esta duda: los escándalos reales o grabaciones verídicas pueden descartarse como “simplemente un deepfake”, permitiendo que los responsables evadan rendir cuentas. Los académicos han denominado esto “el dividendo del mentiroso”: a mayor conciencia sobre los deepfakes, más fácil resulta que los mentirosos aleguen que evidencias legítimas son falsas brennancenter.org. El aumento de la conciencia pública sobre el poder de la IA significa que un político sorprendido en un acto indebido puede engañar más fácilmente al público alegando que un audio o video incriminatorio es un montaje generado por IA brennancenter.org. Esta dinámica amenaza la confianza fundamental en la que descansa el discurso democrático. Observadores electorales notaron que en 2024 algunos candidatos y sus seguidores gritaban preventivamente “¡falso de IA!” para descartar historias incómodas brennancenter.org brennancenter.org. A largo plazo, si la ciudadanía siente que “no se puede confiar en nada que ves u oyes”, se erosiona la realidad compartida que se necesita para elecciones libres y justas cetas.turing.ac.uk cetas.turing.ac.uk.
  • Ampliación de la polarización y el conflicto: Hasta ahora, la evidencia sugiere que la propaganda deepfake a menudo refuerza los prejuicios preexistentes de las personas en vez de persuadir a través de líneas ideológicas cetas.turing.ac.uk. El contenido malicioso generado por IA suele ser aceptado y difundido por quienes ya tienen posturas extremas, lo que amplifica las cámaras de eco. Durante la campaña presidencial de EE.UU. en 2024, los investigadores hallaron que las falsedades generadas por IA servían más para intensificar narrativas partidistas e inflamar debates que para sumar nuevos creyentes cetas.turing.ac.uk. Por ejemplo, videos falsos dirigidos al presidente Biden o a la vicepresidenta Harris atrajeron millones de visualizaciones en línea y en su mayoría fueron circulados por usuarios ya hostiles hacia ellos cetas.turing.ac.uk cetas.turing.ac.uk. Al consolidar bandos ideológicos con “evidencias” falsas impactantes de la perfidia del otro lado, los deepfakes pueden separar cada vez más a las comunidades, envenenando el ambiente de campaña. Además, la confusión y la desconfianza que siembran los deepfakes generan terreno fértil para que proliferen las teorías de conspiración cetas.turing.ac.uk, ya que los ciudadanos pueden descartar con mayor facilidad cualquier realidad incómoda como una fabricación de IA.
  • Socavamiento de la administración electoral: El riesgo va más allá de engañar a los votantes sobre candidatos: los deepfakes podrían también interrumpir el proceso electoral en sí. Autoridades han imaginado escenarios donde clones de voz por IA o mensajes falsos simulan ser de autoridades electorales, indicando a los trabajadores de mesa que cierren los centros de votación antes de tiempo o dando instrucciones falsas a los votantes (por ejemplo, “la elección se ha pospuesto”) aljazeera.com. Un adversario sofisticado podría simular una directiva de la comisión electoral o la voz de un funcionario local de confianza para sabotear las operaciones de votación. Tales tácticas podrían suprimir votos o provocar caos el día de la elección. El Brennan Center de EE.UU. señala que los medios manipulados pueden usarse para engañar no solo al público, sino también a los trabajadores electorales, requiriendo nuevos entrenamientos y protocolos aljazeera.com.
  • Acoso y asesinato de reputación: Los deepfakes también ofrecen un arma potente para ataques personales contra candidatos, activistas o periodistas. Una de las categorías más perniciosas es la de pornografía sintética no consensuada: tomar el rostro de una persona y colocarlo en contenido sexual explícito. Esta táctica ya ha sido utilizada para acosar a mujeres periodistas y políticas en todo el mundo. La forma más extrema de acoso con deepfakes es la creación de imágenes íntimas falsas usadas para humillar o chantajear a individuos weforum.org. En contexto electoral, operadores pueden difundir un video comprometedor falso de un candidato (por ejemplo, un video sexual deepfake o una grabación de conducta ilegal simulada) poco antes de una votación. Incluso si se desmiente rápidamente, el daño a la reputación puede estar hecho. Mujeres y minorías son desproporcionadamente objetivo de estas campañas de “difamación sintética”, lo cual puede disuadir la postulación de candidatos diversos policyoptions.irpp.org policyoptions.irpp.org. En resumen, los deepfakes suman nuevo combustible a viejos trucos sucios: desde escándalos falsos hasta citas inventadas, potenciando los intentos de asesinato de reputación en campañas electorales.

Finalmente, es importante señalar que hasta ahora no hemos presenciado una catástrofe electoral inducida por deepfakes. Los análisis empíricos de elecciones en 2024 a nivel mundial hallaron poca evidencia de que la desinformación generada por IA cambiara algún resultado electoral cetas.turing.ac.uk weforum.org. La desinformación tradicional (montajes baratos, rumores, giros partidistas) sigue siendo un factor mucho mayor en la difusión de falsedades que los deepfakes de alta tecnología knightcolumbia.org knightcolumbia.org. Sin embargo, los expertos advierten que la ausencia de un desastre hasta ahora no debe traducirse en complacencia cetas.turing.ac.uk weforum.org. La tecnología avanza rápidamente y los actores hostiles están aprendiendo. Incluso si los deepfakes no inclinaron una gran elección en 2024, sí influyeron en el discurso público; por ejemplo, mentiras virales generadas por IA sobre candidatos se convirtieron en temas en debates mediáticos cetas.turing.ac.uk. Además, la percepción misma de la amenaza de los deepfakes contribuyó a la ansiedad y desconfianza pública en torno a las elecciones cetas.turing.ac.uk cetas.turing.ac.uk. El potencial para un incidente más dañino persiste, especialmente a medida que nos acercamos a las elecciones de alto riesgo de 2025. Las sociedades democráticas deben tratar los deepfakes como un serio problema de seguridad e integridad, abordando tanto el riesgo directo de medios fabricados como la erosión más amplia de la verdad en el ámbito electoral.

Incidentes Recientes: Deepfakes que Alteran la Política

Casos reales de los últimos años ilustran cómo los medios sintéticos ya han sido utilizados como armas en contextos políticos. A continuación revisamos varios incidentes notables y estudios de caso de deepfakes y desinformación generada por IA que han afectado elecciones o el discurso público:

  • Ucrania (marzo de 2022) – Video de “rendición”: En los primeros días de la guerra de Rusia contra Ucrania, apareció un video que mostraba al presidente ucraniano Volodymyr Zelensky instando a sus tropas a deponer las armas y rendirse. El video era un deepfake, con la imagen y la voz de Zelensky alteradas sintéticamente icct.nl. Imperfecciones evidentes (bordes borrosos, tono de cuello que no coincidía) lo delataron, y los medios ucranianos destaparon rápidamente el engaño. Este incidente –el primer uso conocido de un deepfake en un conflicto armado– presagió cómo la propaganda de IA podría utilizarse para socavar a líderes durante crisis icct.nl. Aunque el video falso de Zelensky no logró desmoralizar la resistencia de Ucrania, demostró la intención y la capacidad de actores maliciosos (en este caso, sospechosos operativos rusos) de usar deepfakes para la guerra de información.
  • Eslovaquia (septiembre de 2023) – Desinformación electoral: Justo días antes de las elecciones parlamentarias de Eslovaquia, grabaciones de audio deepfake se viralizaron, supuestamente mostrando a Michal Šimečka, líder del partido Progresista de Eslovaquia, confesando fraude electoral e incluso proponiendo duplicar el precio de la cerveza brennancenter.org. Algunas versiones incluían una leve advertencia de que eran generadas por IA, pero aparecía solo al final del clip –probablemente un ardid deliberado para engañar a los oyentes brennancenter.org. El momento era claramente estratégico, justo antes de la votación. El partido pro-occidental de Šimečka perdió por poco ante un rival pro-Kremlin y algunos comentaristas especularon que el ataque deepfake de último minuto pudo haber afectado el resultado brennancenter.org. Este caso subraya cómo actores extranjeros o nacionales pueden desplegar deepfakes para inclinar una contienda cerrada y lo difícil que puede ser contrarrestar narrativas falsas en los momentos finales de una campaña.
  • Taiwán (enero de 2024) – Operaciones de influencia extranjera: Antes de las elecciones presidenciales de Taiwán en 2024, observadores documentaron una campaña de desinformación china utilizando deepfakes para socavar al candidato Lai Ching-te. Circularon videos falsos en línea mostrando a Lai (del partido gobernante pro-independencia) realizando declaraciones que nunca hizo –por ejemplo, insinuando falsamente que apoyaba la plataforma de sus oponentes policyoptions.irpp.org. En un caso, se publicó audio generado por IA de Lai que parecía mostrarlo criticando a su propio partido policyoptions.irpp.org, intentando fracturar su apoyo. Estos ataques con medios sintéticos, rastreados hasta China, buscaban influenciar la opinión pública y sembrar confusión en la democracia taiwanesa policyoptions.irpp.org. Finalmente, Lai ganó la elección y los analistas concluyeron que la campaña de deepfakes china no cambió significativamente el resultado policyoptions.irpp.org. Sin embargo, proporcionó un ejemplo de manual de cómo una potencia extranjera hostil utiliza propaganda de IA contra elecciones democráticas policyoptions.irpp.org policyoptions.irpp.org. La preocupación persiste en que, en unas elecciones más reñidas en otro país, estas tácticas sí podrían tener un mayor impacto.
  • Estados Unidos (2024) – Deepfakes en la campaña: El ciclo electoral de EE. UU. de 2024 presenció una oleada de contenidos políticos generados por IA que, si bien no descarrilaron la elección, generaron alarma. A principios de 2024, votantes de New Hampshire recibieron una desconcertante llamada automática: una voz parecida al presidente Joe Biden diciéndoles a los demócratas “para salvar tu voto, no lo uses en estas elecciones”. La voz sonaba auténtica para algunos, pero el mensaje era claramente sospechoso –Biden nunca pediría a sus partidarios que no votaran. En realidad, se trataba de un clon de voz deepfake de Biden, enviado a miles de votantes en un aparente intento de supresión electoral aljazeera.com aljazeera.com. Este incidente, que llegó a unas 5,000 líneas telefónicas de New Hampshire, mostró cuán fácil y barato puede resultar realizar estos trucos sucios –el consultor que creó el deepfake de Biden declaró que solo le tomó 20 minutos y costó alrededor de $1 en computación policyoptions.irpp.org policyoptions.irpp.org. Mientras tanto, en redes sociales, imágenes generadas por IA llegaron a materiales de campaña oficiales. Notablemente, el equipo del gobernador de Florida, Ron DeSantis, difundió un anuncio de ataque con imágenes manipuladas de Donald Trump abrazando al Dr. Anthony Fauci –sugiriendo que Trump era demasiado afín con el exasesor de COVID, impopular entre conservadores. Resultó que las imágenes de Trump abrazando a Fauci eran falsificaciones generadas por IA insertadas en el video por la campaña brennancenter.org, lo que generó críticas públicas una vez descubierto. En otro caso, un video de IA del presidente Biden “hablándole” a la nación con lenguaje inarticulado se viralizó en línea, hasta que fue desmentido. Algunos videos falsos de Biden y la vicepresidenta Harris acumularon millones de vistas en redes sociales cetas.turing.ac.uk, mostrando cuán rápido puede propagarse este contenido. Incluso magnates tecnológicos se involucraron: Elon Musk infamemente volvió a compartir un video burdamente alterado de la vicepresidenta Harris (etiquetado como “sátira”) que la mostraba diciendo incoherencias, difuminando la línea entre humor meme y desinformación cetas.turing.ac.uk cetas.turing.ac.uk. Aunque ninguna de estas falsificaciones alteró el rumbo de la elección, sí reforzaron narrativas falsas (por ejemplo, sobre la agudeza mental de Biden o las lealtades de Trump) y envenenaron aún más el entorno informativo. Funcionarios estadounidenses también temen deepfakes que apunten contra la infraestructura electoral –por ejemplo, audios falsos de supervisores electorales ordenando acciones indebidas aljazeera.com– aunque en 2024 no se confirmó públicamente ningún incidente de ese tipo.

Estos ejemplos ponen de relieve el alcance global de la amenaza. Los deepfakes han sido utilizados por actores estatales en conflictos geopolíticos, por provocadores en elecciones domésticas desde Europa hasta Asia, y por campañas y simpatizantes en Estados Unidos. Han tomado la forma de discursos falsos, imágenes, llamadas telefónicas y videos –dirigidos tanto a votantes como a autoridades electorales. Los incidentes hasta ahora también ofrecen algunas lecciones: muchos deepfakes han sido detectados y expuestos relativamente rápido (a menudo por periodistas alertas o verificadores de hechos), y en varios casos la reacción negativa por el uso de deepfakes (por ejemplo, el anuncio de DeSantis) generó mala prensa para los perpetradores. Esto sugiere que la transparencia y la vigilancia pueden mitigar su daño. Sin embargo, la tendencia es clara: estas falsedades sintéticas son cada vez más frecuentes y más difíciles de distinguir de la realidad. Cada elección trae nuevas primicias (2024 fue testigo de las primeras estafas de “robocalls” con IA para influir en el voto, el primer uso de deepfakes en anuncios de campaña, etc.), y el riesgo de un incidente deepfake más dañino se hace cada vez más grande a medida que nos acercamos a 2025.

Detección y Contramedidas contra Deepfakes: Herramientas y Tecnologías

Un componente crítico para la protección de las elecciones es el desarrollo de herramientas confiables de detección y mitigación contra los deepfakes. Investigadores, empresas tecnológicas y gobiernos compiten por crear tecnologías capaces de identificar falsificaciones de IA y autenticar contenido real. A continuación, presentamos una visión general del panorama actual de detección de deepfakes y medidas relacionadas:

  • Detectores automatizados de deepfakes: La defensa principal es IA combatiendo a IA: algoritmos entrenados para analizar medios y detectar indicios de manipulación. Estos sistemas de detección buscan artefactos sutiles o inconsistencias dejadas por los modelos generativos. Los primeros deepfakes, por ejemplo, solían mostrar parpadeos irregulares o sincronización labial imperfecta. Los detectores actuales usan redes neuronales profundas para escrutar detalles como iluminación y sombras en rostros, patrones de frecuencia de audio o señales biológicas (por ejemplo, el pulso en video) que la IA podría no replicar fielmente. Las empresas tecnológicas han desarrollado herramientas internas; por ejemplo, Microsoft lanzó su “Video Authenticator” en 2020, capaz de señalar videos falsos analizando cuadro por cuadro. Plataformas como Facebook y X (Twitter) han invertido en investigación de detección y despliegan diversos filtros para atrapar medios falsos conocidos. Las iniciativas académicas y competencias (como el Facebook Deepfake Detection Challenge y conferencias IEEE) han impulsado avances, y startups como Sensity y Reality Defender ofrecen servicios comerciales de detección de deepfakes a clientes. Sin embargo, esto es una auténtica carrera armamentista: a medida que la detección mejora, los creadores de deepfakes se adaptan para producir falsificaciones cada vez más perfectas que eluden los controles automáticos. Destacablemente, un informe de Meta de 2023 detectó que de toda la desinformación señalada durante el ciclo electoral de 2024, “menos del 1%” fue identificada como contenido generado por IA weforum.org, lo que sugiere que los deepfakes fueron relativamente raros o que muchos pasaron desapercibidos ante los detectores.
  • Marca de agua y procedencia del contenido: Otra estrategia es etiquetar el contenido generado por IA desde su creación para que los usuarios puedan identificarlo fácilmente como sintético. La UE fomenta activamente este enfoque: la nueva Ley de IA de la UE exige explícitamente que todo contenido generado o manipulado por IA esté claramente etiquetado o marcado como tal realitydefender.com. Las empresas deberían incrustar un indicador (marca de agua digital o metadato) cada vez que una imagen, video o audio es producido por IA. En teoría, los navegadores o redes sociales podrían automáticamente señalar o filtrar contenido con estos marcadores. El marcado de agua tiene potencial, especialmente para desalentar usos indebidos ocasionales. Proveedores de modelos de IA (como OpenAI, Google, y otros) han discutido el marcado voluntario de las imágenes o textos generados por sus sistemas. Además, una coalición de organizaciones tecnológicas y mediáticas está desarrollando estándares de procedencia (por ejemplo, el C2PA, Coalición para la Procedencia y Autenticidad de Contenido) para registrar criptográficamente el origen y la historia de edición de los medios digitales. Por ejemplo, una foto de noticias o un anuncio de campaña podría portar un certificado seguro de autenticidad, permitiendo a cualquiera verificar quién lo creó y si ha sido alterado cetas.turing.ac.uk. El gobierno estadounidense ha empezado a aplicar esto; la Casa Blanca instruyó a las agencias federales a establecer lineamientos de “autenticidad desde el diseño”, insertando metadatos de procedencia en todo contenido digital que produzcan para 2025 cetas.turing.ac.uk. Si estas medidas se adoptan ampliamente, harían mucho más difícil que contenido falso se haga pasar por real.
  • Limitaciones de las etiquetas: Si bien las herramientas de transparencia son cruciales, no son infalibles. Las marcas de agua pueden ser eliminadas o alteradas por actores maliciosos. De hecho, investigadores ya han demostrado métodos para eliminar u ocultar marcas de agua de IA realitydefender.com, y por supuesto, un creador que use modelos generativos propios puede simplemente elegir no incluir ningún marcador. Los metadatos de procedencia, además, solo ayudan si se implementan ampliamente y los consumidores realmente los revisan. Un creador de deepfake puede utilizar la técnica de “provenance piggybacking”: tomar una foto o video auténtico y superponerle elementos falsos, de modo que el archivo mantenga la firma digital original. Estos desafíos implican que no podemos depender únicamente de las etiquetas de contenido. Como señaló una empresa de ciberseguridad de IA, las soluciones de marca de agua y procedencia funcionan solo cuando los creadores cooperan etiquetando su producción, lo que no detendrá a actores maliciosos decididos realitydefender.com. Por ello, la detección basada en inferencia (analizando el propio contenido en busca de signos de manipulación por IA) sigue siendo esencial realitydefender.com. La mejor defensa probablemente combinará ambos enfoques: detectores automáticos robustos y sistemas de autenticación que verifiquen los medios legítimos.
  • Detección en tiempo real para transmisiones de video/audio: Una necesidad emergente son las herramientas capaces de detectar deepfakes en entornos en vivo. Piensa en el caso hipotético de una videollamada “en directo” fraudulenta con un candidato u oficial —tal como sucedió en 2023, cuando criminales en Hong Kong deepfakearon la imagen de un ejecutivo en Zoom para autorizar una transferencia fraudulenta de $25 millones weforum.org. En ese caso, varias personas de la llamada —incluido un falso CFO— eran generadas por IA. Detectar deepfakes en tiempo real es sumamente complicado. Empresas trabajan en soluciones tipo plugins para videollamadas que alertan si una imagen o voz parecen alteradas sintéticamente (por ejemplo, analizando la latencia del audio, anomalías espectrales o comprobando si el rostro en pantalla coincide exactamente con los movimientos captados por la cámara de una persona real). Algunas startups afirman ofrecer APIs de detección de deepfakes en tiempo real integrables en plataformas de streaming, o incluso para autenticar oradores en eventos en vivo. Sin embargo, hoy en día la detección en vivo va rezagada respecto a los atacantes, por lo que se refuerzan medidas preventivas (como el uso de contraseñas o “palabras clave secretas” en llamadas telefónicas para verificar identidades, tal como recomienda la policía weforum.org).
  • Verificadores humanos y advertencias de la comunidad: La tecnología sola no es una solución mágica. Una capa humana vigilante sigue siendo crucial. Organizaciones de noticias, grupos de verificación y plataformas han creado equipos especiales para monitorear la viralización de deepfakes durante elecciones. Estos equipos emplean técnicas OSINT (inteligencia de fuentes abiertas) y herramientas forenses para analizar medios sospechosos: revisan fechas, buscan inconsistencias (como aretes cambiados en un político en video o movimientos de boca extraños) y publican desmentidos rápidamente. Los esfuerzos colaborativos también ayudan: en X/Twitter, la funcionalidad “Community Notes” ha servido para marcar publicaciones con imágenes o videos generados por IA, agregando contexto aclaratorio. En elecciones recientes, usuarios han expuesto deepfakes a las pocas horas de su aparición, comparando lado a lado o señalando defectos. Este tipo de vigilancia colectiva, apoyada por alfabetización digital, es una herramienta poderosa. Las plataformas dependen cada vez más de los usuarios y verificadores independientes para detectar contenido fraudulento, dada la escala que deben filtrar los sistemas automáticos. El inconveniente es que un deepfake puede hacerse viral antes de ser desmentido. Aun así, mejorar la velocidad de respuesta y ampliar la educación (para que más usuarios identifiquen falsificaciones por sí mismos) mitigará el daño.

En resumen, la detección de deepfakes es un campo activo y en evolución. Hay progresos –por ejemplo, los detectores actuales son mucho mejores que en 2018, e iniciativas como la Content Authenticity Initiative buscan que la verificación sea estándar. Pero persisten retos por la dinámica de gato y ratón con los adversarios y la necesidad de adopción masiva de herramientas. Probablemente en los próximos años la tecnología de detección se integre más en redes sociales, flujos de trabajo periodísticos e incluso dispositivos (imagina que tu smartphone te advierta si un video recibido es generado por IA). Es fundamental que las herramientas de detección y procedencia vayan acompañadas de educación pública, para que cuando aparezca una alerta o etiqueta, los usuarios la entiendan y actúen en consecuencia. Esta faceta tecnológica es solo uno de los pilares necesarios para contrarrestar las amenazas de los medios sintéticos.

Respuestas Políticas y Marcos Normativos

Los responsables políticos alrededor del mundo han despertado ante la amenaza de los deepfakes y han comenzado a diseñar leyes y regulaciones para enfrentarla. Aunque el problema es novedoso, surge un mosaico de respuestas entre las principales democracias. Abajo se presenta un resumen de los esfuerzos legislativos y regulatorios en marcha:

  • Estados Unidos: En EE. UU., actualmente no existe una ley federal general contra deepfakes políticos, pero se acelera el impulso para cubrir ese vacío. Se han presentado múltiples proyectos de ley en el Congreso para frenar los deepfakes maliciosos. Por ejemplo, a inicios de 2024, legisladores propusieron la No AI FRAUD Act en respuesta a incidentes destacados (como imágenes explícitas de celebridades generadas por IA) policyoptions.irpp.org. Ese proyecto busca establecer un marco federal que penalice ciertos usos nocivos de la IA, como deepfakes políticos fraudulentos y pornografía falsa engañosa policyoptions.irpp.org. Otra idea legislativa es exigir la divulgación de contenido generado por IA en anuncios electorales (para que las campañas etiqueten claramente los anuncios con medios sintéticos). Mientras tanto, la Comisión Federal de Comunicaciones (FCC) dio un paso focalizado al prohibir el uso de voces sintéticas de IA en llamadas automáticas con fines de estafa o daño policyoptions.irpp.org. La medida responde a estafas donde impostores suplantaban voces de personas reales. La agencia ahora prohíbe a telemercaderes o actores políticos usar mensajes de voz sintéticos para engañar. Mucha de la regulación deepfake en EE. UU. ocurre a nivel estatal. Desde 2019, estados como California y Texas han aprobado leyes específicas en contexto electoral: California prohíbe distribuir videos deepfake materialmente engañosos sobre candidatos dentro de los 60 días previos a una elección (con excepciones de sátira/parodia) brennancenter.org. Texas lo tipifica como delito estatal crear o difundir videos deepfake para perjudicar a un candidato o influir en la votación brennancenter.org. A mediados de 2025, al menos catorce estados de EE. UU. han promulgado o debaten leyes para regular deepfakes en contextos electorales citizen.org. Destaca el apoyo bipartidista – legisladores de ambos partidos coinciden en que la desinformación electoral manipulada por IA es una amenaza para la democracia citizen.org citizen.org. Las leyes estatales varían: algunas imponen sanciones penales para la difusión de deepfakes dañinos sobre candidatos, otras exigen advertencias en los anuncios de campaña con medios sintéticos. Asimismo, el grupo de presión Public Citizen pidió a la Comisión Federal de Elecciones actualizar sus reglas y prohibir a los candidatos federales difundir deepfakes engañosos en campañas brennancenter.org. Si bien la FEC no ha publicado nuevas regulaciones, el tema está sobre la mesa. Los legisladores deben equilibrar además la protección de la libertad de expresión – prohibiciones excesivamente amplias sobre medios manipulados pueden entrar en conflicto con la Primera Enmienda. Por ejemplo, la sátira y la parodia (protegidas constitucionalmente) suelen usar imágenes o videos alterados; las leyes deben centrarse solo en el engaño malicioso. Esto se refleja en muchos estatutos estatales que dejan explícitamente excepciones para parodia, sátira o fines periodísticos brennancenter.org brennancenter.org. El consenso general es que el contenido falso generado por IA que busca engañar intencionalmente a los votantes o causar disturbios no tiene valor legítimo en democracia y puede ser restringido sin afectar la libertad de expresión brennancenter.org brennancenter.org.
  • Unión Europea: La UE avanza agresivamente en la regulación de IA en general, incluyendo medidas directamente relevantes para los deepfakes. La emblemática Ley de IA de la UE (EU AI Act), acordada en 2024 (aplicación plena en 2026, con algunas disposiciones antes), incluye un requisito de transparencia para medios sintéticos. Según la ley, todo sistema de IA capaz de generar “deepfakes” debe asegurar que el contenido esté etiquetado como generado por IA (excepto en algunos casos, como arte o investigación de seguridad) realitydefender.com. En la práctica, los desarrolladores de modelos generativos de imagen o video en la UE estarán obligados a implementar marcado de agua o metadatos que indiquen que el material es sintético, so pena de cuantiosas multas. Además, el Código de Buenas Prácticas sobre Desinformación de la UE (código voluntario firmado por las grandes plataformas) señala específicamente a los deepfakes como una amenaza, comprometiendo a las plataformas a desarrollar políticas, medidas y herramientas para abordar el contenido manipulado brennancenter.org brennancenter.org. Así, las plataformas acordaron implementar sistemas para detectar y etiquetar o eliminar videos deepfake que puedan causar daño público, y cooperar con verificadores para desmentir IA falsa rápidamente. Bajo la Digital Services Act (DSA) – en vigor desde 2023–, las grandes plataformas online de la UE deben evaluar y mitigar los “riesgos sistémicos” en sus servicios, incluida la desinformación generada por IA. Esta presión regulatoria llevó a Meta, Google y TikTok a anunciar nuevas salvaguardas electorales para 2024–2025, desde mejor detección de deepfakes hasta etiquetas visibles en medios sintéticos. En resumen, Europa adopta una postura regulatoria centrada en la transparencia: exige etiquetas en las producciones de IA y responsabiliza a las plataformas de frenar la desinformación deepfake. Los críticos señalan que la aplicación será desafiante (¿cómo detectar todos los falsos sin etiqueta entre el aluvión digital?), pero la UE deja claro que los deepfakes sin control son inaceptables y contrarios a su estándar de gobernanza digital realitydefender.com realitydefender.com.
  • Reino Unido: El Reino Unido aún no ha aprobado leyes electorales específicas sobre deepfakes, pero atiende el problema con iniciativas más amplias sobre seguridad digital e IA. En 2023 se promulgó la Online Safety Act, una ley amplia para combatir contenido dañino en línea. Esta ley criminaliza la difusión de pornografía deepfake no consentida —es ilegal crear o distribuir imágenes sintéticas explícitas de alguien sin su permiso policyoptions.irpp.org. Así cubre el aspecto de acoso de los deepfakes. Para la desinformación electoral, la ley da poder a Ofcom (regulador de comunicaciones) para emitir códigos de buenas prácticas en desinformación. Expertos instan a Ofcom a elaborar un Código de Conducta sobre Desinformación que incluya normas sobre gestión de contenido manipulado por IA cetas.turing.ac.uk. Un código así, modelado quizá en el europeo, podría exigir a plataformas y actores políticos británicos no difundir deepfakes y etiquetar todo contenido sintético. También se pide a la Comisión Electoral dar guía a partidos sobre el uso responsable de IA, trazando líneas rojas contra los deepfakes engañosos en campañas cetas.turing.ac.uk. En 2024, un comité parlamentario recomendó endurecer la ley electoral para penalizar la desinformación deepfake, pero no se ha legislado formalmente. El gobierno revisa si el marco legal actual (difamación, fraude, delitos electorales) basta para sancionar el uso malicioso de deepfakes o si hacen falta nuevas normas cetas.turing.ac.uk. Además, el Reino Unido ha creado un Instituto de Seguridad de la IA y organizó una cumbre internacional en 2023 donde la manipulación digital fue tema central. Las autoridades británicas parecen enfocarse en defensas técnicas y alfabetización mediática (véase recomendaciones abajo) tanto como en prohibiciones legales. Aun así, avances como el veto a la pornografía deepfake y el fortalecimiento de reguladores muestran que la desinformación sintética requiere respuesta política.
  • Canadá: En 2024, Canadá no tenía una ley específica contra deepfakes electorales. La Ley Electoral Canadiense no prohíbe explícitamente la desinformación originada por IA, así que debería perseguirse bajo disposiciones generales (fraude, suplantación), que pueden ser insuficientes cef-cce.ca. Expertos resaltan esta carencia y alertan que Canadá “va un paso atrás” de otras democracias policyoptions.irpp.org. En otoño de 2023, Canadá vivió un incidente menor de deepfake en el que circuló un audio fraudulento imitando la voz de un político. Aunque su impacto fue limitado, sí concienció a las autoridades. Elections Canada reconoció la amenaza y estudia posibles respuestas cef-cce.ca. Analistas proponen una ley “urgente” —posiblemente facultando al Comisionado de Elecciones para perseguir medios sintéticos engañosos en campañas policyoptions.irpp.org. Canadá puede tomar ideas de sus aliados, como reglas de divulgación de anuncios electorales generados por IA o tipificar delito difundir material sabiendo que es un deepfake dirigido a confundir a votantes. Hasta mediados de 2025, aún no se ha presentado un proyecto de ley, pero crece la presión para que Canadá se sume a la regulación internacional de deepfakes electorales policyoptions.irpp.org.
  • Otras democracias: En todo el mundo, varias democracias han implementado medidas:
    • Australia: El gobierno australiano, preocupado por la “decadencia de la verdad” de la IA antes de elecciones, anunció una futura ley de “veracidad en la publicidad política” que prohibiría videos y audios deepfake engañosos en campaña innovationaus.com. La propuesta, presentada por el gobierno Albanese en 2023, prohibiría publicar medios sintéticos que suplanten a candidatos o puedan confundir a votantes durante campañas innovationaus.com. Sin embargo, el trámite legislativo es lento, de modo que podría no estar vigente hasta 2026 innovationaus.com, por lo que las elecciones federales de 2025 transcurrirán probablemente sin esta protección. Mientras tanto, la Comisión Electoral de Australia publicó directrices y remarcó la importancia de la perspectiva (señalando que el exceso de enfoque en deepfakes puede afectar la confianza en información real) ia.acs.org.au. Políticos australianos de todos los partidos apoyan restringir la desinformación por IA, aunque el debate continúa sobre cómo compatibilizarlo con la libertad política theguardian.com sbs.com.au.
    • Taiwán: Tras experimentar interferencias de deepfakes desde China, Taiwán enmendó las leyes electorales en 2023. La reforma a la Ley de Elección y Revocatoria prohíbe específicamente compartir audios o videos alterados de candidatos con la intención de influir falsamente en el resultado policyoptions.irpp.org. Esto ofrece una herramienta legal clara contra campañas de desprestigio por deepfakes, como las vistas en 2024. Taiwán también invirtió en educación pública y un sistema de respuesta rápida (gobierno, sociedad civil, plataformas tecnológicas) para desmentir información falsa, lo cual ayudó a mitigar el impacto policyoptions.irpp.org policyoptions.irpp.org.
    • Democracias europeas: Países europeos, aparte de las reglas de la UE, han comenzado a aplicar leyes existentes a los deepfakes. Francia, por ejemplo, puede aplicar su ley contra la “información falsa” electoral (desde 2018) a videos deepfake que busquen alterar la votación, y Alemania puede recurrir a sus normas de difamación y elección. Pero también hay propuestas nuevas: en Alemania se baraja exigir a los partidos políticos declarar el uso de medios sintéticos en sus materiales de campaña. En el Reino Unido, como se ha señalado, futuras reformas pueden incluir la exigencia de declarar IA en anuncios digitales cetas.turing.ac.uk.
    • Iniciativas internacionales: Crece el reconocimiento de que la cooperación global es imprescindible, ya que la desinformación cruza fronteras. El G7 cuenta con un grupo de trabajo sobre “gobernanza de IA” que en 2024 emitió una declaración sobre combatir el uso malicioso de IA en el espacio informativo. El gobierno de EE. UU. logró además compromisos voluntarios de las grandes tecnológicas (OpenAI, Google, Meta, etc.) para aplicar marcas de agua a contenidos IA e invertir en prevención de abusos. Si bien no son vinculantes, indican la emergencia de una norma internacional en favor de la transparencia y responsabilidad en el uso de IA.

En síntesis, las respuestas políticas frente a los deepfakes se están acelerando. Aunque la legislación apenas alcanza a la tecnología, la tendencia es clara: los gobiernos avanzan para criminalizar los usos más dañinos de medios sintéticos en elecciones, imponer transparencia (etiquetas/disclosures) sobre el contenido generado por IA, y dar potestad a reguladores y autoridades electorales para actuar contra falsificaciones digitales. Paralelamente, deben proteger la libertad de expresión legítima (sátira, parodia) y evitar reglas draconianas que puedan servir para censura. Hallar ese equilibrio es complejo. La variedad de enfoques —leyes estatales estadounidenses, mandatos europeos— servirá como laboratorio en 2025. Sin duda, los legisladores afinarán estas herramientas a medida que aprendamos qué funciona. Pero quedarse de brazos cruzados no es opción: como resumió un rastreador normativo, “Sin regulación, los deepfakes probablemente confundirán aún más a los votantes y socavarán la confianza en las elecciones.” citizen.org citizen.org La próxima sección presenta recomendaciones estratégicas para todos los actores del proceso democrático.

Recomendaciones estratégicas para salvaguardar las elecciones

Defender la integridad electoral en la era de la IA requerirá una estrategia multifacética. Ninguna herramienta o ley por sí sola puede resolver el problema de los deepfakes; en cambio, se necesita un esfuerzo coordinado entre gobiernos, plataformas tecnológicas, medios de comunicación y la sociedad civil. A continuación se presentan recomendaciones estratégicas para estos sectores, con el fin de mitigar riesgos y garantizar que los votantes puedan tomar decisiones informadas en 2025 y más allá:

Gobiernos y responsables de políticas públicas

1. Fortalecer las protecciones legales y la disuasión: Los gobiernos deben promulgar o actualizar leyes para prohibir explícitamente el uso malicioso de medios sintéticos en elecciones. Esto incluye criminalizar la creación o distribución, con la intención de engañar al público o sabotear unas elecciones, de cualquier deepfake que represente falsamente a un candidato o manipule información electoral (como los procedimientos de votación). Es clave que la legislación sea precisa: las leyes deben centrarse en el engaño intencional (desinformación), con exenciones claras para la sátira, parodia o expresión artística evidente. Las sanciones (multas o cargos criminales) crearán un efecto disuasorio para los posibles vendedores de deepfakes, especialmente si se aplican rápidamente. Por ejemplo, la propuesta de Australia para prohibir los deepfakes engañosos durante las campañas y las nuevas cláusulas de Taiwán contra contenido electoral manipulado por IA pueden servir como modelos innovationaus.com policyoptions.irpp.org. En EE.UU., una acción federal (como la propuesta No AI FRAUD Act) podría establecer una base a nivel nacional, complementando las leyes estatales. Además, los gobiernos deben actualizar las normas de financiamiento de campaña y publicidad: exigir que cualquier anuncio político (en línea o transmitido) que contenga medios sintéticos incluya un aviso legal claro (por ejemplo, “Esta imagen/video está generada por IA”) para que los espectadores no se vean engañados. La regulación de veracidad en la publicidad de campañas debe extenderse al contenido generado por IA.

2. Implementar protocolos de respuesta ante incidentes electorales: Las autoridades electorales deben establecer protocolos formales para responder en tiempo real a incidentes graves de deepfakes. Un gran ejemplo es el Critical Election Incident Public Protocol de Canadá, que reúne a altos funcionarios para evaluar e informar al público sobre amenazas de injerencia extranjera o desinformación durante una elección cetas.turing.ac.uk cetas.turing.ac.uk. Otras democracias deberían adoptar mecanismos similares. Si surge un deepfake peligroso (por ejemplo, un video fabricado de un candidato concediendo la derrota circula el día de la votación), el protocolo se activaría; funcionarios, expertos en inteligencia y plataformas tecnológicas verificarían rápidamente la verdad y emitirían un anuncio público desmintiendo el falso y aclarando los hechos cetas.turing.ac.uk. Esta capacidad de refutación rápida es crucial para neutralizar el impacto de la desinformación en “chorro” masivo. Los gobiernos deben practicar estas respuestas con anticipación (simular escenarios de deepfakes) para así reaccionar con rapidez y coherencia cuando sea necesario.

3. Invertir en infraestructura de detección y autenticación: Las agencias del sector público deben aportar recursos para avanzar en la detección de deepfakes y la autenticación de contenido. Esto implica financiar I+D (por ejemplo, programas tipo DARPA enfocados en la desinformación mediada por IA), apoyar el despliegue de herramientas de detección para uso electoral y adoptar estándares de autenticación en las comunicaciones gubernamentales. Un paso concreto es que los medios públicos (radiodifusoras estatales, cuentas oficiales en redes sociales, etc.) añadan metadatos de procedencia verificable a todas las fotos, videos y audios oficiales que difundan cetas.turing.ac.uk. Así, se crea una base de información “verificada genuina”. Los votantes y periodistas podrían confiar en que cualquier video con el sello gubernamental en los metadatos es auténtico, y dudar más de grabaciones similares sin esa credencial. Los gobiernos pueden liderar con este enfoque de “autenticidad por diseño” cetas.turing.ac.uk, que EE.UU. y Reino Unido ya exploran. Además, la policía y los órganos de supervisión electoral deben contar con unidades de análisis forense para evaluar medios sospechosos durante las campañas. Saber que las autoridades tienen capacidad técnica para rastrear y atribuir deepfakes (y potencialmente identificar a los responsables) también disuadirá a los actores maliciosos.

4. Aclarar y modernizar las leyes vigentes: Muchos países pueden descubrir que las leyes actuales sobre fraude, usurpación de identidad, difamación o interferencia electoral se pueden aplicar a algunos casos de deepfakes, pero puede haber vacíos legales. Los gobiernos deben revisar su código legal para ver si es necesario crear nuevas categorías. Por ejemplo, ¿existen normas que cubran la suplantación generada por IA de un funcionario público? Si no, inclúyelas. Asegura que las leyes de protección de datos y privacidad incluyan el uso no autorizado de la imagen o voz de alguien por IA como una infracción. Aclarar el estatus legal de los deepfakes dañinos (y realizar divulgación pública al respecto) es importante, para que los posibles malos actores sepan que pueden ser responsabilizados. También empodera a las víctimas (candidatos o ciudadanos) para buscar remedios si son blanco de ataques. Esta revisión debe contemplar también leyes electorales: actualizar definiciones de publicidad electoral ilegal o desinformación en encuestas para abarcar explícitamente manipulaciones por medios sintéticos cetas.turing.ac.uk. El objetivo es eliminar cualquier ambigüedad: un potencial desinformador no debe poder alegar “técnicamente no es ilegal porque es IA”. Si las leyes son explícitas, se facilita la aplicación y el enjuiciamiento.

5. Mejorar la colaboración internacional: Dado que las campañas de desinformación a menudo se originan en el extranjero (o se propagan entre fronteras), los gobiernos democráticos deben trabajar de manera conjunta en este asunto. Las agencias de inteligencia y unidades de ciberseguridad deberían compartir información sobre tácticas emergentes de deepfakes que observen (por ejemplo, si un país detecta una operación extranjera de deepfakes, debe advertir a otros). Foros como la Alianza para Asegurar la Democracia, el G7, los diálogos UE-EE.UU. y otros pueden coordinar declaraciones conjuntas y normas contra los deepfakes electorales. Se puede ejercer presión diplomática sobre estados que patrocinen o toleren dicha interferencia. También hay espacio para la investigación colaborativa, por ejemplo, un centro internacional de detección de deepfakes podría agrupar datos para mejorar los algoritmos. Las organizaciones de monitoreo electoral (como la OSCE o misiones internacionales de observadores) deben actualizar sus metodologías para buscar influencias de medios sintéticos, y los países pueden incluir contingencias sobre deepfakes en pactos de defensa mutua de los procesos democráticos. Un frente unido dificultará a los actores malignos aprovechar vulnerabilidades en un solo país.

6. Promover la concienciación pública y la alfabetización digital: En última instancia, los gobiernos tienen un papel en educar al electorado sobre los deepfakes. Muchos países están considerando o implementando ya programas de alfabetización digital en escuelas y para el público general cetas.turing.ac.uk. Estos programas enseñan a las personas a verificar información en línea, reconocer signos de medios manipulados y pensar críticamente sobre las fuentes. Dada la alta capacidad de los falsos creados por IA, es vital que cada elector sepa que existen estos falsos y se sienta capacitado para comprobar dos veces los contenidos impactantes (en lugar de creer o compartir ciegamente). Los gobiernos deben asociarse con instituciones educativas y ONG para incluir la concienciación sobre deepfakes en los programas de estudio y campañas de servicio público. Por ejemplo, emitir anuncios que muestren comparaciones entre clips reales y deepfakes de un político y explicar la diferencia, puede elevar la conciencia. La evidencia sugiere que las personas con mayor alfabetización mediática y habilidades de pensamiento crítico detectan mucho mejor los deepfakes y resisten la desinformación cetas.turing.ac.uk. Por ello, financiar iniciativas de alfabetización mediática es una de las defensas más eficaces a largo plazo. Cuando el público se convierte en una red activa de sensores —detectando y señalando los falsos— el impacto de la propaganda deepfake puede disminuir considerablemente.

Plataformas tecnológicas y desarrolladores de IA

1. Fortalecer las políticas de plataforma y su cumplimiento: Las redes sociales y plataformas en línea son los principales canales de distribución de deepfakes virales. Estas empresas deben adoptar políticas estrictas contra medios manipulados que engañen a los usuarios, especialmente en el contexto electoral. Muchas plataformas ya han comenzado: por ejemplo, Facebook y Twitter (X) tienen políticas para eliminar o etiquetar como “manipulados” medios que puedan causar daño. Pero la aplicación debe ser robusta. Las plataformas deben mejorar sus sistemas automáticos de detección de deepfakes (usando las herramientas más recientes mencionadas antes) y asegurar una revisión rápida por moderadores humanos cuando los usuarios señalen contenido sospechoso. En periodos electorales, las empresas pueden establecer salas de crisis y canales de colaboración especial con las comisiones electorales para manejar posibles incidentes de deepfakes en tiempo real. Cuando se identifica un falso, las plataformas deben etiquetarlo como falso o eliminarlo rápidamente, y bajar su posicionamiento en los algoritmos para cortar su difusión brennancenter.org brennancenter.org. La transparencia también es clave: las plataformas pueden publicar informes periódicos sobre los deepfakes que han detectado y las medidas tomadas, lo que refuerza la confianza pública. También deben compartir muestras de los deepfakes detectados con investigadores para mejorar el conocimiento colectivo.

2. Implementar la divulgación y trazabilidad de deepfakes: Siguiendo el ejemplo de la UE, las plataformas a nivel global deberían requerir que el contenido generado por IA esté etiquetado y divulgado. Por ejemplo, si se sube un anuncio político que contiene una imagen o voz generada por IA, la plataforma podría exigir que el usuario marque una casilla indicando “este contenido tiene elementos sintéticos” y luego mostrar un aviso a los espectadores (“Este video fue alterado o parcialmente generado por IA”). Incluso fuera de los anuncios formales, las plataformas pueden usar herramientas de detección para marcar visualmente los videos sospechosos de ser deepfakes (por ejemplo, una advertencia superpuesta de que la autenticidad del video no está verificada). Además, las redes sociales y los servicios de mensajería podrían integrar funciones de autenticidad de contenido: usando estándares como C2PA, pueden mostrar a los usuarios un ícono si la fuente y el historial de edición de una imagen están verificados, o por el contrario, advertir si falta esa información. Algunas empresas tecnológicas (Adobe, Microsoft, Twitter) ya están involucradas en estos esfuerzos. Al incorporar señales de procedencia en sus interfaces, las plataformas pueden ayudar a los usuarios a diferenciar entre lo real y lo falso. También deben trabajar en mecanismos de rastreo: por ejemplo, si se está difundiendo un deepfake dañino, ¿pueden rastrear quién lo subió originalmente, incluso si ha sido republicado miles de veces? La cooperación con las fuerzas del orden en incidentes importantes (respetando las leyes de privacidad) será crucial para atrapar a los perpetradores.

3. Prohibir usuarios y redes maliciosos de deepfakes: Las plataformas deben ejercer vigilancia contra actores organizados que despliegan deepfakes de forma reiterada. Esto implica no solo eliminar piezas individuales de contenido, sino cerrar cuentas, páginas o bots involucrados en campañas coordinadas de deepfakes. Si se encuentra evidencia que vincula una operación con esfuerzos patrocinados por un estado o una conocida granja de trolls, las plataformas deberían hacerlo público y eliminar su presencia. Muchas redes de desinformación han sido desmontadas en los últimos años; el mismo enfoque agresivo debe aplicarse a las operaciones de influencia impulsadas por IA. Las plataformas deberían actualizar sus términos de servicio para prohibir explícitamente la creación o distribución maliciosa de medios sintéticos con el fin de engañar a otros. Estas reglas brindan una base para prohibir a los infractores. En la publicidad política, cualquier campaña o comité que use deepfakes engañosos debería enfrentar sanciones como la pérdida de privilegios en anuncios. Las empresas tecnológicas también podrían aliarse para mantener una lista negra compartida de firmas o hashes reconocidos de deepfakes, de modo que una vez que se identifique uno falso en una plataforma, pueda ser bloqueado en otras (similar a cómo se comparten hashes de contenido terrorista mediante un consorcio). Esencialmente, hacer poco atractivo intentar usar deepfakes en plataformas convencionales: el contenido será eliminado rápidamente o su autor perderá la cuenta.

4. Colaborar con verificadores de datos y autoridades: Ninguna plataforma puede vigilar perfectamente el contenido por sí sola. La colaboración es vital. Las redes sociales deberían profundizar alianzas con organizaciones independientes de verificación de hechos para evaluar el contenido viral. Cuando los verificadores desmientan un video como falso, las plataformas deben amplificar esa corrección, por ejemplo, agregando un enlace al artículo de verificación cada vez que se comparta el video o notificando a todos los usuarios que vieron inicialmente el contenido falso. Empresas como Facebook ya han hecho esto con desinformación y deberían continuar para los deepfakes. Además, las plataformas deben coordinarse con comisiones electorales y agencias de seguridad, especialmente en temporada electoral. Pueden establecer líneas directas o canales para que los funcionarios reporten deepfakes sospechosos que afecten la votación, y a su vez, las plataformas pueden alertar a los gobiernos si detectan desinformación extranjera dirigida al país. En algunas jurisdicciones, existen acuerdos formales (por ejemplo, el Código de Prácticas de la UE fomenta el intercambio de información con gobiernos sobre amenazas de desinformación brennancenter.org). Incluso en EE.UU., la unidad de ciberseguridad del Departamento de Seguridad Nacional colabora con las plataformas para monitorear la desinformación electoral. Estas colaboraciones, por supuesto, deben respetar la libertad de expresión y evitar la censura de discursos legítimos. Pero para material claramente fabricado y dañino, una respuesta rápida y coordinada entre plataformas e instituciones públicas puede evitar que una falsedad se expanda. Esto podría incluir comunicados de prensa conjuntos desmintiendo un viral falso o algoritmos que impulsen fuentes autorizadas para contrarrestar la difusión.

5. Avanzar en las salvaguardas de los modelos de IA: Las empresas que desarrollan modelos de IA generativa (OpenAI, Google, Meta, etc.) tienen responsabilidad desde la raíz. Deben implementar salvaguardas para prevenir el uso indebido de su IA en interferencia electoral. Esto podría incluir marcado de agua en las salidas de la IA, como se ha discutido (de modo que cualquier imagen generada, por ejemplo por DALL-E o Midjourney, tenga una firma incrustada). También podría implicar la curaduría de los datos de entrenamiento: por ejemplo, asegurar que sus modelos hayan sido entrenados para rechazar solicitudes de suplantación dañina de personas reales. Ya hay herramientas de IA que no generan imágenes de deepfake de figuras políticas reales gracias a filtros incorporados de contenido. Estos controles deben ser mejorados de manera continua (aunque los modelos de código abierto representan un desafío, ya que pueden ser ajustados por actores maliciosos sin tales restricciones). Los desarrolladores de IA también deberían invertir en investigación de técnicas de detección de deepfakes y compartirlas con la comunidad. Es una señal positiva que muchas empresas líderes de IA hayan prometido voluntariamente su apoyo al marcado de agua y a la autenticación de contenido. A futuro, podrían colaborar en una API estándar que permita comprobar rápidamente si un video o audio fue generado por uno de sus modelos. En esencia, quienes crean el “problema” (la tecnología generativa) deben también ayudar a crear la “solución” (mecanismos para identificar su salida).

6. Transparencia en la publicidad política: Las plataformas que alojan anuncios políticos deben hacer cumplir la transparencia estricta respecto al uso de IA. Si se promociona un anuncio de campaña en Facebook o Google que contenga elementos generados por IA, la biblioteca de anuncios de la plataforma debería indicarlo explícitamente. Incluso se podría exigir a los anunciantes políticos que entreguen el material original y sin editar para comparación. Más ambiciosamente, las plataformas sociales podrían considerar prohibir temporalmente todos los anuncios políticos que contengan medios sintéticos durante los días sensibles finales de una campaña, de modo similar a como algunas plataformas prohíben nuevos anuncios políticos justo antes del día de la votación. Esto eliminaría el riesgo de una avalancha de anuncios deepfake de última hora. Si bien la aplicación de esta medida es compleja, el principio es que la promoción pagada de contenido engañoso es especialmente peligrosa y las plataformas tienen mayor margen para regular la publicidad que las publicaciones de los usuarios. Garantizar alta transparencia y retiradas rápidas en el ámbito publicitario es crucial, ya que un deepfake circulado mediante anuncios pagados podría alcanzar a millones de personas mediante algoritmos, distorsionando injustamente el entorno informativo.

Medios de comunicación y organizaciones periodísticas

1. Protocolos rigurosos de verificación: Los medios de comunicación deben adaptar sus prácticas de verificación a la era del deepfake. Cada sala de redacción —desde networks de TV nacionales hasta periódicos locales y sitios de fact-checking— debería establecer procedimientos formales para autenticar material audiovisual antes de difundirlo o publicarlo. Esto incluye capacitar a los periodistas en el uso de herramientas forenses (por ejemplo, revisando metadatos de videos, realizando análisis de imágenes) y consultar a expertos cuando sea necesario. Para cualquier clip sensacionalista o escandaloso que surja durante una elección, los editores deben tratarlo con escepticismo saludable y no difundirlo apresuradamente sin confirmación. Los medios deben verificar por doble vía cualquier contenido generado por usuarios: por ejemplo, si aparece un video de un candidato haciendo algo sorprendente, el medio debe buscar pruebas corroborativas (testigos, declaraciones oficiales, etc.) o al menos realizar un análisis cuadro por cuadro para asegurarse de que no sea un deepfake. El objetivo es evitar convertirse en amplificadores involuntarios de la desinformación. De manera notable, algunas organizaciones de noticias ya han creado equipos internos de deepfake. En un caso, periodistas en Arizona incluso crearon su propio deepfake (con permiso) para educar a los espectadores sobre lo fácil que es manipular video knightcolumbia.org —una forma ingeniosa de aumentar la conciencia. Todas las redacciones deberían considerar tener un “experto en deepfakes” disponible (o una alianza con un laboratorio tecnológico) para un análisis rápido de footage sospechoso. Si la verificación se vuelve tan rutinaria como la comprobación de hechos, los medios pueden detectar falsificaciones temprano o al menos avisar a su audiencia si algo no ha sido verificado.

2. Reporte responsable sobre deepfakes: Al cubrir casos de medios sintéticos, los periodistas deben hacerlo cuidadosamente y brindando contexto. Si un deepfake dirigido a un candidato se vuelve viral, la noticia no son las afirmaciones falsas en sí, sino el hecho de que es una manipulación. Los informes de medios deben evitar repetir en detalle las denuncias falsas o mostrar el video deepfake sin crítica, ya que eso puede difundir aún más la desinformación. En su lugar, pueden describirlo de manera general y enfocarse en la reacción (por ejemplo: “Un video manipulado que mostraba falsamente a X haciendo Y fue publicado en línea, el cual ha sido desmentido por expertos”). Los medios pueden optar por difuminar o no enlazar directamente el contenido deepfake en sus artículos online cetas.turing.ac.uk, para evitar aumentar su tráfico o facilitar que usuarios maliciosos lo descarguen y republican. El enfoque del informe es importante: enfatizar el intento de engañar y el hecho del deepfake más que la narrativa falsa que contenía cetas.turing.ac.uk. Los medios también deben resaltar las correcciones o la verdad (por ejemplo: “No, el político Z no dijo esto: el video es una fabricación por IA; aquí está lo que sí dijo sobre el tema.”). Al hacer esto de forma consistente, los medios reputados pueden ayudar a inmunizar al público ante la creencia o difusión de lo falso. Es un equilibrio delicado entre cubrir la desinformación (ya que ignorarla no la hará desaparecer) y no amplificarla accidentalmente. Se podrían desarrollar directrices similares a las que ya existen para cubrir bulos o tiroteos masivos (donde se minimizan ciertos detalles para evitar imitaciones), pero aplicadas al reporte de deepfakes. La Independent Press Standards Organisation en el Reino Unido ha recibido peticiones para actualizar sus códigos y cubrir estas situaciones cetas.turing.ac.uk.

3. Uso de tecnología de autenticidad en redacciones: Las organizaciones de noticias pueden aprovechar la infraestructura emergente de autenticidad. Por ejemplo, un medio de comunicación podría adoptar las herramientas de la Content Authenticity Initiative para adjuntar credenciales criptográficas de contenido a todas las fotos y videos originales tomados por sus periodistas. Esto significa que cualquier metraje capturado por, digamos, un camarógrafo de Reuters o AP podría llevar un sello seguro que verifique su origen y cualquier edición. Posteriormente, cuando las personas vean un video de Reuters, podrán comprobar que no ha sido alterado. Tales medidas ayudan a afirmar lo que es real, ofreciendo al público una fuente de verdad. Los medios también deberían colaborar en la construcción de bases de datos de deepfakes conocidas (y de contenido genuino) que puedan ayudar a los verificadores de hechos. Por ejemplo, mantener un repositorio de discursos oficiales y entrevistas puede ayudar a desmentir rápidamente un clip manipulado por medio de la comparación. Las principales agencias y servicios de noticias podrían coordinarse para alertar rápidamente a todos sus suscriptores si se detecta un deepfake peligroso, de manera similar a como emiten alertas de noticias de última hora. Internamente, los editores deben tener en cuenta que operadores políticos podrían intentar alimentar a los periodistas con medios falsos (por ejemplo, una pista con un audio “filtrado” que en realidad es generado por IA). Mantener un escepticismo elevado ante cualquier material digital de fuente anónima es una actitud prudente.

4. Educar a la audiencia: Los medios pueden desempeñar un papel fundamental en educar a los votantes sobre los medios sintéticos. Los medios y periodistas deberían producir piezas explicativas, entrevistas con expertos y segmentos que muestren al público cómo se hacen los deepfakes y cómo detectarlos. Al desmitificar la tecnología, reducen su poder. Algunos segmentos de noticias televisivas en 2024, por ejemplo, demostraron clones de voz hechos por IA para revelar cómo una llamada fraudulenta podría imitar la voz de tu familiar. Del mismo modo, la cobertura en temporada electoral puede incluir recordatorios: “Si ves un video escandaloso sobre un candidato a último minuto, ten precaución: podría ser falso. Así puedes verificarlo…”. Las campañas de sensibilización lideradas por medios (posiblemente en colaboración con el gobierno o ONGs) podrían aumentar significativamente la alfabetización digital. Los periodistas también deben usar lenguaje preciso y consistente: llamar a algo un “deepfake” o “video falso generado por IA” en lugar de simplemente “video manipulado” ayuda a reforzar que esta nueva categoría existe. Con el tiempo, un público bien informado será menos propenso a caer en engaños y estará más dispuesto a exigir pruebas. Los medios, como interfaz entre la información y el público, tienen el deber de construir esa resiliencia.

5. Responsabilidad y exposición: Finalmente, los periodistas deben investigar y arrojar luz sobre quién está detrás de operaciones de deepfakes de alto perfil. Hacer que los perpetradores rindan cuentas ante la opinión pública puede disuadir futuros abusos. Si una campaña rival, una granja de trolls extranjera o un grupo en línea específico es identificado como la fuente de un deepfake malicioso, informarlo de manera prominente le añadirá estigma y riesgo a esas tácticas. Los reportajes sobre la producción y financiamiento de campañas de desinformación pueden restar eficacia a las mismas. Además, si un político o figura pública difunde un deepfake sabiendo que es falso (por ejemplo, si un candidato tuitea un video falso de su oponente), los medios deberían señalarlo de manera contundente, tratándolo como una falta grave. La perspectiva de prensa negativa y daño reputacional puede desalentar a los actores políticos de recurrir a “juegos sucios” como el uso de deepfakes. En resumen, la función de “perro guardián” del periodismo se extiende al ámbito digital: investiga, atribuye y expone operaciones maliciosas de medios sintéticos igual que cualquier otro fraude o corrupción en la política.

Sociedad civil e iniciativas ciudadanas

1. Alfabetización digital y educación comunitaria: Las organizaciones de la sociedad civil —incluyendo ONGs, bibliotecas, universidades y grupos de base— pueden liderar la tarea de educar a los ciudadanos para desenvolverse en la era de los deepfakes. Se deben ofrecer programas escalables a las comunidades sobre cómo verificar medios. Por ejemplo, las ONGs pueden impartir talleres en los que se enseñan trucos sencillos, como realizar búsquedas inversas de imágenes (para saber si una foto fue generada por IA o manipulada), buscar noticias que corroboren y usar sitios web de verificación de hechos. Ya existen excelentes herramientas y planes de estudio desarrollados por grupos de verificación (por ejemplo, First Draft, Media Literacy Now) que cubren cómo detectar desinformación y deepfakes; estos deberían difundirse ampliamente. Tal formación no debe dirigirse solo a estudiantes de escuelas, sino también a personas mayores, que a menudo son más vulnerables al engaño en línea. Campañas nacionales de alfabetización digital pueden implementarse, posiblemente con financiamiento gubernamental pero ejecutadas por organizaciones comunitarias para generar confianza. El objetivo es elevar la “inmunidad colectiva” de la sociedad: si una masa crítica de personas sabe reconocer un falso o al menos suspende el juicio hasta verificar, los desinformadores pierden gran parte de su poder. Las encuestas muestran que el público desea este conocimiento —muchos sienten ansiedad por no saber distinguir lo real de lo falso brennancenter.org brennancenter.org. La sociedad civil puede cubrir esa brecha empoderando a los ciudadanos a través de la educación y habilidades prácticas.

2. Iniciativas de verificación de hechos y desmentidos: Los verificadores de hechos independientes y los observadores de la sociedad civil seguirán siendo cruciales. Deberían prepararse específicamente para los periodos electorales con iniciativas como centros de verificación de deepfakes. Por ejemplo, coaliciones de organizaciones de verificación podrían mantener un panel público durante las elecciones que rastree rumores y nuevos casos de deepfakes, proporcionando desmentidos rápidamente. El News Literacy Project hizo algo similar para las elecciones estadounidenses de 2024, registrando casos de desinformación y señalando cuántos realmente involucraron IA knightcolumbia.org knightcolumbia.org. Este tipo de monitoreo transparente ayuda al público y a los periodistas a ver el panorama completo y no exagerar la amenaza, aunque sí atiende los casos reales. Los grupos de la sociedad civil también pueden difundir correcciones en redes sociales —por ejemplo, respondiendo a publicaciones virales con información precisa, apoyados por notas comunitarias u otras funciones. También se debe promover el “prebunking”: alertar al público de antemano de que podría aparecer un contenido falso. Por ejemplo, si la inteligencia o patrones pasados sugieren que un candidato podría ser blanco de un escándalo fabricado, los grupos cívicos (en coordinación con autoridades electorales) pueden alertar a los votantes: “Ten escepticismo si de pronto ves un video impactante de X, hay posibilidad de que sea un deepfake”. Los estudios indican que el prebunking puede reducir significativamente la credulidad y la difusión de afirmaciones falsas cetas.turing.ac.uk cetas.turing.ac.uk. Así, un enfoque proactivo de la sociedad civil, anticipando y previniendo campañas de deepfakes, puede dar excelentes resultados.

3. Tecnología cívica y detección colaborativa: La comunidad ciudadana experta en tecnología puede movilizarse para combatir los deepfakes. Ya existen voluntarios “cazadores de deepfakes” que analizan medios sospechosos en línea. La sociedad civil puede organizar estos esfuerzos a través de plataformas, tal vez un portal o aplicación dedicados donde la gente pueda enviar videos o audios sobre los que tenga dudas para ser analizados, y una red de expertos o herramientas de IA proporcionen un informe de autenticidad. Esta inteligencia colaborativa podría complementar los esfuerzos oficiales. Además, los grupos de tecnología cívica podrían desarrollar extensiones para navegadores o aplicaciones móviles que ayuden a los usuarios a identificar medios sintéticos. Por ejemplo, una app podría permitir seleccionar un video en la pantalla y recibir al instante un análisis de varios algoritmos de detección (algo así como un antivirus para deepfakes). Aunque no sea infalible, podría alertar sobre posibles fraudes. Los esfuerzos de código abierto para crear estas herramientas deberían recibir apoyo financiero mediante becas. Otra idea útil son las líneas directas de denuncia ciudadana: igual que existen líneas para reportar problemas de votación en elecciones, podría haber un canal para reportar desinformación o deepfakes sospechosos que se encuentren, y que sean remitidos a las autoridades electorales o a verificadores que puedan dar respuesta. Al involucrar a los ciudadanos como participantes activos en la detección y señalización de contenido dudoso, la escala de monitoreo aumenta exponencialmente. Este enfoque distribuido reconoce que, en una sociedad de millones en línea, alguien suele detectar algo a tiempo; la clave es canalizar esas observaciones rápidamente a quienes puedan verificar y difundir la verdad.

4. Incidencia para la responsabilidad de plataformas: La sociedad civil debe seguir presionando a las plataformas tecnológicas y a las empresas de IA para que actúen con responsabilidad. Los grupos de interés público y think tanks han sido cruciales para resaltar los peligros de los deepfakes y abogar por reformas (por ejemplo, Access Now, EFF y otros han emitido recomendaciones). Esta labor de incidencia debe continuar —instando a las plataformas a implementar los cambios de políticas mencionados previamente (mejor etiquetado, retirada de contenidos, etc.) y presionando a los creadores de IA para que adopten la ética en el diseño. La campaña de Public Citizen para monitorear la legislación estatal sobre deepfakes y peticionar a la FEC es un ejemplo citizen.org citizen.org. Igualmente, las coaliciones pueden exigir a las plataformas transparencia: reclamando que publiquen datos sobre la cantidad de contenido generado por IA en sus sitios, o la eficacia de sus sistemas de detección. Las voces de la sociedad civil también ayudan a asegurar que cualquier nueva ley o regulación proteja adecuadamente las libertades civiles (por ejemplo, oponiéndose a reglas excesivamente amplias que puedan suprimir la libertad de expresión bajo el pretexto de combatir los deepfakes). Lograr ese equilibrio requiere consulta pública, y los grupos de defensa representan a la ciudadanía en esos debates. Es probable que en los próximos años surjan nuevos marcos regulatorios para la IA y el contenido en línea; es vital que valores democráticos y principios de derechos humanos sean respetados en ellos, y la sociedad civil es clave en ese rol de vigilancia.

5. Apoyo a víctimas y afectados: Si un candidato o individuo privado es difamado por un deepfake, la sociedad civil puede brindar apoyo. Las organizaciones sin fines de lucro podrían ofrecer asistencia legal o asesoría sobre cómo eliminar deepfakes difamatorios y responsabilizar a los perpetradores. Podrían existir líneas de ayuda para víctimas de pornografía deepfake o asesinato de la reputación, conectándolas con autoridades y recursos de salud mental. Para candidatos afectados por una campaña de difamación, las organizaciones cívicas (como ligas de mujeres votantes o grupos de integridad electoral) pueden ayudar a amplificar sus desmentidos y la desactivación de la noticia falsa para minimizar el daño. Movilizarse rápidamente en defensa de quien ha sido atacado falsamente—y asegurarse de que la verdad suene más fuerte que la mentira—es algo que los grupos comunitarios y de defensa pueden coordinar, como ya lo hacen cuando combaten la difamación o los discursos de odio. En un ámbito más general, la sociedad civil puede facilitar compromisos interpartidistas para que, si surge algún deepfake, todas las partes lo condenen. Imagina un compromiso firmado por todos los principales partidos de un país, jurando no usar deepfakes y condenar de inmediato cualquier falsificación maliciosa que aparezca. Estas normas, promovidas por grupos como comités electorales interpartidistas u ONG de ética, reducirían la probabilidad de una «carrera hacia el fondo» en la que los partidos sientan que deben responder en la misma medida. Se crea un frente unido para que los ataques a la verdad no serán tolerados, sin importar a quién se dirijan.

En conclusión, enfrentar el desafío de los deepfakes requiere aprovechar todas las defensas de la sociedad: tecnológicas, legales, institucionales y humanas. Al ejecutar los pasos mencionados, los gobiernos pueden reforzar el sistema electoral contra fraudes con IA, las plataformas tecnológicas pueden limitar la difusión de contenido falso, los medios pueden garantizar que la verdad prevalezca en la información, y la ciudadanía puede convertirse en una vigilante experta de la realidad. No hay tiempo que perder: a medida que la IA generativa avanza, el ciclo electoral de 2025 pondrá a prueba la resiliencia de las democracias ante mentiras sintéticas. La buena noticia es que no estamos indefensos. Con preparación, transparencia y colaboración, podemos superar y organizar mejor que las campañas de deepfakes, preservando la integridad de nuestras elecciones. Como concluye un informe de investigación de CETaS sobre IA y elecciones, “no debe permitirse que la complacencia se infiltre en la toma de decisiones”—en su lugar, debemos aprovechar el momento actual para fortalecer la resiliencia cetas.turing.ac.uk cetas.turing.ac.uk. Al hacerlo, defendemos el principio de que mientras la tecnología evoluciona, nuestros valores democráticos de verdad y confianza perdurarán.

Fuentes

  1. Stockwell, Sam et al. “Operaciones de influencia habilitadas por IA: Protegiendo las elecciones del futuro.” Informe de investigación CETaS (Instituto Alan Turing), 13 nov 2024. cetas.turing.ac.uk cetas.turing.ac.uk
  2. Stockwell, Sam et al. Ibid. (Informe CETaS, 2024), Sección 2.1 sobre deepfakes en las elecciones de EE.UU. cetas.turing.ac.uk cetas.turing.ac.uk
  3. Beaumont, Hilary. “’Falta de confianza’: Cómo los deepfakes y la IA podrían sacudir las elecciones de EE.UU.” Al Jazeera, 19 jun 2024. aljazeera.com aljazeera.com
  4. Sze-Fung Lee. “Canadá necesita legislar sobre deepfakes de inmediato.” Policy Options, 18 mar 2024. policyoptions.irpp.org policyoptions.irpp.org
  5. Goldstein, Josh A. & Andrew Lohn. “Deepfakes, elecciones y reducción del beneficio del mentiroso.” Brennan Center for Justice, 23 ene 2024. brennancenter.org
  6. “Medios sintéticos.” Wikipedia (consultado en 2025). en.wikipedia.org en.wikipedia.org
  7. “Deepfake.” Enciclopedia IT de Kaspersky (2023). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
  8. Hamiel, Nathan. “Los deepfakes resultaron ser una amenaza diferente a la esperada. Así es como defenderse de ellos.” World Economic Forum, 10 ene 2025. weforum.org weforum.org
  9. “Regulación de la IA, deepfakes y medios sintéticos en el ámbito político.” Brennan Center for Justice, 4 oct 2023. brennancenter.org brennancenter.org
  10. Colman, Ben. “La Ley de IA de la UE y la creciente urgencia de la detección de deepfakes.” Reality Defender Blog, 11 feb 2025. realitydefender.com realitydefender.com
  11. “Rastreador: Legislación estatal sobre deepfakes en elecciones.” Public Citizen, 2025. citizen.org citizen.org
  12. Partnership on AI. “Medios sintéticos y deepfakes – Estudio de caso: Eslovaquia 2023.” (referenciado en el análisis de Knight Columbia). brennancenter.org brennancenter.org
  13. Kapoor, Sayash & Arvind Narayanan. “Analizamos 78 deepfakes electorales. La desinformación política no es un problema de IA.” Knight First Amendment Institute, 13 dic 2024. knightcolumbia.org knightcolumbia.org
  14. Informe CETaS (2024), Recomendaciones de política (enfocado en el Reino Unido). cetas.turing.ac.uk cetas.turing.ac.uk
  15. Informe CETaS (2024), Recomendaciones sobre detección y procedencia. cetas.turing.ac.uk cetas.turing.ac.uk
  16. Public Safety Canada. “Protección contra la desinformación habilitada por IA” (informe breve, 2023). policyoptions.irpp.org policyoptions.irpp.org
  17. InnovationAus. “La prohibición gubernamental de deepfakes electorales ‘se estancará’ hasta 2026.” (Australia) 2023. innovationaus.com
  18. Referencias adicionales: Artículos de Reuters, Wired y CNN citados en las fuentes anteriores para incidentes específicos (por ejemplo, deepfake de Zelensky, fraude de 25 millones de dólares en Hong Kong vía deepfake en Zoom weforum.org), y alertas de la FTC sobre estafas de clonación de voz weforum.org. Estos están integrados en el análisis y disponibles desde los enlaces a las fuentes listadas.

Deja una respuesta

Your email address will not be published.

Don't Miss

Real Estate Market in Poland – Comprehensive Report

Mercado inmobiliario en Polonia: informe completo

Introducción y Panorama del Mercado Polonia es el mayor mercado
Eyes in the Sky: How Satellites Are Revolutionizing Air Quality and Atmospheric Chemistry

Ojos en el cielo: cómo los satélites están revolucionando la calidad del aire y la química atmosférica

Introducción a la Química Atmosférica y la Calidad del Aire