Синтетические медиа и дипфейки: Защита избирательного цикла 2025 года

30 июня, 2025
Synthetic Media and Deepfakes: Safeguarding the 2025 Election Cycle

Достижения в области искусственного интеллекта позволили создавать синтетические медиа — контент, сгенерированный или изменённый ИИ — в беспрецедентных масштабах. По мере того как демократические страны приближаются к избирательному циклу 2025 года, чиновники и эксперты бьют тревогу по поводу дезинформации, создаваемой ИИ. Согласно недавнему опросу, 85% американцев выразили обеспокоенность тем, что «вводящие в заблуждение видео и аудио дипфейки» повлияют на выборы brennancenter.org. В новостных заголовках предупреждают, что созданные ИИ «дипфейки» могут нанести серьёзный ущерб избирательным кампаниям и доверию избирателей brennancenter.org, подчёркивая срочность защиты целостности выборов. В этом отчете рассматривается, что такое синтетические медиа и дипфейки, как они угрожают демократии и что можно сделать — от технологических решений до политик — чтобы обеспечить безопасность выборов в 2025 году и далее.

Что такое синтетические медиа и дипфейки?

Синтетические медиа — это общий термин для цифрового контента (изображения, видео, аудио, текст), который искусственно создаётся или изменяется автоматизированными средствами, особенно с помощью алгоритмов ИИ en.wikipedia.org. Современные генеративные ИИ-системы способны создавать реалистичный контент, похожий на человеческий в любых медиа — от достоверных фотографий несуществующих людей до клонов голосов и статей, написанных ИИ. Дипфейки — это особая разновидность синтетических медиа: чрезвычайно реалистичные фейковые изображения, видео или аудио, созданные с помощью ИИ (отсюда «deep» learning + «fake»), имитирующие реальных людей encyclopedia.kaspersky.com. На практике дипфейком может быть, например, видео, в котором лицо политика убедительно подменяется на тело другого человека, или аудиозапись, имитирующая голос кандидата, произносящего слова, которых он на самом деле не говорил.

Как создаются дипфейки? Большинство из них получается с помощью передовых методов глубокого обучения. Распространённый подход использует генеративные состязательные сети (GANs) — две нейросети, обучающиеся друг против друга icct.nl. Одна сеть (генератор) создает фейк (например, изображение лица человека), а другая (дискриминатор) пытается определить, подделка это или нет. За тысячи итераций генератор учится производить всё более реалистичный результат, пока дискриминатор не перестаёт видеть разницу icct.nl. Первоначально для создания качественного дипфейка требовались большие объёмы обучающих данных и мощное оборудование — например, эксперимент по дипфейку актёра Тома Круза занял два месяца обучения на топовых GPU icct.nl. Однако инструменты быстро совершенствуются. Продвинутое программное обеспечение для дипфейков сейчас широко доступно и работает быстрее, иногда даже в режиме реального времени (например, изменяя видеопоток или голосовую связь на лету) encyclopedia.kaspersky.com. Кроме GAN, роль играют и другие ИИ-архитектуры: трансформеры генерируют дипфейковый текст или помогают при клонировании голоса encyclopedia.kaspersky.com. В итоге, новые ИИ-прорывы сделали создание обманчивого аудиовизуального контента простым и дешёвым для почти любого — планка для операций по дезинформации резко снизилась.

Важно понимать, что не все синтетические медиа являются вредоносными. Контент, созданный ИИ, может использоваться ради безобидных и творческих целей — персонализированные аватары, дубляж голоса спикера на другие языки, сатира, развлечения и т.д. Фактически, в ходе мировых выборов 2024 года примерно половина зафиксированных случаев использования ИИ в политике была недезинформирующей (например, кандидат прозрачно использует ИИ-голос из-за потери собственного или журналист применяет ИИ-аватар для защиты своей личности) knightcolumbia.org knightcolumbia.org. Однако данный отчёт фокусируется на вредоносной стороне синтетических медиа — дипфейках, созданных с целью ввести в заблуждение, обмануть или манипулировать избирателями и общественным мнением.

Риски для демократических процессов

Синтетические медиа и дипфейки несут значительные риски для демократии, особенно во время выборов, когда информированность и доверие к информации крайне важны. Ключевые угрозы включают:

  • Дезинформация и манипулирование избирателями: Сгенерированные ИИ фейковые видео, изображения или аудио могут использоваться для распространения ложной информации о кандидатах или темах, вводя избирателей в заблуждение. Например, дипфейк может показать кандидата, произносящего резкие заявления, которых он никогда не делал. Такой фейковый контент может отравлять публичные дебаты ложью. Эксперты предупреждают, что дипфейки «представляют высокий риск» для избирателей, внедряя ложный контент в избирательные кампании и размывая общественное доверие aljazeera.com. Убедительное поддельное видео, опубликованное прямо перед днём голосования — когда у фактчекеров нет времени его опровергнуть — может даже повлиять на нерешившихся избирателей или снизить явку, потенциально изменив исход выборов citizen.org. Эта угроза не теоретическая: как показано ниже, в 2024 году дипфейковое аудио имитировало Президента США, призывая сторонников не идти на выборы, что, по-видимому, было попыткой снизить явку aljazeera.com aljazeera.com.
  • Размывание доверия («дивиденд лжеца»): Помимо конкретных фейков, само существование дипфейков может подрывать общественное доверие к реальной информации. Избиратели начинают сомневаться в подлинности даже достоверных данных, не зная: настоящая ли вирусная запись — или это работа ИИ. Ещё хуже: нечестные акторы могут пользоваться этим сомнением — реальные скандалы и настоящие записи можно отклонить как «всего лишь дипфейк», избегая ответственности. Это называют «дивидендами лжеца» — когда через известность дипфейков лжецам проще утверждать, что настоящая съёмка поддельная brennancenter.org. Повышенное внимание к возможностям ИИ позволяет политикам быстрее обмануть публику, назвав компрометирующие аудио или видео «подделкой ИИ» brennancenter.org. Эта динамика угрожает базовому доверию, на котором строится демократический диалог. Наблюдатели отмечали: в 2024 некоторые кандидаты заранее кричали “фейк ИИ”, чтобы отбросить неудобные новости brennancenter.org brennancenter.org. В долгосрочной перспективе, если граждане почувствуют, что «ничему нельзя верить — ни тому, что видишь, ни тому, что слышишь», это разрушает общую реальность, необходимую для свободных и честных выборов cetas.turing.ac.uk cetas.turing.ac.uk.
  • Усиление поляризации и конфликтов: До сих пор данные показывают: дипфейк-пропаганда чаще усиливает существующие предубеждения, нежели убеждает сторонников другой стороны cetas.turing.ac.uk. Вредоносный ИИ-контент распространяется в основном уже предвзятыми группами, что усиливает эхо-камеры. В ходе президентской гонки в США в 2024 году исследователи зафиксировали, что большинство ложных ИИ-материалов лишь усиливали партийные нарративы и разжигали дебаты, а не убеждали новых избирателей cetas.turing.ac.uk. Например, фейковые видео против Байдена или Харрис собрали миллионы просмотров и пересылались, в основном, среди уже критически настроенных пользователей cetas.turing.ac.uk cetas.turing.ac.uk. Через консолидацию идеологических лагерей с помощью ярких фейков об аморальности оппонентов дипфейки отдаляют сообщества друг от друга, токсично влияя на кампанию. Более того, атмосфера хаоса и недоверия вокруг дипфейков облегчает распространение теорий заговора cetas.turing.ac.uk, ведь гражданам проще отказать неудобной реальности на том основании, что «это сделал ИИ».
  • Подрыв избирательной инфраструктуры: Риск не ограничивается манипуляцией избирателями — дипфейки могут нарушить сам избирательный процесс. Чиновники моделируют сценарии, когда ИИ-клоны голоса или фейковые сообщения якобы от избиркома приказывают закрыть участки заранее или дают неверную информацию избирателям (например, “выборы перенесены”) aljazeera.com. Сложный злоумышленник может имитировать распоряжение от избиркома или голос уважаемого чиновника, чтобы сорвать голосование. Такие трюки могут снизить явку или вызвать хаос в день выборов. Бреннан-центр США отмечает: подделки могут вводить в заблуждение не только граждан, но и работников избирательных участков, что требует новой подготовки и протоколов aljazeera.com.
  • Травля и очернение репутации: Дипфейки — мощное оружие для атак на кандидатов, активистов, журналистов. Особо опасная категория — несогласованная синтетическая порнография, когда лицо человека вставляется в откровенный сексуальный контент. Такой приём уже применяется для травли женщин-журналистов и политиков по всему миру. Самая экстремальная форма дипфейк-атаки — поддельные интимные изображения, которыми унижают или шантажируют людей weforum.org. В ходе выборов оппоненты могут выпустить фейковое компрометирующее видео (например, дипфейк-секс-видео или запись незаконных действий кандидата) незадолго до голосования. Даже если всё быстро опровергнуто, репутации уже нанесён урон. Женщины и меньшинства особенно часто становятся мишенью “синтетических кампаний по очернению”, что может отпугнуть разноплановых кандидатов policyoptions.irpp.org policyoptions.irpp.org. В итоге дипфейки дают новый импульс старым грязным политтехнологиям: от поддельных скандалов до фальшивых цитат и попыток уничтожить репутацию на выборах.

Наконец, важно отметить, что до сих пор мы не наблюдали избирательной катастрофы, вызванной дипфейками. Эмпирические обзоры выборов 2024 года в мире показали, что мало доказательств, что ИИ-дезинформация реально изменила исход хотя бы одних выборов cetas.turing.ac.uk weforum.org. Обыкновенная дезинформация (дешевые «чифейки», слухи, партийная пропаганда) и в 2024 году оставалась куда большим источником лжи, чем сложные дипфейки knightcolumbia.org knightcolumbia.org. Однако эксперты предупреждают: отсутствие катастрофы — не повод для самоуспокоения cetas.turing.ac.uk weforum.org. Технология быстро развивается, а недоброжелатели учатся. И если дипфейки не решили исход крупных выборов в 2024-м, они формировали инфополе — вирусные ИИ-лжи о кандидатах стали темой публичных дебатов cetas.turing.ac.uk. Более того, ощущение угрозы дипфейков само по себе увеличило тревожность и недоверие вокруг выборов cetas.turing.ac.uk cetas.turing.ac.uk. Потенциал для по-настоящему разрушительных случаев остаётся, особенно по мере приближения ответственных выборов 2025 года. Демократические общества должны рассматривать дипфейки, как серьёзную угрозу безопасности и целостности — учитывая и прямой риск поддельных медиа, и более глубокое размывание истины в избирательной сфере.

Недавние инциденты: дипфейки, меняющие политику

Реальные случаи последних лет показывают, как синтетические медиа уже используются в политических целях. Ниже приведены примеры заметных инцидентов и тематических исследований дипфейков и ИИ-сгенерированной дезинформации, повлиявших на выборы или общественное мнение:

  • Украина (март 2022) — видео «Сдачи»: В первые дни войны России против Украины появилось видео, якобы показывающее президента Украины Владимира Зеленского, призывающего войска сложить оружие и сдаться. Это видео оказалось дипфейком: образ и голос Зеленского были синтетически изменены icct.nl. Характерные дефекты (размытые края, неправильный цвет шеи) выдали подделку, а украинские СМИ быстро разоблачили мистификацию. Этот случай — первый зафиксированный пример использования дипфейка во время вооружённого конфликта — предвестник того, как ИИ-пропаганда может быть использована для подрыва лидеров в кризисных ситуациях icct.nl. Хотя ложное видео с Зеленским не удалось деморализовать украинское сопротивление, оно показало намерения и возможности злоумышленников (предположительно российских операторов) использовать дипфейки для информационной войны.
  • Словакия (сентябрь 2023) — дезинформация на выборах: За несколько дней до парламентских выборов в Словакии дипфейковые аудиозаписи стали вирусными: в них Михаил Шимечка, лидер партии «Прогрессивная Словакия», якобы признавался в фальсификации выборов и даже предлагал удвоить цену на пиво brennancenter.org. В некоторых версиях едва слышно упоминалось, что запись сгенерирована ИИ, но только в конце ролика — вероятно, это было сделано специально, чтобы ввести слушателей в заблуждение brennancenter.org. Время появления аудио было явно стратегическим — прямо перед голосованием. Прозападная партия Шимечки с небольшим перевесом проиграла пророссийскому сопернику, и некоторые комментаторы предположили, что очерняющий дипфейк мог повлиять на результат brennancenter.org. Этот случай подчёркивает, что вмешательство через дипфейки может использоваться как иностранными, так и внутренними актёрами для влияния на исход напряжённой гонки, причём опровержение лжи в последние часы кампании крайне затруднено.
  • Тайвань (январь 2024) — операции иностранного влияния: В преддверии президентских выборов в Тайване в 2024 году наблюдатели зафиксировали китайскую кампанию дезинформации с использованием дипфейков против кандидата Лай Цин-Дэ. Фейковые видео, циркулировавшие онлайн, изображали Лая (от партии власти, выступающей за независимость) якобы с заявлениями, которые он не делал — например, ложные намёки на его поддержку программ оппонентов policyoptions.irpp.org. В одном из случаев появилась аудиозапись с сымитированным с помощью ИИ голосом Лая, который критиковал собственную партию policyoptions.irpp.org, чтобы расколоть его электорат. Эти синтетические медийные атаки, ведущие к Китаю, были направлены на влияние на общественное мнение и создание путаницы в тайваньской демократии policyoptions.irpp.org. В итоге Лай одержал победу, и аналитики пришли к выводу, что дипфейковая кампания Китая не оказала существенного влияния на результат policyoptions.irpp.org. Однако, это показательный пример враждебного вмешательства с помощью ИИ в демократический процесс policyoptions.irpp.org policyoptions.irpp.org. Остаётся опасение, что в другой, более напряжённой гонке, подобные тактики могут привести к более серьёзным последствиям.
  • США (2024) — дипфейки на избирательной кампании: В избирательном цикле 2024 года в США наблюдался всплеск политического контента, созданного ИИ: он не сорвал выборы, но привёл к тревоге. В начале 2024 года избиратели в Нью-Гэмпшире получили загадочный автоматический звонок: голос, похожий на голос президента Джо Байдена, призывал демократов «сохранить свой голос — не голосуйте на этих выборах». Для многих голос звучал очень правдоподобно, хотя содержание сообщения было явно подозрительным — Байден не стал бы призывать своих сторонников не голосовать. На самом деле это был клон голоса Байдена на основе дипфейка, разосланный тысячам избирателей с целью сдержать явку aljazeera.com aljazeera.com. Этот звонок, охвативший около 5000 номеров в Нью-Гэмпшире, показал, насколько просто и дёшево можно реализовать такие махинации — консультант, создавший дипфейк-голос Байдена, заявил, что на это ушло всего 20 минут и около 1 доллара расходов на вычисления policyoptions.irpp.org policyoptions.irpp.org. Тем временем в соцсетях ИИ-генерированные изображения стали частью официальных материалов кампаний. Команда губернатора Флориды Рона Десантиса выпустила агитационный ролик с фальсифицированными изображениями Дональда Трампа, обнимающего доктора Энтони Фаучи — намёк на излишне тёплые отношения с бывшим советником по COVID, непопулярным среди республиканцев. Как выяснилось, фотографии объятий Трампа с Фаучи были созданы ИИ и интегрированы в видео штабом Десантиса brennancenter.org, что вызвало публичную критику после разоблачения. В другом случае онлайн распространилось видео ИИ-генерации, где Байден будто бы обращался к нации с нечёткой, невнятной речью — позже его разоблачили. Некоторые фейковые ролики с Байденом и Камалой Харрис набирали миллионы просмотров в соцсетях cetas.turing.ac.uk, показывая, с какой скоростью распространяется такой контент. Даже техномагнаты отметились в распространении таких материалов: Илон Маск переопубликовал грубо смонтированное видео с вице-президентом Харрис (с пометкой «сатира»), где она несёт бессмысленную чепуху, тем самым стирая грань между мемами и дезинформацией cetas.turing.ac.uk cetas.turing.ac.uk. Хотя ни один из этих дипфейков не изменил ход выборов, они усиливали ложные нарративы (например, о ментальном состоянии Байдена или верности Трампа) и ещё больше загрязняли информационную среду. Американские чиновники выражают также опасения по поводу дипфейков, нацеленных на инфраструктуру выборов — например, фейковых аудиозаписей, где руководители выборов якобы призывают сотрудников к нарушениям aljazeera.com, хотя достоверных случаев такого рода в 2024 году публично не подтверждено.

Эти примеры иллюстрируют глобальный масштаб угрозы. Дипфейки используются как государствами — в геополитических конфликтах, так и провокаторами во внутриполитических выборах в Европе, Азии и США. Они принимают форму поддельных речей, изображений, звонков и видеороликов — нацеливаясь как на избирателей, так и на выборных чиновников. Эти случаи дают и некоторые уроки: многие дипфейки действительно были замечены и разоблачены довольно быстро (часто благодаря журналистам и фактчекерам), а в ряде инцидентов скандал вокруг использования дипфейков (например, как в случае с роликом Десантиса) привёл к негативной огласке в адрес организаторов. Это говорит о том, что прозрачность и бдительность могут снизить вред таких технологий. Но тренд очевиден — синтетические фейки становятся всё более частыми и всё сложнее отличимыми от реальности. Каждая новая избирательная кампания приносит свои «первые» случаи (в 2024 году — первые автоматические звонки с дипфейком для влияния на явку, первые дипфейковые видеоролики в кампаниях и пр.), и риск более разрушительного инцидента с дипфейком становится всё выше по мере приближения 2025 года.

Обнаружение и противодействие дипфейкам: инструменты и технологии

Ключевой компонент защиты выборов — развитие надежных инструментов распознавания и смягчения последствий дипфейков. Исследователи, технологические компании и правительства спешат создавать технологии, которые могут обнаруживать фальсификации, созданные ИИ, и подтверждать подлинность контента. Здесь мы приводим обзор современного состояния обнаружения дипфейков и сопутствующих мер противодействия:

  • Автоматические детекторы дипфейков: Первая линия обороны — ИИ против ИИ: алгоритмы, обученные анализировать медиа и выявлять характерные признаки манипуляций. Такие системы обнаружения ищут тонкие артефакты или несоответствия, оставляемые генеративными моделями. Например, ранние дипфейки часто отличались неестественным морганием или несовершенной синхронизацией губ. Современные детекторы применяют глубокие нейронные сети для анализа таких признаков, как освещение и тени на лице, частотные характеристики звука или биологические сигналы (например, пульс на видео), которые ИИ может воспроизвести некорректно. Технологические компании разработали внутренние инструменты — например, в 2020 году Microsoft представила “Video Authenticator”, способный помечать фейковые видео по кадровому анализу. Платформы вроде Facebook и X (Twitter) инвестировали в исследования в области обнаружения дипфейков и внедрили некоторые фильтры для поимки известных фейков. Академические инициативы и конкурсы (например, Facebook Deepfake Detection Challenge, конференции IEEE) ускоряют прогресс, а стартапы типа Sensity и Reality Defender предлагают коммерческие сервисы обнаружения дипфейков для клиентов. Однако это настоящий “гонка вооружений”: по мере совершенствования детектирования авторы дипфейков совершенствуют технику так, чтобы подделки успешно обходили автоматические проверки. Примечательно, что в отчете Meta за 2023 год отмечено: из всего объема дезинформации, помеченной в ходе выборного цикла 2024 года, “менее 1%” было определено как контент, генерированный ИИ weforum.org, что может говорить о редкости дипфейков или о том, что многие из них “просочились” незамеченными.
  • Водяные знаки и отслеживание происхождения контента: Еще одна стратегия — отмечать сгенерированный ИИ контент уже на этапе создания, чтобы конечные пользователи могли легко узнать его искусственную природу. ЕС активно продвигает этот подход: новый AI Act прямо обязывает четко маркировать или добавлять водяные знаки ко всему ИИ-сгенерированному или измененному контенту realitydefender.com. Компании должны внедрять индикатор (цифровой водяной знак или метаданные) при создании изображений, видео или аудио с помощью искусственного интеллекта. В теории браузеры или соцсети могут автоматически помечать или фильтровать помеченный контент. Водяные знаки имеют потенциал, особенно для предотвращения бытовых злоупотреблений. Крупнейшие разработчики ИИ (OpenAI, Google и др.) уже обсуждают введение добровольного водяного знака для изображений и текста, которые генерируют их системы. Также альянс медиа- и технокомпаний разрабатывает стандарты проверки происхождения (например, C2PA, Coalition for Content Provenance and Authenticity), предусматривающие криптографическую запись происхождения и истории редактирования цифровых медиа. Например, новостное фото или политическая реклама может получать защищенный сертификат подлинности, позволяя любому проверить авторство и отсутствие подделок cetas.turing.ac.uk. Правительство США поддерживает этот подход: Белый дом распорядился, чтобы к 2025 году все федеральные агентства внедрили принцип “подлинности по дизайну”, добавляя метаданные о происхождении ко всему создаваемому ими цифровому контенту cetas.turing.ac.uk. Если такие меры будут реализованы масштабно, поддельному контенту будет гораздо сложнее “маскироваться” под настоящий.
  • Ограничения маркировки: Инструменты прозрачности очень важны, но совсем не безупречны. Водяные знаки можно удалить или изменить при должном старании. Уже имеются способы удалять или скрывать ИИ-метки realitydefender.com, а злоумышленник, который создает свою генеративную модель, и вовсе не станет добавлять такие маркеры. Метаданные происхождения дают эффект, только если внедряются всюду и если пользователи реально их проверяют. Кроме того, автор дипфейка может применить метод “подвешенного происхождения”: взять подлинный снимок или видео, наложить на него фейковые элементы — и итоговый файл по-прежнему будет содержать старую цифровую подпись. Все эти сложности означают, что полагаться лишь на маркировку нельзя. Как отмечают эксперты по безопасности ИИ, маркировка и отслеживание работают только при сотрудничестве автора контента — а целенаправленных злоумышленников это не остановит realitydefender.com. Поэтому обнаружение на основе анализа (инференса), то есть анализ самого контента на признаки ИИ-манипуляции, остается важнейшим realitydefender.com. Наилучшая стратегия, вероятно — это комбинация подходов: мощные автоматические детекторы плюс системы подтверждения легитимности медиа.
  • Обнаружение в реальном времени (видео/аудио): Все более востребованы инструменты, способные ловить дипфейки вживую. Представьте гипотетический случай мошеннического “живого” видеозвонка с политиком или чиновником — как это было в Гонконге в 2023 году, где злоумышленники с помощью дипфейка от лица топ-менеджера компании дали санкцию на перевод $25 миллионов weforum.org. В том случае на звонке были “генерированы” даже несколько участников, включая поддельного директора по финансам. Выявить такие фейки в реальном времени крайне сложно. Разрабатываются решения вроде плагинов к видеоконференциям, способных предупреждать пользователей о подозрительных изображениях или голосах (например, через анализ аудиозадержки, спектральных аномалий или сопоставление движений лица на экране с реальными движениями перед камерой). Некоторые стартапы уже предлагают API реального времени для детектирования дипфейков, которые можно интегрировать в стриминговые платформы или даже использовать для аутентификации выступающих на “живых” событиях. Пока что технологии заметно отстают от мошенников, и основной упор делается на превентивные меры (например, пароли, условные “кодовые слова” в звонках для подтверждения личности, как советует полиция weforum.org).
  • Человеческая проверка фактов и пометки сообщества: Технологии — не волшебная палочка. Важна и человечная прослойка. Новостные агентства, группы по проверке фактов и платформы формируют специальные команды для мониторинга вирусных дипфейков в период выборов. Они используют методы ОСИНТ и судебные инструменты для анализа подозрительных медиа — проверяют метки времени, ищут несоответствия (например, разные серьги у политика на видео или странные движения рта) и быстро публикуют разоблачения. Помогают и коллективные усилия пользователей: в X/Twitter функция “Community Notes” используется для пометки постов с ИИ-изображениями или видео с пояснениями. В последние годы избиратели часто разоблачали дипфейки за считанные часы, публикуя сравнительные кадры или указывая на “ляпы”. Такая коллективная бдительность в сочетании с цифровой грамотностью — мощное оружие. Платформы все активнее полагаются на пользователей и независимых фактчекеров — из-за огромных объемов данных для проверки. Минус подхода — дипфейк может стать вирусным до разоблачения. Тем не менее, увеличение скоростей отклика и распространение навыков (чтобы больше людей сами распознавали подделки) помогает минимизировать ущерб.

В итоге, обнаружение дипфейков — это живое и динамично развивающееся направление. Достигается прогресс: например, современные детекторы гораздо эффективнее, чем в 2018 году, а инициативы вроде Content Authenticity Initiative приближают стандартизацию верификации. Но есть сложности — “игра в кошки-мышки” с мошенниками и необходимость глобального внедрения инструментов. В ближайшие годы детекторы будут все больше интегрироваться в соцсети, редакционные рабочие процессы, а возможно и в устройства (представьте: ваш смартфон предупреждает, что входящее видео может быть сгенерировано ИИ). Особо важно сочетать технологии обнаружения и отслеживания с общественным просвещением, чтобы предупреждения и метки воспринимались пользователями осознанно и приводили к действиям. Это лишь одна из составляющих широкой стратегии противодействия угрозам синтетических медиа.

Ответы политики и регуляторные рамки

Политики по всему миру осознали угрозу дипфейков и начали разрабатывать законы и регуляции для борьбы с ними. Вопрос новый, но уже складывается мозаика ответов в ведущих демократиях. Ниже — обзор законодательных и регуляторных инициатив:

  • США: В США пока нет общего федерального закона, прямо запрещающего политические дипфейки, однако работа над этим идет. В Конгресс уже внесено несколько законопроектов, направленных на борьбу со зловредными дипфейками. Например, в начале 2024 года был предложен No AI FRAUD Act в ответ на резонансные инциденты (вроде распространения сгенерированных ИИ непристойных изображений знаменитостей) policyoptions.irpp.org. Законопроект предлагает создать федеральную систему для уголовного преследования за вредоносное применение ИИ — как, например, политические дипфейки и обманные порнографические видео policyoptions.irpp.org. Еще одна инициатива — обязать политические кампании прямо маркировать любые предвыборные объявления, если в них есть искусственно созданный контент. Тем временем Федеральная комиссия по связи (FCC) приняла точечную меру: запретила использовать ИИ-голосовые клоны в робозвонках для обмана или причинения вреда policyoptions.irpp.org. Этому предшествовали случаи, когда мошенники изображали голоса реальных людей. Теперь автоматизированные звонки с синтетическим голосом с целью ввести в заблуждение — вне закона. Главные законы в США принимаются на штатном уровне. С 2019 года такие законы уже появились в Калифорнии, Техасе и других штатах. В Калифорнии запрещено распространять заведомо искажающие видео с кандидатами за 60 дней до выборов (за исключением пародий/сатиры) brennancenter.org. В Техасе за создание или распространение “токсичных” дипфейков с целью повлиять на кандидата или избирателей — уголовная ответственность brennancenter.org. По состоянию на середину 2025 года не менее четырнадцати штатов США приняли или обсуждают законы о регулировании дипфейков на выборах citizen.org. Примечательно, что эти усилия — редкий случай двупартийной поддержки: политики обеих партий сходятся во мнении, что ИИ-манипулированная дезинформация — угроза демократии citizen.org citizen.org. Подходы штатов различаются: часть предусматривает уголовную ответственность за вредоносные дипфейки, другие — просто требуют маркировки синт-медиа в политической рекламе. Кроме того, адвокационная организация Public Citizen подала прошение в Федеральную избирательную комиссию с требованием запретить кандидатам распространять дипфейки в ходе предвыборных кампаний brennancenter.org. Новые правила пока не приняты, но тема актуальна. Американским законодателям приходится учитывать и свободу слова: жесткие запреты на манипулированные медиа могут столкнуться с Первой поправкой. Например, сатира и пародия (защищенные формы политической речи) часто используют отредактированные изображения и видео, поэтому законы стараются бить только по злонамеренным подделкам. Это отражено в формулировках многих статутов — есть оговорки о сатире, пародии и журналистских целях brennancenter.org brennancenter.org. В целом, фальшивые материалы ИИ, намеренно вводящие избирателей в заблуждение либо провоцирующие срыв выборов, не имеют легитимной ценности для демократии и могут быть ограничены без нарушения свободы слова brennancenter.org brennancenter.org.
  • Европейский Союз: ЕС действует особенно активно в отношении широкого регулирования ИИ, включающего меры против дипфейков. EU AI Act, согласованный в 2024 году (полноценное применение — к 2026-му, некоторые положения — раньше), вводит обязательные требования прозрачности для синтетических медиа. Согласно акту, любая система, генерирующая дипфейки, должна обеспечить, чтобы контент был помечен как созданный ИИ (за исключением некоторых сфер, например, искусства или исследований безопасности) realitydefender.com. На практике это означает, что разработчики генеративных моделей для изображений/видео в ЕС должны внедрять водяные знаки или метаданные, однозначно указывающие на искусственное происхождение файла. За нарушение — крупные штрафы. Кроме того, обновленный Кодекс против дезинформации (добровольный акт, подписанный ключевыми платформами) отдельно выделяет дипфейки как угрозу и обязывает платформы разрабатывать “политику, меры и средства по борьбе с манипулированным контентом” brennancenter.org brennancenter.org. К примеру, платформы обязованы внедрять системы детектирования и маркировки (или удаления) дипфейков, которые могут причинить вред, а также содействовать быстрым разоблачениям совместно с фактчекерами. Согласно Digital Services Act (DSA) — вступил в силу в 2023 году — крупнейшие онлайн-платформы должны оценивать и минимизировать “системные риски”, включая распространение ИИ-дезинформации. Из-за такого давления Meta, Google, TikTok и др. приняли новые меры безопасности на время избирательных кампаний 2024–2025 годов: усовершенствование детекции дипфейков, более заметная маркировка синтетических материалов. Итог — Европа строит регуляторную систему, основанную на транспарентности: обязательная маркировка ИИ-продукции и ответственность платформ за дезинформацию. Критики отмечают трудности с реализацией (как “поймать” все немаркированные подделки в потоке контента?), но ЕС ясно сигнализирует: неконтролируемые дипфейки недопустимы с точки зрения цифрового регулирования realitydefender.com realitydefender.com.
  • Великобритания: Великобритания пока не приняла специальных законов о дипфейках в выборах, но рассматривает их в рамках более общей стратегии по безопасности онлайна и регулированию ИИ. В 2023 году был принят Online Safety Act — масштабный закон, регулирующий вредоносный онлайн-контент. В частности, он криминализировал распространение несанкционированных дипфейк-порнографических материалов — создание и публикация синтетических откровенных изображений без согласия жертвы policyoptions.irpp.org. Это решение для борьбы с травлей. Что касается выборов, закон наделяет регулятор Ofcom (аналог Роскомнадзора) правом издавать кодексы о противодействии дезинформации. Эксперты призывают Ofcom создать Кодекс по борьбе с дезинформацией — со стандартами доказывания фейковых ИИ-материалов cetas.turing.ac.uk. Такой кодекс, возможно, по образцу ЕС, подтолкнет платформы и политиков Британии отказаться от распространения дипфейков и четко их маркировать. Звучат и призывы к избирательной комиссии Великобритании дать политическим партиям рекомендации по ответственному использованию ИИ, чтобы обозначить красные линии для дипфейков в агитации cetas.turing.ac.uk. В конце 2024 года группа депутатов рекомендовала ужесточить избирательное законодательство ради наказания за дипфейк-дезинформацию, но законопроектов пока нет. Правительство указало, что анализирует достаточность действующих норм (клевета, мошенничество, избирательные преступления) для борьбы с дипфейками либо необходимость новых законов cetas.turing.ac.uk. Также в Великобритании создается AI Safety Institute, а в 2023 году там прошел международный AI Safety Summit, на котором обсуждалась и манипуляция информацией. Основное внимание британских властей сейчас уделяется техническим защитам и цифровой грамотности (обсуждается ниже), а не только юридическим запретам. Все же шаги — такие как запрет дипфейк-порно и усиление полномочий регуляторов — показывают понимание, что фальшивый ИИ-контент требует ответа на уровне политики.
  • Канада: На 2024 год в Канаде нет специального закона против использования дипфейков на выборах. Федеральный закон “О выборах в Канаде” прямо не запрещает ИИ-дезинформацию или дипфейки — значит, при расследовании приходится опираться на общие положения о мошенничестве или подлоге, которые могут быть неадекватны cef-cce.ca. Эксперты отмечают: Канада “на шаг-два позади” других демократий policyoptions.irpp.org. Осенью 2023 года в Канаде случился небольшой инцидент с дипфейком — распространялась фальшивая аудиозапись “с политиком”, которая не имела особого эффекта, но привлекла внимание к угрозе. Избирательная комиссия страны признала риск ИИ-дезинформации и начала поиск ответов cef-cce.ca. Эксперты призывают принять новые законы “еще вчера” — например, дать дополнительную власть уполномоченному по выборам для борьбы с синтетической дезинформацией на кампаниях policyoptions.irpp.org. Канада может заимствовать опыт союзников — например, обязать явно маркировать любые ИИ-астивы в агитации и сделать преступлением осознанное распространение дипфейков. По состоянию на середину 2025 года ни один законопроект еще не был внесен, но давление на власть растет policyoptions.irpp.org.
  • Другие демократии: Во многих странах мира принимаются различные меры:
    • Австралия: Озабоченное “гниением истины” из-за ИИ накануне выборов, правительство Австралии объявило о подготовке закона о “правде в политической рекламе”, который запрещал бы вводящие в заблуждение дипфейк-видео и аудио в ходе избирательных кампаний innovationaus.com. Это предложение, внесенное правительством Альбанезе в 2023 году, запрещает публикацию синтетических медиа, имитирующих реальных кандидатов или способных ввести избирателей в заблуждение innovationaus.com. Однако процесс идет медленно — вероятно, эти положения вступят в силу только к 2026 году innovationaus.com, и на выборах 2025 года полного регулирования может не быть. В промежутке избирательная комиссия Австралии публикует рекомендации, призывая к здравому смыслу (например, чрезмерное внимание к дипфейкам само по себе может дискредитировать настоящие новости) ia.acs.org.au. Австралийские политики разных партий поддерживают пресечение ИИ-дезинформации, при этом ведутся дебаты о балансе с принципом свободы слова theguardian.com sbs.com.au.
    • Тайвань: После серии дипфейков, организованных Китаем, Тайвань обновил избирательные законы. В 2023 году Закон об избраниях и отзывах был дополнен нормой, запрещающей распространение сфальсифицированного аудио и видео кандидатов с целью искусственного влияния на исход выборов policyoptions.irpp.org. Это дало юридический инструмент для борьбы с такими дипфейками, как в 2024 году. Тайвань вложился в просвещение населения и систему быстрого реагирования (государство + общество + IT-платформы), что помогло снизить ущерб policyoptions.irpp.org policyoptions.irpp.org.
    • Европейские демократии: Отдельные страны ЕС, помимо общеевропейских норм, включают дипфейки в существующее право. Например, французский закон против “ложной информации” на выборах (2018) может быть использован против дипфейк-видео, а жесткие нормы Германии о клевете и выборах также применимы. Одновременно появляются новые предложения: в Германии обсуждается требование к партиям декларировать применение синтетических медиа; в Британии изучается обязательная маркировка цифровой рекламы cetas.turing.ac.uk.
    • Международные инициативы: Все шире осознается, что нужна глобальная координация, ведь дезинформация не знает границ. G7 создала рабочую группу “AI Governance”, которая в 2024 году выпустила заявление о борьбе с недобросовестным использованием ИИ в инфосфере. Администрация Байдена в США добилась добровольных обязательств от крупных ИИ-компаний (OpenAI, Google, Meta и др.) внедрять маркировку контента ИИ и инвестировать в предотвращение злоупотреблений. Это не юридическая норма, но формируется международный стандарт — транспарентность и ответственность в сфере ИИ.

В заключение: политика по дипфейкам ускоряется. Законодательство пока отстает от технологий, но вектор очевиден: государства стремятся ужесточить наказание за наиболее опасные формы синтетических медиа на выборах, обязать к прозрачности (ярлыки, раскрытие информации) при ИИ-контенте и наделить правом надзорные органы и избирательные комиссии бороться с цифровыми подделками. При этом важно защищать законную сатиру и избегать чрезмерных запретов, открывающих путь к цензуре. Баланс хрупкий. Подходы — от американских законов до общеевропейских директив — в 2025 году покажут свою результативность. Политика будет дорабатываться по итогам практики. Бездействие — не вариант: как отмечает один из трекеров, “Без регулирования дипфейки будут только пуще путать избирателей и подрывать доверие к выборам.” citizen.org citizen.org Далее — стратегические рекомендации для всех участников демократического процесса.

Стратегические рекомендации по обеспечению безопасности выборов

Защита целостности выборов в эпоху ИИ потребует многоуровневой стратегии. Ни один инструмент или закон не способен полностью решить проблему дипфейков; необходимы скоординированные действия со стороны правительств, технологических платформ, СМИ и гражданского общества. Ниже приведены стратегические рекомендации по всем этим секторам для снижения рисков и обеспечения информированности избирателей в 2025 году и в последующие периоды:

Правительства и законодатели

1. Усилить правовую защиту и меры сдерживания: Государствам следует принять или обновить законодательство, чтобы прямо запретить злонамеренное использование синтетических медиа на выборах. Это включает в себя уголовную ответственность за создание или распространение, с целью обмана общественности или саботажа выборов, любых дипфейков, которые ложно изображают кандидата или манипулируют информацией, связанной с выборами (например, правилами голосования). Важно четко прописывать цели — законы должны быть направлены на преднамеренное введение в заблуждение (дезинформацию) с явными исключениями для сатиры, пародии или очевидного художественного выражения. Наказания (штрафы или уголовные санкции) станут сдерживающим фактором для потенциальных распространителей дипфейков, особенно при быстром и последовательном применении закона. Например, предлагаемый в Австралии запрет на обманчивые дипфейки во время избирательных кампаний и новые положения Тайваня против фальсифицированного с помощью ИИ контента на выборах могут служить образцом innovationaus.com policyoptions.irpp.org. В США федеральные меры (например, предлагаемый закон No AI FRAUD Act) могут задать общенациональную планку, дополняя законы отдельных штатов. Дополнительно государствам нужно обновить правила предвыборного финансирования и рекламы: обязать, чтобы любая политическая реклама (онлайн или в эфире), включающая элементы синтетических медиа, сопровождалась четким дисклеймером (например, «Это изображение/видео сгенерировано ИИ»), чтобы зрители не ошиблись. Требования к честной рекламе должны распространяться и на ИИ-контент.

2. Внедрить протоколы реагирования на инциденты во время выборов: Избирательные органы должны разработать официальные протоколы для оперативного реагирования на серьезные дипфейковые инциденты. Отличный пример — канадский протокол информирования общественности о критических электоральных инцидентах, который объединяет высокопоставленных чиновников для оценки угроз иностранного вмешательства или дезинформации и информирования населения в период выборов cetas.turing.ac.uk cetas.turing.ac.uk. Другим демократическим странам следует принять аналогичные механизмы. Если появляется опасный дипфейк (например, сфабрикированное видео о том, как кандидат признаёт поражение, распространяется в день голосования), протокол активируется — официальные лица, эксперты по разведке и технологические платформы быстро проверяют достоверность информации и делают публичное заявление об опровержении подделки и разъяснении фактов cetas.turing.ac.uk. Такая оперативная реакция критически важна для нейтрализации эффекта «потока» дезинформации. Государствам стоит заранее отработать подобные процедуры (разработать различные сценарии дипфейков), чтобы в случае необходимости действовать быстро и слаженно.

3. Инвестировать в инфраструктуру по обнаружению и аутентификации медиаконтента: Государственные структуры должны выделять ресурсы на развитие технологий по обнаружению дипфейков и аутентификации контента. Это включает финансирование НИОКР (например, программы по типу DARPA, направленные на борьбу с ИИ-дезинформацией), поддержку внедрения инструментов обнаружения для избирательного процесса и внедрение стандартов аутентификации в государственных коммуникациях. Практический шаг — государственные медиа (гос. вещатели, официальные аккаунты в соцсетях и т. д.) должны начинать добавлять подтверждённые метаданные происхождения ко всем официальным фото, видео и аудиоматериалам cetas.turing.ac.uk. Это создаёт базу «проверенных настоящих» данных. Избиратели и журналисты смогут доверять видеоматериалам с цифровой подписью, а к контенту без этой отметки относиться с осторожностью. Государство может стать примером такого подхода «аутентичность по умолчанию» cetas.turing.ac.uk, который уже изучают США и Великобритания. Кроме того, правоохранительные и надзорные органы по выборам должны быть оснащены судебно-экспертными подразделениями для проверки подозрительных медиа во время кампаний. Знание того, что у властей есть технические средства для отслеживания и атрибуции дипфейков (и потенциальной идентификации злоумышленников), также будет сдерживающим фактором.

4. Уточнить и модернизировать действующее законодательство: Во многих странах действующие законы о мошенничестве, краже личности, клевете или вмешательстве в выборы можно применить к некоторым случаям дипфейков — но есть и пробелы. Государствам необходимо пересмотреть свое законодательство, чтобы определить, нужны ли новые нормы. Например, существуют ли положения о генерации с помощью ИИ образа государственного чиновника? Если нет — ввести такие нормы. Убедиться, что законы о защите данных и частной жизни охватывают несанкционированное использование ИИ для имитации внешности/голоса человека как нарушение. Ясное определение статуса вредоносных дипфейков (и информирование общества об этом) важно для того, чтобы потенциальные нарушители знали, что их могут привлечь к ответственности. Это также дает жертвам (кандидатам или гражданам) возможность защищать свои права, если они становятся объектом атак. Такой аудит должен включать и избирательное законодательство: обновить определение незаконной агитации или ложной информации о выборах, чтобы эти понятия прямо охватывали манипуляции синтетическими медиа cetas.turing.ac.uk. Цель — устранить все неясности: чтобы распространитель фейков не мог сказать «технически это не запрещено, потому что это ИИ». Чем яснее законы, тем проще их исполнять и привлекать виновных к ответственности.

5. Усилить международное сотрудничество: Поскольку кампании дезинформации часто начинаются за рубежом или распространяются через границы, демократическим странам важно взаимодействовать друг с другом по этим вопросам. Разведслужбы и киберподразделения должны обмениваться информацией о новых дипфейковых тактиках (например, если одна страна выявила иностранную дипфейковую операцию — предупредить другие). Такие форумы, как Alliance for Securing Democracy, G7, диалог ЕС-США и другие, могут координировать совместные заявления и нормы против дипфейков на выборах. На государственные структуры, поддерживающие или лояльно относящиеся к такому вмешательству, можно оказывать дипломатическое давление. Есть потенциал и для совместных исследований — например, международный центр по обнаружению дипфейков мог бы аккумулировать данные для повышения точности алгоритмов. Организации мониторинга выборов (например, БДИПЧ ОБСЕ или международные наблюдательные миссии) должны обновить методики, чтобы выявлять влияние синтетических медиа, а страны — включать реагирование на дипфейки в механизмы коллективной защиты демократических процессов. Единый фронт затруднит злоумышленникам использование уязвимостей отдельных стран.

6. Развивать информированность и цифровую грамотность: В конечном счете, государство играет важную роль в обучении электората проблеме дипфейков. Многие страны сейчас рассматривают или уже внедряют программы цифровой грамотности для школ и для широкой публики cetas.turing.ac.uk. Эти программы учат граждан проверять онлайн-информацию, распознавать признаки фальсификации и критически относиться к источникам. Учитывая реальность сверхубедительных дипфейков, очень важно, чтобы каждый избиратель знал о существовании подделок и умел перепроверять шокирующий контент (а не просто верил или делился им на автопилоте). Государства должны сотрудничать с образовательными учреждениями и НПО для включения темы дипфейков в учебные программы и соцрекламу. Например, демонстрировать социальные ролики, где показываются реальные и дипфейковые записи политика параллельно с объяснениями отличий — это повышает информированность. Исследования показывают, что люди с более высоким уровнем медиаграмотности и критического мышления значительно лучше выявляют дипфейки и противостоят дезинформации cetas.turing.ac.uk. Поэтому финансирование инициатив по медиаграмотности — одна из самых эффективных долгосрочных мер защиты. Когда общество становится активной системой выявления и разоблачения фейков, масштаб дипфейковой пропаганды можно существенно снизить.

Технологические платформы и разработчики ИИ

1. Ужесточить политику и контроль на платформах: Социальные медиа и онлайн-платформы являются основными каналами распространения вирусных дипфейков. Эти компании должны внедрять строгие правила в отношении манипулированных медиа, вводящих пользователей в заблуждение, особенно в контексте выборов. Многие платформы уже начали это делать: например, Facebook и Twitter (X) ввели правила по удалению или маркировке «манипулированных медиа», которые могут нанести вред. Но для эффективности необходим жесткий контроль. Платформы должны совершенствовать автоматическое обнаружение дипфейков (используя самые современные инструменты, упомянутые ранее) и обеспечивать оперативную реакцию живых модераторов при поступлении жалоб на подозрительный контент. В ходе избирательных кампаний компании могут создавать «оперативные штабы» и специальные каналы связи с избирательными комиссиями для обработки возможных дипфейковых инцидентов в реальном времени. Когда дипфейк подтверждён, платформы должны помечать его как ложный или немедленно удалять, а также снижать его видимость в алгоритмах, чтобы ограничить распространение brennancenter.org brennancenter.org. Важна и прозрачность: платформы могут публиковать регулярные отчеты о выявленных дипфейках и принятых мерах, что повышает доверие общества. Они также должны делиться образцами выявленных дипфейков с исследователями для улучшения коллективных знаний.

2. Внедрить раскрытие и отслеживание дипфейков: Взяв за основу опыт ЕС, платформы по всему миру должны требовать, чтобы AI-сгенерированный контент был помечен и раскрыт. Например, если размещается политическая реклама с использованием сгенерированного AI изображения или голоса, платформа может обязать загрузчика отметить галочку «этот контент содержит синтетические элементы» — и затем показывать зрителям уведомление («Это видео изменено или частично сгенерировано AI»). Даже вне официальной рекламы платформы могут применять инструменты обнаружения, чтобы визуально отмечать подозрительные дипфейк-видео (например, наложением предупреждения о том, что подлинность видео не подтверждена). Кроме того, социальные сети и мессенджеры могут встроить функции проверки подлинности контента: используя стандарты, такие как C2PA, они могут отображать значок пользователям, если источник и история редактирования изображения подтверждены, или, наоборот, отмечать, если эти данные отсутствуют. Некоторые технологические компании (Adobe, Microsoft, Twitter) уже участвуют в подобных инициативах. Встраивая сигналы происхождения в свои пользовательские интерфейсы, платформы могут помочь пользователям отличать реальное от подделки. Также им следует разрабатывать механизмы обратного отслеживания — например, если вредоносный дипфейк распространяется, могут ли они отследить, кто изначально его загрузил, даже если видео было перепубликовано тысячи раз? Сотрудничество с правоохранительными органами при серьезных инцидентах (с соблюдением законов о конфиденциальности) будет важно для поимки злоумышленников.

3. Блокировать злонамеренных пользователей и сети дипфейков: Платформы должны проявлять бдительность в отношении организованных групп, систематически использующих дипфейки. Это предполагает не просто удаление отдельных материалов, а блокировку аккаунтов, страниц или ботов, участвующих в координированных дипфейк-кампаниях. Если доказано, что операция связана с государственными структурами или известными фабриками троллей, платформы должны обнародовать это и устранить их присутствие. За последние годы многие дезинформационные сети были удалены; аналогичный агрессивный подход необходим и для кампаний влияния с применением AI. Платформы должны обновить условия использования, чтобы явно запретить злонамеренное создание или распространение синтетических медиа с целью ввести людей в заблуждение. Эти правила дадут основания для блокировки нарушителей. В политической рекламе любая кампания или комитет по политическим действиям, уличённые в использовании обманчивых дипфейков, должны подвергаться санкциям, например, лишаться права размещать рекламу. Технологические компании также могут объединить усилия для поддержания общего «черного списка» известных хэшей или сигнатур дипфейков, чтобы, если подделка выявлена на одной платформе, она блокировалась и на других (аналогично тому, как обмениваются хэшами террористического контента через консорциум). Суть в том, чтобы сделать использование дипфейков на крупных платформах невыгодным — либо контент будет быстро удаляться, либо сам пользователь лишится аккаунта.

4. Сотрудничать с фактчекерами и властями: Ни одна платформа не способна самостоятельно идеальным образом контролировать весь контент. Необходима кооперация. Социальные сети должны укреплять партнерства с независимыми организациями по проверке фактов для оценки вирусного контента. Когда фактчекеры доказывают, что видео — фейк, платформы должны усиливать это опровержение — например, добавлять ссылку на статью с разбором факта мошенничества каждый раз при распространении видео или уведомлять всех пользователей, которые увидели эту подделку изначально. Компании вроде Facebook уже применяют такие механизмы для дезинформации и должны продолжать делать это и для дипфейков. Также платформы должны взаимодействовать с избирательными комиссиями и органами безопасности, особенно в предвыборный сезон. Можно создать специальные «горячие линии» или каналы для оперативного сообщения о подозрительных дипфейках, влияющих на выборы; в свою очередь, платформы смогут предупреждать власти о выявленной иностранной дезинформации. В некоторых регионах существуют формальные взаимодействия (например, Кодекс практики ЕС поощряет обмен данными с правительствами по вопросам угроз дезинформации brennancenter.org). Даже в США отдел кибербезопасности Министерства внутренней безопасности сотрудничает с платформами по мониторингу дезинформации в выборах. Такие коллаборации, конечно, должны уважать свободу выражения мнения и не скатываться в цензуру легитимной речи. Но в случае явно сфабрикованного, вредоносного контента — быстрая, скоординированная реакция платформ и государственных институтов может остановить распространение вирусного фейка. Это может включать совместные пресс-релизы с опровержением или алгоритмическое продвижение авторитетных источников для противодействия распространению неправды.

5. Совершенствовать меры безопасности AI-моделей: Компании, разрабатывающие генеративные AI-модели (OpenAI, Google, Meta и др.), несут ответственность с самого начала. Им следует внедрять механизмы защиты для предотвращения злоупотребления своими AI в целях вмешательства в выборы. Это может включать внедрение водяных знаков в результаты AI, как уже обсуждалось (чтобы каждое изображение, созданное, например, DALL-E или Midjourney, имело встроенную подпись). Также защитой является отбор обучающих данных — например, обучение моделей отклонять запросы на вредоносное копирование реальных личностей. Уже сейчас некоторые AI-инструменты отказываются генерировать дипфейки политиков благодаря встроенным фильтрам контента. Эти «ограждения» важно постоянно совершенствовать (однако, с открытыми моделями остается сложность — их можно донастроить на злонамеренные задачи без ограничений). AI-разработчикам также следует инвестировать в исследование методов обнаружения дипфейков и делиться ими с сообществом. Позитивный сигнал — многие ведущие AI-компании добровольно подписали обязательства по внедрению водяных знаков и подтверждению подлинности контента. В перспективе они могли бы совместно создать стандартный API, позволяющий быстро определить, был ли видео- или аудиофайл сгенерирован одной из их моделей. По сути, те, кто создает «проблему» (генеративные технологии), должны помогать создавать и «решение» (способы её выявления).

6. Прозрачность в политической рекламе: Платформы, размещающие политические объявления, должны обеспечить жесткую прозрачность использования AI. Если кампания продвигает рекламу на Facebook или Google с элементами, созданными AI, в библиотеке рекламы платформы это должно быть явно отмечено. Платформы могут даже требовать от политических рекламодателей предоставлять исходные несмонтированные съемки для сравнения. Более радикально — социальные сети могли бы временно запретить всю политическую рекламу с синтетическими медиа в особо чувствительные последние дни перед выборами — подобно тому, как некоторые платформы запрещают новую политическую рекламу непосредственно перед днем голосования. Это свело бы к нулю риск «дипфейк-атаки в последний момент». Хотя соблюдение этого принципа непросто, суть в том, что платное продвижение обманчивого контента особенно опасно, а платформы имеют больше полномочий регулировать рекламу, чем публикации пользователя. Высокая прозрачность и быстрая реакция на фейки в области рекламы критичны, так как дипфейк, распространённый через платные объявления, может охватить миллионы целевых пользователей по алгоритму, несправедливо искажая информационный ландшафт.

Медиасообщества и журналистские организации

1. Строгие протоколы верификации: СМИ должны адаптировать свои практики проверки в эпоху дипфейков. Каждая редакция — от национальных телеканалов до локальных газет и сайтов по проверке фактов — обязана выстроить формальные процедуры аутентификации аудиовизуальных материалов перед публикацией или эфиром. Это включает обучение журналистов работе с криминалистическими инструментами (например, проверка метаданных видео, анализ изображений) и консультации с экспертами при необходимости. Любое сенсационное или скандальное видео, появившееся во время выборов, редакторы должны воспринимать с достаточной долей скептицизма и не публиковать его до подтверждения подлинности. СМИ должны удваивать источники любого пользовательского контента: например, если появляется видео с шокирующим поступком кандидата, издание должно искать подтверждающие доказательства (свидетели, официальные заявления и т.д.) или хотя бы провести анализ по кадрам, чтобы исключить дипфейк. Цель — не становиться невольным распространителем дезинформации. Впечатляет, что некоторые новостные организации уже создали внутренние дипфейк-группы. В одном случае журналисты Аризоны даже сделали собственный дипфейк (с разрешения) — чтобы показать зрителям, как легко манипулировать видео knightcolumbia.org — изобретательный способ повысить осведомленность. Каждой редакции стоит иметь своего “эксперта по дипфейкам” (или партнера в виде техлаборатории) для оперативного анализа подозрительных материалов. Сделав верификацию такой же рутинной, как фактчекинг, СМИ смогут выявлять подделки на ранних стадиях или хотя бы предупреждать свою аудиторию, если подлинность материала не установлена.

2. Ответственное освещение дипфейков: Рассказывая о случаях синтетических медиа, журналисты должны делать это осторожно и с контекстом. Если дипфейк-пример, направленный против кандидата, становится вирусным, суть истории — не само содержание подделки, а сам факт манипуляции. СМИ не стоит подробно повторять ложные утверждения и бескритично показывать дипфейк-видео, поскольку это может только усилить распространение фейка. Вместо этого рекомендуется общее описание и акцент на реакции (например: «Смонтированное видео ложно изображает X в ситуации Y, что было опровергнуто экспертами»). СМИ могут размывать или не делать прямых ссылок на дипфейк-контент в своих публикациях cetas.turing.ac.uk, чтобы не увеличивать трафик к подделке или не позволять злоумышленникам скачивать и распространять её. Важно правильно подать материал: делать акцент на попытке обмана и самом факте дипфейка, а не на его содержании cetas.turing.ac.uk. СМИ также должны акцентировать внимание на опровержениях и истине (пример: «Нет, политик Z этого не говорил — видео сгенерировано AI; вот их реальное заявление по теме»). Последовательная реализация такого подхода поможет уважаемым медиа научить общество не верить и не распространять дипфейки. Это тонкий баланс между тем, чтобы не замалчивать дезинформацию (ведь игнорирование не сделает проблему меньше), и тем, чтобы не усиливать ее. На основе опыта публикаций по ложным слухам или массовым преступлениям (где детали намеренно сокращают, чтобы не появлялось подражателей) можно разработать и отдельные рекомендации для дипфейков. Организацию независимых пресс-стандартов (Independent Press Standards Organisation) в Великобритании уже призывают обновить свои кодексы под подобные случаи cetas.turing.ac.uk.

3. Использование технологий аутентичности в редакциях новостей: Сами новостные организации могут использовать развивающуюся инфраструктуру аутентичности. Например, СМИ могут внедрить инструменты Content Authenticity Initiative, чтобы присваивать криптографические метаданные аутентичности всем оригинальным фотографиям и видеозаписям, сделанным их журналистами. Это значит, что любой материал, снятый оператором Reuters или AP, может иметь защищённую метку, подтверждающую его источник и любые правки. Впоследствии, когда зрители видят видео с пометкой Reuters, они смогут проверить, что оно не было изменено. Такие меры помогают утверждать, что является настоящим и дают публике источник истины. СМИ также должны сотрудничать в создании баз данных известных дипфейков (и подлинного контента), которые помогут проверяющим факты. Например, поддержание архива официальных речей и интервью позволит быстро разоблачить подделанные записи путём сравнения. Крупные новостные агентства могут координировать быстрое оповещение всех своих подписчиков при обнаружении опасного дипфейка — как это делается с экстренными новостными сообщениями. Внутри редакций также важно понимать, что политические деятели могут пытаться подсовывать журналистам поддельные материалы (например, анонимная наводка со “слитым” аудио, в действительности созданным ИИ). Высокий уровень скептицизма к анонимным цифровым материалам — разумная мера предосторожности.

4. Образование аудитории: Медиа могут сыграть важную роль в просвещении избирателей относительно синтетических медиа. СМИ и журналисты должны создавать разъяснительные материалы, брать интервью у экспертов, проводить сюжеты, которые показывают публике, как создаются дипфейки и как их распознавать. Развенчивая технологию, они уменьшают её влияние. Например, в некоторых телевизионных новостях в 2024 году в прямом эфире демонстрировали голосовые клоны, чтобы показать, как мошеннический звонок может имитировать голос родственника. Точно так же предвыборные выпуски могут напоминать: “Если вы увидите в последний момент потрясающее видео о кандидате, будьте внимательны — оно может быть поддельным. Вот как проверить…”. Публичные информационные кампании под руководством СМИ (возможно, совместно с государством или НКО) могут существенно повысить цифровую грамотность. Журналисты также должны точно употреблять термины: называть что-то “дипфейком” или “сфабрикированным видео, созданным ИИ”, а не просто “отредактированное видео”, чтобы усилить осознание новой категории угроз. Со временем хорошо информированная общественность будет меньше подвержена обману и чаще требовать доказательства. Медиа как посредник между информацией и публикой обязаны формировать такую устойчивость.

5. Ответственность и разоблачение: В завершение, журналисты должны расследовать и выявлять, кто стоит за громкими дипфейк-операциями. Привлечение виновных к ответственности в глазах общества может отпугнуть будущих нарушителей. Если выяснилось, что злонамеренный дипфейк создан конкурентной кампанией, иностранной фабрикой троллей или иной конкретной группой, освещение этого факта добавит стигму и риск подобной тактике. Журналистские расследования о производстве и финансировании кампаний по дезинформации подрывают их эффективность. Кроме того, если политик или публичная фигура сознательно распространяет дипфейк, зная о его фальшивости (например, кандидат публикует поддельное видео своего оппонента), СМИ должны чётко об этом сообщать — расценивая это как серьёзное нарушение. Перспектива негативной огласки и ущерба репутации может удержать политиков от “грязных трюков”, вроде использования дипфейков. Короче говоря, роль журналистики как “стража” распространяется и на цифровую сферу: расследовать, устанавливать авторство и разоблачать злонамеренные операции с синтетическими медиа, как и любую другую ложь или коррупцию в политике.

Гражданское общество и инициативы избирателей

1. Цифровая грамотность и образовательные программы: Организации гражданского общества — некоммерческие структуры, библиотеки, университеты, волонтёрские объединения — могут возглавить просвещение граждан для безопасной навигации в эпоху дипфейков. В сообществах должны работать масштабируемые программы по проверке медиа. Например, НКО могут проводить тренинги, где учат простым приёмам: обратному поиску по картинке (чтобы выяснить, сгенерирована ли фотография ИИ или была изменена), поиску подтверждений в новостях и работе с сайтами-фактчекерами. Уже существуют отличные учебные пособия, созданные профильными организациями (например, First Draft, Media Literacy Now), которые охватывают основы распознавания дезинформации и дипфейков; такие материалы следует широко распространять. Обучение нужно ориентировать не только на школьников, но и на пожилых людей, так как они чаще становятся жертвами онлайн-обмана. Масштабные кампании по повышению цифровой грамотности можно запускать по всей стране — возможно, при госфинансировании, но реализуемые общественными организациями для большего доверия. Цель — повысить “коллективный иммунитет” общества: если критическая масса граждан умеет распознавать фейки или хотя бы воздерживаться от суждений до проверки, то у распространителей дезинформации остаётся гораздо меньше возможностей. Опросы показывают, что общество хочет эти знания — многие тревожатся, не умея отличать правду от лжи brennancenter.org brennancenter.org. Гражданское общество способно заполнить этот пробел, наделяя людей знаниями и практическими навыками.

2. Инициативы по проверке фактов и разоблачению: Независимые фактчекеры и общественные организации по-прежнему будут играть решающую роль. Им стоит подготовиться специально к избирательным периодам, развёртывая центры по проверке дипфейков. Например, коалиция фактчекеров может создать публичную онлайн-доску или дашборд, где во время выборов отмечаются слухи и новые дипфейк-претензии, а также даются оперативные опровержения. News Literacy Project делал нечто подобное на выборах в США 2024 года, фиксируя случаи дезинформации и подчёркивая, насколько немногие действительно связаны с ИИ knightcolumbia.org knightcolumbia.org. Такой прозрачный мониторинг помогает журналистам и публике видеть целостную картину (не преувеличивая угрозу), при этом своевременно реагируя на реальные случаи. Общественники также могут распространять опровержения в соцсетях — например, реагируя на вирусные публикации с помощью “community notes” или других функций. Важно также продвигать “предвосхищающее информирование”: заранее предупреждать публику о возможности появления фейка. Например, если анализ или прошлый опыт указывает, что кандидат может стать целью фальшивого скандала, группы гражданского общества (совместно с избирательными органами) могут уведомить избирателей: “Будьте скептически настроены, если вдруг появится шокирующее видео о Х — есть вероятность, что это дипфейк”. Исследования показывают, что предвосхищающее информирование значительно снижает доверчивость и распространение фейков cetas.turing.ac.uk cetas.turing.ac.uk. Таким образом, упреждающий подход гражданского общества — предугадывать и опережать дипфейковые кампании — может быть весьма эффективным.

3. Гражданские технологии и краудсорсинг обнаружения дипфейков: Технически подкованное гражданское сообщество может быть мобилизовано для борьбы с дипфейками. Уже существуют добровольцы-“охотники на дипфейки”, анализирующие подозрительный контент онлайн. Гражданское общество может организовать такие усилия на специальных платформах — например, создать портал или приложение, где любой желающий может отправить сомнительное видео или аудиозапись на проверку, а сеть экспертов или ИИ-алгоритмы вынесет заключение о подлинности. Такой краудсорсинговый анализ станет дополнением к официальным усилиям. Кроме того, команды гражданских айтишников могут разрабатывать расширения для браузеров или приложения, помогающие пользователям выявлять синтетические медиа. Например, приложение позволит выбрать ролик на экране и мгновенно получить анализ сразу несколькими алгоритмами (своего рода “антивирус” для дипфейков). Пусть это не гарантирует защиту от всех угроз, но сигнализирует о рисках. Разработка таких open-source инструментов заслуживает грантов и поддержки. Ещё одна идея — горячие линии для гражданских сообщений: как есть телефоны для жалоб на избирательных участках, так может быть канал для сообщений о подозрительных дипфейках или дезинформации. Это позволит быстро передавать обнаружения проверяющим или избирательным органам. Привлекая граждан как активных участников обнаружения и маркировки сомнительного контента, мы существенно расширяем масштабы мониторинга. Такой распределённый подход исходит из того, что в обществе с миллионами пользователей всегда найдётся кто-то, кто заметит что-то первым — важно, чтобы такие наблюдения своевременно попадали к тем, кто способен их проверить и донести правду до всех.

4. Защита ответственности платформ: Гражданское общество должно продолжать оказывать давление на технологические платформы и компании-разработчики ИИ, чтобы те действовали ответственно. Общественные организации и аналитические центры сыграли ключевую роль в привлечении внимания к рискам дипфейков и в продвижении реформ (например, Access Now, EFF и другие публиковали свои рекомендации). Такая адвокация должна продолжаться — платформах следует настаивать на внедрении уже отмеченных выше политик (улучшенные маркировки, удаления и т.п.), а разработчиков ИИ — на этичном проектировании продуктов. Кампания Public Citizen по отслеживанию законодательства штатов о дипфейках и обращениям в FEC — яркий пример citizen.org citizen.org. Аналогичные коалиции могут требовать прозрачности: публикации данных о доле ИИ-контента на платформах или эффективности обнаружения подделок. Также голоса общества помогут обеспечить, чтобы все новые законы или нормы о регулировании действительно охраняли гражданские свободы (например, не принимались расплывчатые правила, под предлогом борьбы с дипфейками ограничивающие свободу слова). Для поиска баланса нужны публичные консультации, и здесь адвокационные группы представляют интересы общества. В ближайшие годы могут появиться новые правовые рамки для ИИ и онлайн-контента — важно, чтобы в них соблюдались демократические ценности и права человека, и именно гражданское общество должно играть ключевую роль этого “стража”.

5. Поддержка жертв и пострадавших: Если кандидат или частное лицо пострадали от дипфейка, гражданское общество может предоставить поддержку. НКО могут предложить юридическую помощь или консультации по тому, как удалить клеветнические дипфейки и привлечь виновных к ответственности. Могут быть горячие линии для жертв дипфейк-порнографии или клеветы, связывающие их с правоохранительными органами и ресурсами психического здоровья. Для кандидатов, подвергшихся такому удару, гражданские организации (например, Лига женщин-избирателей или группы по обеспечению честности выборов) могут помочь усилить их опровержения и опубликовать разоблачения, чтобы свести ущерб к минимуму. Быстрое сплочение для защиты человека, ошибочно подвергшегося атаке — обеспечение того, чтобы правда звучала громче лжи — это то, что сообщества и правозащитные группы могут координировать, как они часто делают в борьбе с клеветой или языком вражды. В более широком смысле, гражданское общество может способствовать межпартийным соглашениям о том, что если появится дипфейк, все стороны осудят его. Представьте себе обязательство, подписанное всеми крупными партиями страны, в котором они клянутся не использовать дипфейки и незамедлительно осуждать любые злонамеренные фальсификации. Такие нормы, поддерживаемые, например, межпартийными избирательными комитетами или этическими НКО, снизили бы вероятность «гонки на дно», когда партии чувствуют, что должны отвечать тем же. Это создает единый фронт, показывающий, что атаки на правду неприемлемы вне зависимости от того, против кого они направлены.

В заключение, эффективное противостояние вызову дипфейков требует задействовать все общественные защитные механизмы — технологические, правовые, институциональные и человеческие. Следуя приведённым выше шагам, правительства могут укрепить избирательную систему против ИИ-подделок, технологические платформы — ограничить распространение ложного контента, СМИ — обеспечить преобладание правды в репортажах, а граждане — стать грамотными защитниками реальности. Нет времени терять: по мере совершенствования генеративного ИИ, избирательный цикл 2025 года станет испытанием для устойчивости демократии перед синтетической ложью. Обнадеживает то, что мы не бессильны. С помощью подготовки, прозрачности и сотрудничества мы можем перехитрить и переиграть кампании с дипфейками, сохраняя целостность наших выборов. Как заключает исследовательский доклад CETaS по ИИ и выборам: «самоуспокоенность не должна проникать в процесс принятия решений» — напротив, нам следует использовать нынешний момент для наращивания устойчивости cetas.turing.ac.uk cetas.turing.ac.uk. Таким образом мы сохраняем принцип: технологии меняются, а демократические ценности истины и доверия останутся.

Источники

  1. Стоквелл, Сэм и др. «AI-Enabled Influence Operations: Safeguarding Future Elections.» Доклад CETaS (Институт Алана Тьюринга), 13 ноября 2024. cetas.turing.ac.uk cetas.turing.ac.uk
  2. Стоквелл, Сэм и др. Ibid. (отчет CETaS, 2024), раздел 2.1 о дипфейках на выборах в США. cetas.turing.ac.uk cetas.turing.ac.uk
  3. Бомонт, Хилари. «A lack of trust: How deepfakes and AI could rattle the US elections.» Al Jazeera, 19 июня 2024. aljazeera.com aljazeera.com
  4. Сзе-Фунг Ли. «Канаде вчера нужна была законодательная база по дипфейкам.» Policy Options, 18 марта 2024. policyoptions.irpp.org policyoptions.irpp.org
  5. Голдштейн, Джош А. & Эндрю Лон. «Deepfakes, Elections, and Shrinking the Liar’s Dividend.» Brennan Center for Justice, 23 января 2024. brennancenter.org
  6. «Синтетические медиа.» Wikipedia (доступ в 2025). en.wikipedia.org en.wikipedia.org
  7. «Дипфейк.» Kaspersky IT Encyclopedia (2023). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
  8. Хамиль, Натан. «Дипфейки оказались иной угрозой, чем ожидалось. Вот как защититься.» World Economic Forum, 10 января 2025. weforum.org weforum.org
  9. «Регулирование ИИ-дипфейков и синтетических медиа на политической арене.» Brennan Center for Justice, 4 октября 2023. brennancenter.org brennancenter.org
  10. Колман, Бен. «Закон ЕС об ИИ и растущая срочность обнаружения дипфейков.» Reality Defender Blog, 11 февраля 2025. realitydefender.com realitydefender.com
  11. «Трекер: Законы штатов о дипфейках на выборах.» Public Citizen, 2025. citizen.org citizen.org
  12. Partnership on AI. “Synthetic Media and Deepfakes – Case Study: Slovakia 2023.” (упомянуто в анализе Knight Columbia). brennancenter.org brennancenter.org
  13. Капур, Саяш & Арвинд Нараянан. «Мы рассмотрели 78 предвыборных дипфейков. Политическая дезинформация — не только проблема ИИ». Knight First Amendment Institute, 13 декабря 2024. knightcolumbia.org knightcolumbia.org
  14. Доклад CETaS (2024), рекомендации по политике (фокус на Великобритании). cetas.turing.ac.uk cetas.turing.ac.uk
  15. Доклад CETaS (2024), рекомендации по обнаружению и атрибуции. cetas.turing.ac.uk cetas.turing.ac.uk
  16. Public Safety Canada. «Защита от ИИ-дезинформации» (бриф, 2023). policyoptions.irpp.org policyoptions.irpp.org
  17. InnovationAus. «Бан дипфейков на выборах от правительства ‘зависнет’ до 2026 года.» (Австралия) 2023. innovationaus.com
  18. Дополнительные источники: статьи Reuters, Wired и CNN, цитируемые в источниках выше по отдельным инцидентам (например, дипфейк Зеленского, мошенничество через Zoom c помощью дипфейка на $25 млн в Гонконге weforum.org), а также предупреждения FTC о мошенничестве с подделкой голоса weforum.org. Эти материалы встроены в анализ и доступны по приведённым ссылкам.

Добавить комментарий

Your email address will not be published.

Latest Posts

Don't Miss

How AI Is Transforming Internet Search and Browsing

Как искусственный интеллект меняет поиск и просмотр информации в интернете

Технологии искусственного интеллекта стремительно меняют способы поиска информации в интернете.
Guardrails for Godlike AI: Superalignment Strategies to Secure AGI’s Future

Ограничители для божественного ИИ: стратегии супервыравнивания для обеспечения будущего ИИ

Предпосылка: AGI и проблема согласования Искусственный общий интеллект (AGI) —