Досягнення в галузі штучного інтелекту дозволили створювати синтетичні медіа – контент, згенерований або змінений штучним інтелектом, – у небачених раніше масштабах. У період підготовки до виборчого циклу 2025 року в демократичних країнах посадові особи й експерти б’ють на сполох щодо дезінформації, що розповсюджується за допомогою ШІ. У нещодавньому опитуванні 85% американців висловили занепокоєння через “оманливі відео та аудіо-діпфейки”, які впливають на вибори brennancenter.org. Новинні заголовки попереджають, що згенеровані ШІ “діпфейки” можуть спричинити хаос у виборчих кампаніях і знизити довіру виборців brennancenter.org, що підкреслює терміновість захисту цілісності виборів. У цьому звіті розглядається, що таке синтетичні медіа й діпфейки, як вони становлять загрозу для демократії та що можна зробити – від технологічних рішень до політик – щоб захистити вибори у 2025 році та в майбутньому.
Що таке синтетичні медіа й діпфейки?
Синтетичні медіа — це широкий термін для цифрового контенту (зображення, відео, аудіо, текст), який штучно створений або змінений автоматизованим шляхом, насамперед алгоритмами ШІ en.wikipedia.org. Сучасні генеративні системи штучного інтелекту можуть створювати реалістичний, схожий на людський контент у будь-якому форматі — від фотографій людей, які ніколи не існували, до клонованих голосів і статей, написаних ШІ. Діпфейки — це особливий підвид синтетичних медіа: надзвичайно правдоподібні підроблені зображення, відео чи аудіозаписи, створені за допомогою ШІ (“глибинне навчання” + “підробка”) для імітації реальних людей encyclopedia.kaspersky.com. На практиці діпфейк може бути відео, де обличчя політика реалістично “пересаджене” на тіло іншої людини, або аудіозапис, що імітує голос кандидата, який каже те, чого насправді ніколи не говорив.
Як створюються діпфейки? Переважно вони генеруються за допомогою передових методів глибинного навчання. Загальний підхід — це використання генеративно-змагальних мереж (GANs) — двох нейромереж, що змагаються одна з одною icct.nl. Одна мережа (генератор) створює фейковий контент (наприклад, зображення обличчя людини), а інша (дискримінатор) намагається визначити, чи це підробка. За тисячі ітерацій генератор навчається створювати дедалі реалістичніший продукт доти, поки дискримінатор вже не може відрізнити його від справжнього icct.nl. Спочатку для створення якісного діпфейку потрібні були об’ємні навчальні дані та потужне обладнання — наприклад, експеримент із діпфейком актора Тома Круза тривав два місяці навчання на потужних GPU icct.nl. Проте інструменти швидко еволюціонували. Сучасне програмне забезпечення для діпфейків тепер широко доступне й працює значно швидше, іноді навіть у режимі реального часу (наприклад, зміна відео чи голосу під час онлайн-дзвінка “на льоту”) encyclopedia.kaspersky.com. Окрім GAN, у процесі задіяні й інші архітектури ШІ: моделі трансформери генерують діпфейковий текст чи допомагають у клонуванні голосу encyclopedia.kaspersky.com. Таким чином, новітні прориви в ШІ зробили простим і дешевим для майже кожного створення оманливого аудіовізуального контенту, різко знизивши бар’єр для операцій із дезінформації.
Варто підкреслити, що не всі синтетичні медіа використовуються у зловмисних цілях. Контент, згенерований ШІ, може застосовуватися для безпечних і творчих цілей – персоналізовані аватари, дубляж голосу доповідача іншими мовами, сатира й розваги тощо. Насправді, під час світових виборів у 2024 році орієнтовно половина задокументованих застосувань ШІ у політичних матеріалах були недезінформуючими (наприклад, кандидат відкрито використовує ШІ-голос через втрату власного голосу, журналісти застосовують ШІ-аватар для захисту особистості) knightcolumbia.org knightcolumbia.org. Проте цей звіт зосереджується на зловмисному боці синтетичних медіа — діпфейках, які мають на меті ввести в оману, збити з пантелику чи маніпулювати виборцями й громадською думкою.
Ризики для демократичних процесів
Синтетичні медіа та діпфейки несуть значні загрози для демократії, особливо під час виборів, коли поінформованість суспільства й довіра до інформації мають вирішальне значення. Основні загрози включають:
- Дезінформація та маніпуляція виборцями: Фейкові відео, фото й аудіо, згенеровані ШІ, можуть поширювати неправдиву інформацію про кандидатів чи важливі питання, вводячи виборців в оману. Наприклад, діпфейк може показати, що кандидат робить скандальні заяви, яких він чи вона ніколи не говорили. Такий сфабрикований контент може отруїти публічну дискусію хибними твердженнями. Експерти попереджають, що діпфейки “становлять високу загрозу” виборцям, тому що додають фальшивого контенту в кампанії, підриваючи довіру суспільства aljazeera.com. Переконливо змонтоване відео, опубліковане напередодні виборів, коли немає часу для перевірки, може вплинути на тих, хто вагається, або знизити явку, потенційно змінюючи результати виборів citizen.org. І це не лише теорія: як детальніше буде показано далі, у 2024 році аудіо-діпфейк імітував голос президента США й закликав прихильників не голосувати, очевидно, щоб підштовхнути до низької явки aljazeera.com aljazeera.com.
- Підрив довіри (“дивіденд брехуна”): Окрім окремих підробок, сама присутність діпфейків підриває довіру до справжньої інформації. Виборці починають сумніватися навіть у справжніх доказах, не впевнені, чи вірусне відео — справжнє, чи це підробка ШІ. Ще гірше: недобросовісні діячі можуть використати цей сумнів — реальні скандали чи записи починають спростовувати як “черговий діпфейк” і уникати відповідальності. Це явище отримало назву “дивіденду брехуна”, коли зростання обізнаності про діпфейки полегшує брехунам заяви, що автентичні докази — підробка brennancenter.org. Підвищена увага суспільства до можливостей ШІ означає, що політик, спійманий на справжньому злочині, може легше переконати громадськість, стверджуючи, що докази — “робота штучного інтелекту” brennancenter.org. Така динаміка підриває базову довіру, на якій тримається демократія. На виборах 2024 року спостерігачі зазначали, що деякі кандидати й їхні прихильники на випередження оголошували неприємні новини “фейками штучного інтелекту” brennancenter.org brennancenter.org. Якщо в довгостроковій перспективі громадяни повірять, що “нічому не можна вірити — ні тому, що бачиш, ні тому, що чуєш”, це підриває спільну реальність, потрібну для чесних виборів cetas.turing.ac.uk cetas.turing.ac.uk.
- Зростання поляризації та конфліктів: Наразі дані свідчать, що діпфейкова пропаганда частіше підсилює уже існуючі упередження людей, ніж переконує прихильників протилежної сторони cetas.turing.ac.uk. Зловмисний контент на ШІ часто поширюється самими тими, хто вже дотримується радикальних поглядів, що посилює ефект “камери відлуння”. Під час президентських виборів у США 2024 року дослідники встановили, що ШІ фальшивки здебільшого лише підсилювали партійні наративи та розпалювали суперечки, а не змінювали переконання cetas.turing.ac.uk. Наприклад, фейкові відео проти президента Байдена чи віце-президентки Гарріс набирали мільйони переглядів онлайн і найактивніше ширили ті, хто вже був вороже до них налаштований cetas.turing.ac.uk cetas.turing.ac.uk. Консолідація переконань у таборах за допомогою драматичних фейкових “доказів злочинів” опонентів поглиблює розкол у суспільстві, отруюючи виборче середовище. Ба більше, хаос і недовіра, які сіють діпфейки, створюють сприятливий ґрунт для поширення теорій змови cetas.turing.ac.uk, адже тепер незручну реальність легше відкинути як “вигадку штучного інтелекту”.
- Підрив адміністрування виборів: Загроза полягає не лише у впливі на виборців — діпфейки можуть дестабілізувати сам виборчий процес. Посадовці уявляють сценарії, коли клоновані голоси або фейкові повідомлення, нібито від виборчих комісій, наказують достроково закрити дільниці чи давати виборцям хибні інструкції (наприклад, “вибори перенесено”) aljazeera.com. Вишуканий зловмисник може імітувати голос місцевого посадовця, щоб зірвати процес голосування. Такі методи можуть знизити явку або викликати хаос у день голосування. У США у Brennan Center зауважують, що сфабриковані медіа можуть ввести в оману не лише громадян, а й самих членів виборчих комісій, тож потрібне нове навчання й протоколи протидії aljazeera.com.
- Домагання та знищення репутації: Діпфейки — потужна зброя для нападів на особистість кандидатів, активістів чи журналістів. Особливо підступна форма — неконсенсуальна синтетична порнографія, коли обличчя особи “приклеюють” до сексуального контенту. Так уже переслідували жінок-журналісток і політикинь у світі. Найжорстокішою формою діпфейк-атаки є інтимні підробки, що використовуються для ганьби чи шантажу weforum.org. Під час виборів цю тактику можуть використовувати для оприлюднення фейкового компромату на кандидата (наприклад, діпфейк-секс-відео чи фейкового запису протизаконних дій) напередодні голосування. Навіть якщо це швидко спростують, пошкодження репутації вже завдано. Насамперед жінки й меншини стають жертвами таких “синтетичних наклепів”, що може відлякувати різноманітних кандидатів від участі у виборах policyoptions.irpp.org policyoptions.irpp.org. Підсумовуючи: діпфейки додають нового пального до старих “брудних трюків” — від інсценування скандалів до фальшування цитат, підсилюючи репутаційні атаки у виборах.
Нарешті, потрібно зазначити: наразі ми не спостерігали виборчої катастрофи, спричиненої діпфейками. Емпіричні дослідження виборів 2024 року у світі показали, що немає вагомих доказів, що ШІ-дезінформація змінила результат хоч одних виборів cetas.turing.ac.uk weforum.org. Класична дезінформація (дешеві монтажі, чутки, партійна пропаганда) й надалі мавила значно більший вплив, ніж високотехнологічні діпфейки knightcolumbia.org knightcolumbia.org. Проте експерти застерігають: відсутність катастрофи наразі — не привід для самозаспокоєння cetas.turing.ac.uk weforum.org. Технології швидко розвиваються, зловмисники навчаються. Навіть якщо діпфейки не вплинули на великі перегони у 2024 році, вони впливали на дискурс — наприклад, вірусні брехні, згенеровані ШІ, ставали предметом дебатів у мас-медіа cetas.turing.ac.uk. Ба більше, сам страх перед діпфейками посилював тривогу та недовіру щодо виборів cetas.turing.ac.uk cetas.turing.ac.uk. Потенціал для більш руйнівного інциденту залишається, особливо напередодні “виборів великої ставки” 2025 року. Демократичні суспільства мають ставитися до діпфейків як до серйозної проблеми безпеки та цілісності, реагуючи і на пряму загрозу фейкових медіа, і на загальний розмив істини у виборчій сфері.
Нещодавні інциденти: дипфейки порушують політику
За останні роки реальні кейси показують, як синтетичні медіа вже були використані як зброя в політичних контекстах. Нижче розглянуто кілька найбільш помітних інцидентів і кейсів дипфейків і дезінформації, створеної ШІ, які вплинули на вибори чи суспільний дискурс:
- Україна (березень 2022) – Відео «Здатися»: У перші дні російської війни проти України з’явилося відео, де нібито Президент України Володимир Зеленський закликає війська скласти зброю і здатися. Відео було дипфейком — зображення і голос Зеленського були синтетично змінені icct.nl. Характерні недоліки (розмиті краї, невідповідність тону шиї) видали підробку, і українські ЗМІ швидко її викрили. Цей випадок — перше відоме використання дипфейку під час збройного конфлікту — пророкував, як ШІ-пропаганда може підривати довіру до лідерів у кризові моменти icct.nl. Хоча фейкове відео із Зеленським не змогло деморалізувати опір України, воно продемонструвало намір і здатність зловмисників (підозрюються російські агенти) використовувати дипфейки для інформаційної війни.
- Словаччина (вересень 2023) – Дезінформація перед виборами: За декілька днів до парламентських виборів у Словаччині стали вірусними аудіозаписи-дипфейки, нібито з голосом лідера партії «Прогресивна Словаччина» Міхала Шімечки, який зізнався у фальсифікації виборів і навіть пропонував підвищити ціну на пиво вдвічі brennancenter.org. У деяких версіях наприкінці було слабке застереження, що це штучний інтелект, проте воно з’являлося лише в кінці запису — ймовірно, навмисно, щоб ввести слухачів в оману brennancenter.org. Час атаки був цілком стратегічний: одразу перед голосуванням. Прозахідна партія Шімечки з невеликим відривом програла проросійським суперникам, і деякі експерти припустили, що дипфейковий наклеп в останню хвилину міг вплинути на результат brennancenter.org. Цей випадок підкреслює, що іноземні чи внутрішні гравці можуть використовувати дипфейки для впливу на результат у запеклій боротьбі і як важко спростовувати фейки на фініші кампанії.
- Тайвань (січень 2024) – Зарубіжні операції впливу: Напередодні президентських виборів 2024 спостерігачі задокументували китайську кампанію дезінформації з використанням дипфейків для підриву кандидата Лая Цін-те. В онлайн-просторі поширювалися фейкові відео із Лаєм (правляча про-незалежницька партія), який робить заяви, яких він ніколи не виголошував — наприклад, начебто підтримує програму опонентів policyoptions.irpp.org. В одному випадку було оприлюднено аудіо з голосом Лая (створене ШІ), де він, нібито, критикує власну партію policyoptions.irpp.org, що мало розколоти його прихильників. Ця синтетична атака, що йшла з Китаю, була спрямована на вплив на громадську думку й поширення хаосу у демократії Тайваню policyoptions.irpp.org. В результаті Лай переміг на виборах, і аналітики дійшли висновку, що китайська дипфейк-кампанія суттєво не вплинула на результат policyoptions.irpp.org. Водночас це — класичний приклад використання ворожою державою ШІ-пропаганди проти виборів у демократичній країні policyoptions.irpp.org policyoptions.irpp.org. Однак залишається ризик, що за тіснішої боротьби десь у світі подібна тактика може мати значно більший ефект.
- США (2024) – Дипфейки на виборчій кампанії: Під час кампанії 2024 року у США спостерігалося різке зростання контенту, створеного за допомогою ШІ, який, хоча і не зірвав вибори, однак викликав хвилювання. На початку 2024 виборці штату Нью-Гемпшир отримали несподіваний автоматичний дзвінок: голос, схожий на президента Джо Байдена, закликав демократів: «збережіть свій голос, не використовуйте його на цих виборах». Для багатьох голос звучав достовірно, але сам зміст був підозрілим — Байден ніколи б не закликав своїх прихильників не голосувати. Насправді це був клінований дипфейком голос Байдена, розісланий тисячам виборців для спроби придушення голосування aljazeera.com aljazeera.com. Інцидент сягнув приблизно 5 000 телефонних номерів у Нью-Гемпширі й продемонстрував, як дешево і швидко можна реалізувати такі «брудні трюки» — консультант, що створив дипфейк Байдена, заявив, що це зайняло лише 20 хвилин і коштувало близько 1 долара на обчислення policyoptions.irpp.org policyoptions.irpp.org. Тим часом у соцмережах AI-згенеровані зображення потрапили навіть до офіційних матеріалів кампаній. Зокрема, команда губернатора Флориди Рона Десантіса поширила атаку — видозмінені зображення Дональда Трампа, що обіймає доктора Ентоні Фаучі, створюючи враження, що Трамп надто дружній з колишнім коронавірусним радником, непопулярним серед консерваторів. Насправді ці фото були згенерованими дипфейками, доданими до відео командою Десантіса brennancenter.org, що спричинило суспільний обурення після викриття. В іншому випадку поширювалося відео за участю Байдена зі спотвореною (заплутаною) вимовою, теж створене ШІ, яке було згодом спростоване. Деякі фейкові відео з Байденом і віцепрезиденткою Гарріс зібрали мільйони переглядів у соцмережах cetas.turing.ac.uk, демонструючи, як швидко поширюється подібний контент. Навіть технологічні магнати приєдналися до цього: Ілон Маск відомо поділився грубо зміненим відео з Гарріс (позначеним як «сатира»), де вона виголошує нісенітници — стираючи межу між гумором та дезінформацією cetas.turing.ac.uk cetas.turing.ac.uk. Хоча жоден із цих дипфейків не вплинув на хід виборчої кампанії, вони підтримували хибні наративи (наприклад, про когнітивний стан Байдена чи лояльність Трампа) і ще більше отруювали інформаційне середовище. Офіційні особи США також побоюються дипфейків, націлених на виборчу інфраструктуру — наприклад, фейкове аудіо із «наказами» виборчих чиновників діяти незаконно aljazeera.com, хоча у 2024 році жоден великий інцидент цього типу підтверджено не було.
Ці приклади ілюструють глобальний масштаб загрози. Дипфейки використовувалися державами у геополітичних конфліктах, провокаторами під час внутрішніх виборів у країнах Європи й Азії, а також безпосередньо кампаніями і прихильниками у США. Це можуть бути фейкові промови, фото, телефонні дзвінки чи відео — ціллю виступають як виборці, так і виборчі чиновники. Водночас виникають і певні уроки: багато дипфейків вдалося виявити і розвінчати досить швидко (часто завдяки уважним журналістам чи фактчекерам), а в окремих випадках обурення через використання дипфейків (як із роликом Десантіса) викликало негативну реакцію щодо організаторів. Це свідчить, що прозорість та пильність можуть стримувати шкоду. Однак тенденція очевидна: такі синтетичні фейки стають усе частішими і важче відрізняються від реальності. Кожні вибори приносять нові «перші» випадки (у 2024 з’явилися перші телефонні «робо»-шахрайства зі ШІ для впливу на голосування, перші офіційні дипфейк-реклами тощо), а ризик масштабнішого руйнівного інциденту з дипфейком лише зростає у міру наближення до 2025 року.
Виявлення та протидія дипфейкам: інструменти та технології
Критично важливим елементом захисту виборів є розробка надійних інструментів для виявлення та пом’якшення впливу дипфейків. Дослідники, технологічні компанії та уряди змагаються у створенні технологій, здатних виявляти фальшиві AI-матеріали та автентифікувати справжній контент. Нижче ми розглядаємо поточний ландшафт інструментів для виявлення дипфейків і пов’язаних із цим заходів:
- Автоматизовані детектори дипфейків: Основна лінія оборони — це AI проти AI — алгоритми, які аналізують медіа та виявляють ознаки маніпуляції. Ці системи виявлення шукають ледь помітні артефакти чи невідповідності, залишені генеративними моделями. Наприклад, ранні дипфейки часто мали неправильне моргання чи недосконале синхронізування губ. Сучасні детектори застосовують глибокі нейронні мережі, щоб досліджувати освітлення та тіні на обличчях, частотні характеристики аудіо або біологічні сигнали (наприклад, пульс на відео), які AI не завжди здатен відтворити. Технологічні компанії створюють власні інструменти — наприклад, Microsoft у 2020 році випустила “Video Authenticator”, що міг позначати фейкові відео шляхом покадрового аналізу. Платформи на кшталт Facebook та X (Twitter) інвестують у дослідження та впроваджують фільтри для виявлення відомих фейків. Академічні ініціативи та конкурси (як-от Facebook Deepfake Detection Challenge, конференції IEEE) стимулюють розвиток, а стартапи Sensity і Reality Defender пропонують комерційні послуги з виявлення дипфейків. Проте це справжня гонка озброєнь: зі зростанням рівня виявлення творці дипфейків адаптуються, забезпечуючи такі підробки, які все складніше розпізнати автоматично. Відповідно до звіту Meta за 2023 рік, із усіх дезінформацій, позначених під час виборчого циклу-2024, “менше 1%” було ідентифіковано як штучно згенерований контент weforum.org, що свідчить або про рідкість дипфейків, або про неуспішність їхнього виявлення.
- Водяні знаки та походження контенту: Інша стратегія — позначати AI-контент у момент його створення, щоб всі наступні користувачі могли легко розпізнавати синтетичний матеріал. ЄС активно просуває такий підхід — новий AI Act у ЄС прямо зобов’язує всі AI-генеровані матеріали бути чітко позначеними або з водяним знаком realitydefender.com. Компанії зобов’язані вбудовувати цифровий індикатор (водяний знак чи метадані) для будь-яких AI-генерованих зображень, відео чи аудіо. Теоретично браузери або соціальні мережі могли б автоматично позначати чи фільтрувати такі матеріали. Водяні знаки найбільш ефективні для запобігання простим зловживанням. Провідні постачальники AI-моделей (OpenAI, Google та інші) обговорюють добровільне впровадження водяних знаків для свого контенту. Крім цього, коаліція медіа та технологічних організацій розробляє стандарти походження контенту (як-от C2PA — Coalition for Content Provenance and Authenticity) для криптографічної фіксації походження та історії редагування цифрових медіа. Наприклад, новинне фото чи політична реклама могли б містити захищене свідоцтво про автентичність, яке б спростило перевірку творця та відсутності змін cetas.turing.ac.uk. Уряд США також підтримує це: Білий дім доручив федеральним відомствам розробити інструкції з “автентичності за замовчуванням”, впроваджуючи метадані походження в усьому цифровому контенті, який вони створюватимуть з 2025 року cetas.turing.ac.uk. За умови масового впровадження такі заходи ускладнять підробленому контенту маскування під справжній.
- Обмеження міток: Хоча інструменти прозорості потрібні, вони не є бездоганними. Водяні знаки можуть бути видалені чи змінені зловмисниками. Дослідники вже продемонстрували методи видалення чи маскування водяних знаків AI realitydefender.com, і, звісно, зловмисник, що використовує власну генеративну модель, може взагалі не додавати жодних позначень. Метадані походження корисні лише тоді, коли впроваджені масово і коли користувачі ними користуються. Творець дипфейків може навіть застосовувати трюк “підлаштовування походження” — беручи справжнє фото або відео та накладаючи фейкові елементи, щоб у підсумку “автентичний” підпис залишався. Це означає, що не можна розраховувати лише на мітки контенту. Як зазначає одна AI-компанія, рішення із водяними знаками та метаданими діє, тільки якщо творці контенту добровільно маркують свої творіння — але це не зупинить рішучих зловмисників realitydefender.com. Тому інференс-детектування (аналіз самого контенту на наявність AI-маніпуляцій) залишається важливим realitydefender.com. Найефективнішим підходом, ймовірно, буде поєднання обох: автоматичне виявлення фейків і системи автентифікації для перевірки легітимності медіа.
- Виявлення в реальному часі для відео/аудіо-стрімів: Зростає потреба у засобах, здатних розпізнавати дипфейки наживо. Уявіть гіпотетичну ситуацію фальшивого “прямого” відеодзвінка з кандидатом чи посадовою особою — так сталося у 2023 році, коли злочинці в Гонконзі використали дипфейк-вигляд керівника компанії у Zoom для авторизації шахрайського переказу на $25 мільйонів weforum.org. У цьому випадку декілька учасників дзвінка, зокрема й підроблений фінансовий директор, були AI-згенеровані. Виявлення таких “живих” фейків — надскладна задача. Компанії працюють над рішеннями на кшталт плагінів для відеоконференцій, що можуть попереджати користувачів, якщо зображення або голос штучно змінені (наприклад, через аналіз аудіо-латентности, спектральних аномалій або перевірки, чи рухи обличчя точно відповідають захопленим камерою рухам справжньої людини). Деякі стартапи вже пропонують API для виявлення дипфейків у реальному часі, які можна інтегрувати у стрімінгові платформи або автентифікувати спікерів на живих подіях. Поки що такі системи відстають від зловмисників, тому основний фокус — на профілактиці (наприклад, використання паролів або спільних “кодових слів” у дзвінках для перевірки особи, як радять правоохоронці weforum.org).
- Людська перевірка фактів і позначки спільноти: Лише технології замало — важливий людський чинник. Новинні організації, групи з перевірки фактів і платформи створили спеціальні команди для моніторингу вірусних дипфейків під час виборів. Вони застосовують OSINT (відкриту розвідку) та судові інструменти для аналізу підозрілого контенту — наприклад, перевіряють таймстемпи, шукають невідповідності (як-от різні сережки у відео з політиком, чи дивний рух рота), і швидко публікують спростування. Допомагають і краудсорсингові механізми: на X/Twitter функція “Community Notes” використовується для позначення постів із AI-контентом поясненнями. На останніх виборах користувачі знаходили та викривали дипфейки вже за кілька годин після появи, викладаючи порівняння чи вказуючи на недоліки. Така колективна пильність, підкріплена цифровою грамотністю, — потужна зброя. Платформи все більше спираються на користувачів і незалежних фактчекерів у виявленні сумнівних матеріалів, адже об’єм перевірок, який має здійснювати автоматичний фільтр, величезний. Недолік: дипфейк може стати вірусним до його викриття. Втім, збільшення швидкості реагування і поширення знань (аби дедалі більше користувачів могли самі розпізнати фейк) зменшать шкоду.
Підсумовуючи: сфера виявлення дипфейків постійно розвивається. Є прогрес — наприклад, сучасні детектори далеко кращі, ніж у 2018 році, а ініціативи на кшталт Content Authenticity Initiative прагнуть впровадити стандарт перевірки для всіх. Однак залишаються виклики: “гра в кошеня і мишу” з опонентами та необхідність масового впровадження інструментів. У майбутньому технології виявлення дедалі більше інтегруватимуться у соцмережі, новинні редакції та навіть пристрої (уявіть, що смартфон попереджає: “Вхідне відео, ймовірно, згенероване AI”). Ключове — поєднати інструменти виявлення і походження з публічною освітою, аби користувачі розуміли попередження або мітки і реагували відповідно. Ця технологічна складова — лише одна з опор ширшої стратегії протидії синтетичним медіа-загрозам.
Політична відповідь та регуляторні рамки
Політики в усьому світі усвідомили загрозу дипфейків і почали розробляти закони й регулювання для реагування. Попри новизну проблеми, у провідних демократіях формується мозаїка підходів. Нижче наведено огляд законодавчих та регуляторних заходів, що нині розробляються:
- США: Наразі в США немає загальнофедерального закону проти політичних дипфейків, але створюється відповідний рух. У Конгресі подано кілька законопроєктів щодо протидії злочинним дипфейкам. Наприклад, на початку 2024 року конгресмени представили No AI FRAUD Act у відповідь на скандальні випадки (як-от AI-генеровані компрометуючі фото знаменитостей) policyoptions.irpp.org. Законопроєкт передбачає федеральну відповідальність за певні шкідливі дії — фейки у політиці, порнографічні дипфейки policyoptions.irpp.org. Серед іншого — ідеї зобов’язати вказувати позначки у політичній рекламі, якщо там є синтетика. Тим часом Комісія зв’язку (FCC) оголосила заборону на використання AI-голосових підробок у роботизованих дзвінках із метою шахрайства чи завдання шкоди policyoptions.irpp.org — реакція на афери з підміною голосу. Це робить незаконним використання синтетичних голосових повідомлень для обману адресатів. Більшість регулювання в США нині на рівні штатів: з 2019-го такі закони прийняли Каліфорнія, Техас та інші. У Каліфорнії заборонено розповсюджувати неправдиві дипфейк-відео кандидатів менш як за 60 днів до виборів (виняток: сатира/пародія) brennancenter.org. У Техасі карають тюремним ув’язненням за створення/поширення дипфейків для шкоди кандидату чи впливу на виборців brennancenter.org. Станом на середину 2025-го щонайменше чотирнадцять штатів прийняли або розглядають відповідні закони citizen.org. Примітно, що ці ініціативи підтримують обидві партії — AI-дезінформація у виборах визнається загрозою демократії citizen.org citizen.org. Закони штатів різняться: одні передбачають кримінальну відповідальність за поширення дипфейків, інші — лише вимогу про мітки в рекламі. Громадська організація Public Citizen також подала петицію про заборону використання дипфейків у виборчих кампаніях федеральними кандидатами brennancenter.org. FEC ще не надала окремих норм, але питання у полі зору. Політикам у США важливо враховувати свободу слова — занадто широкі заборони можуть зачепити Першу поправку. Наприклад, сатира й пародія (легальна політична мова) часто використовують змінені фото/відео; закони мають націлюватись саме на шкідливі фейки. Це відображено у багатьох законах штатів, які прямо передбачають винятки для пародії, сатири, журналістики brennancenter.org brennancenter.org. У цілому є згода, що навмисно оманливий AI-контент, спрямований на дезінформацію виборців чи провокацію розладу, не має цінності для демократії і може бути обмежений без порушення свободи brennancenter.org brennancenter.org.
- Європейський Союз: ЄС активно запроваджує широку регуляцію AI, включаючи заходи проти дипфейків. Віховий AI Act ЄС, погоджений у 2024 році (повна дія — з 2026-го, деякі норми — раніше), містить вимогу прозорості для синтетичних медіа. За цим актом будь-яка AI-система, здатна створювати “дипфейки”, має маркувати контент як AI-генерований (винятки — мистецтво чи безпекові дослідження) realitydefender.com. Це означає обов’язок впроваджувати водяні знаки чи метадані у всіх виробників AI-картинок/відео/аудіо в ЄС. Порушення — штрафи. Оновлений Кодекс практики з дезінформації (добровільний документ, підписаний провідними платформами) прямо називає дипфейки загрозою й зобов’язує майданчики впроваджувати політики й інструменти для реагування на маніпуляції brennancenter.org brennancenter.org. Зокрема, платформи погодилися запровадити системи для виявлення, маркування або видалення дипфейків, що можуть завдати шкоди, та співпрацювати з фактчекерами. Закон Digital Services Act (DSA), чинний з 2023 року, зобов’язує великі онлайн-платформи ЄС оцінювати й мінімізувати “системні ризики”, включаючи AI-дезінформацію. Під цим тиском Meta, Google, TikTok оголосили нові заходи для виборчого сезону 2024–2025: від кращого виявлення дипфейків до яскравих позначок синтетики. Європа фактично обирає прозорий підхід: позначення AI-контенту й покладання відповідальності на платформи за стримування дипфейків. Критики кажуть, що забезпечити виконання важко (як знайти всі немарковані фейки в потоці контенту?), але ЄС сигналізує: неконтрольовані дипфейки несумісні з його цифровими стандартами realitydefender.com realitydefender.com.
- Велика Британія: Велика Британія поки не прийняла спецзаконів проти виборчих дипфейків, але діє через ширшу політику онлайн-безпеки та AI. У 2023 році ухвалено Online Safety Act — масштабний закон для регуляції шкідливого онлайн-контенту. Він, зокрема, криміналізував поширення несанкціонованої дипфейк-порнографії — заборонено створювати й поширювати компрометуючі AI-зображення людини без згоди policyoptions.irpp.org. Це стосується насамперед переслідувань. Щодо виборчих фейків, Online Safety Act надає регулятору Ofcom можливість видавати кодекси із боротьби з дезінформацією. Експерти закликають Ofcom розробити кодекс поведінки щодо дезінформації, що містив би стандарти реагування на AI-маніпуляції cetas.turing.ac.uk — можливо, за зразком європейських підходів. Також закликають Електоральну комісію дати чіткі рекомендації партіям щодо відповідального користування AI, встановивши червоні лінії щодо фейків у кампаніях cetas.turing.ac.uk. У кінці 2024 року парламентський комітет рекомендував посилити законодавство щодо виборчих дипфейків, але окремих законів ще немає. Уряд вивчає, чи достатньо чинних законів (про наклеп, шахрайство, виборчі злочини) для переслідування дипфейків, чи потрібні нові cetas.turing.ac.uk. Також у Британії створюється AI Safety Institute та проведено саміт AI-безпеки (2023), де обговорювалося питання маніпуляцій. Влада Британії наразі зосереджує увагу на технічних захистах та медіаграмотності (див. рекомендації далі) нарівні з законодавчими кроками. Проте заборона дипфейк-порно й повноваження регулятора свідчать: AI-фейки вимагають політичної відповіді.
- Канада: Станом на 2024 рік у Канаді не існує спеціального закону проти використання дипфейків у виборах. Canada Elections Act прямо не забороняє AI-дезінформацію чи дипфейки, тому для покарання доведеться застосовувати загальне законодавство (про шахрайство, наклеп), яке може бути недостатнім cef-cce.ca. На це вказують експерти, які застерігають: Канада “на 1–2 кроки позаду” інших демократій policyoptions.irpp.org. Восени 2023-го у Канаді стався невеликий дипфейк-інцидент із фейковою аудіозаписом політика, який хоч і не мав впливу, але підвищив уважність. Виборчі органи з того часу відзначили AI-дезінформацію як зростаючу загрозу й вивчають реакцію cef-cce.ca. Аналітики наполягають на нових законах “уже вчора” — наприклад, наданні комісару з виборів права переслідувати синтетичну дезінформацію в кампаніях policyoptions.irpp.org. Канада може запозичити ідеї союзників: наприклад, запровадити позначки у виборчій рекламі чи зробити злочином поширення матеріалів, відому як дипфейки, щоб ввести виборців в оману. Станом на середину 2025-го законопроєкти не подано, але тиск триває policyoptions.irpp.org.
- Інші демократії: У світі кілька демократій уже почали впроваджувати заходи:
- Австралія: Уряд Австралії, переймаючись “ерозією істини” через AI напередодні виборів, анонсував законодавство “правдивої політичної реклами”, що заборонить оманливі дипфейк-відео й аудіо у виборчих кампаніях innovationaus.com. Законопроєкт уряду Албанізі 2023 року забороняє публікацію синтетики, що імітує реальних кандидатів чи вводить виборців в оману протягом кампанії innovationaus.com. Але процес іде повільно: дипфейкові норми набудуть чинності лише до 2026 року innovationaus.com, тож федеративні вибори 2025-го, ймовірно, відбудуться за старими правилами. У цей час виборча комісія надала роз’яснення й підкреслює, що фокус на дипфейках може навіть підірвати довіру до правдивої інформації ia.acs.org.au. Австралійські політики різних партій підтримують обмеження AI-дезінформації, триває дискусія про баланс із вільним політичним словом theguardian.com sbs.com.au.
- Тайвань: Після інцидентів з дипфейками з боку Китаю, Тайвань оновив виборче законодавство. У 2023 році закон про вибори був доповнений прямою забороною публікації змінених аудіо чи відео кандидатів із метою вплинути на результат policyoptions.irpp.org. Це надало інструмент для реальної боротьби із фейками на кшталт тих, що трапилися у 2024-му. Тайвань також інвестував у просвітницькі програми та систему швидкого реагування (уряд, громадськість, техноплатформи) для спростування фейків, що допомогло мінімізувати вплив policyoptions.irpp.org policyoptions.irpp.org.
- Європейські демократії: Окремі європейські країни вже використовують чинні закони. Наприклад, французький закон проти “фейкової інформації” на виборах (2018) може застосовуватись до дипфейків із прицілом змінити результати, а суворі закони Німеччини про наклеп і вибори — так само. Але з’являються й нові ініціативи: у Німеччині розглядають обов’язкове декларування використання синтетики у партійній рекламі. У Британії, як зазначено вище, майбутні зміни до виборчого законодавства (наприклад, вимоги про позначки у діджитал-рекламі) можуть містити позначення AI-контенту cetas.turing.ac.uk.
- Міжнародні ініціативи: Зростає усвідомлення, що необхідна глобальна співпраця, адже дезінформація не знає кордонів. G7 має робочу групу з “AI Governance”, яка у 2024 році заявила про боротьбу зі зловмисним використанням AI у сфері інформації. Адміністрація Байдена в США досягла домовленостей із великими розробниками AI (OpenAI, Google, Meta тощо), щоб ті впроваджували водяні знаки й інвестували у запобігання зловживанням. Хоч це декларації, але вони формують міжнародну норму підтримки прозорості й відповідальності у використанні AI.
Підсумовуючи: політичні заходи щодо дипфейків стрімко розширюються. Законодавство ще не встигає за технологіями, але тренд очевидний: уряди прагнуть криміналізувати найшкідливіше застосування синтетики у виборах, вимагати прозорості (мітки/декларації) для AI-контенту та надавати регуляторам чи виборчим органам повноваження для боротьби з підробками. Водночас важливо захищати сатира, журналістику і не допускати зловживань цензурою. Баланс знайти непросто. Моделі — від законів штатів США до норм ЄС — стануть полігоном у 2025 році. Регулювання напевне буде вдосконалюватись із досвідом. Проте бездіяльність неможлива: як підсумував один тракер політики, “Без регулювання дипфейки й надалі дезорієнтуватимуть виборців і підриватимуть довіру до виборів.” citizen.org citizen.org Далі описані стратегічні рекомендації для всіх учасників демократичного процесу.
Стратегічні рекомендації щодо захисту виборів
Захист цілісності виборів в епоху ШІ вимагатиме багаторівневої стратегії. Жоден окремий інструмент чи закон не здатен вирішити проблему діпфейків; натомість потрібна скоординована робота урядів, технологічних платформ, медіа та громадянського суспільства. Нижче наведено стратегічні рекомендації для цих секторів з метою мінімізації ризиків і забезпечення можливості виборців приймати обґрунтовані рішення у 2025 році та надалі:
Уряди та законодавці
1. Посилити правовий захист і превенцію: Уряди мають прийняти нові або оновити чинні закони, щоб прямо заборонити зловмисне використання синтетичних медіа у виборах. Це має включати криміналізацію створення або поширення з метою введення громадськості в оману чи саботажу виборів будь-яких діпфейків, які сфальсифіковано зображують кандидата або маніпулюють виборчою інформацією (наприклад, процедурою голосування). Важливо вузько фокусувати закони – вони мають стосуватись цілеспрямованого обману (дезінформації), з явними винятками для сатири, пародії чи очевидного художнього вислову. Санкції (штрафи або кримінальна відповідальність) створять стримуючий ефект для потенційних розповсюджувачів діпфейків, особливо за своєчасного застосування. Наприклад, запропонована Австралією заборона оманливих діпфейків під час виборчих кампаній і нові положення Тайваню проти виборчого контенту, зміненого за допомогою ШІ, можуть служити моделями innovationaus.com policyoptions.irpp.org. У США федеральні заходи (як-от запропонований Закон No AI FRAUD) можуть запровадити єдину національну базу, яку доповнюватимуть закони штатів. Крім того, уряди повинні оновити правила фінансування виборчих кампаній та реклами: зобов’язати, щоб будь-яка політична реклама (онлайн чи у трансляції), яка містить синтетичний медіаконтент, містила чітке застереження (наприклад, «Це зображення/відео створене ШІ»), щоб глядачів не вводили в оману. Регулювання правдивості рекламних оголошень у кампаніях повинно поширюватись і на контент, створений із застосуванням ШІ.
2. Впровадити протоколи реагування на інциденти під час виборів: Виборчі органи мають створити офіційні протоколи реагування на серйозні інциденти з діпфейками у режимі реального часу. Вдалим прикладом є Протокол публічного реагування на виборчі інциденти Канади, який об’єднує високопоставлених чиновників для оцінки ситуації та інформування громадськості про погрози зовнішнього втручання чи дезінформації під час виборів cetas.turing.ac.uk cetas.turing.ac.uk. Інші демократії повинні впроваджувати подібні механізми. Якщо з’являється небезпечний діпфейк (наприклад, фабриковане відео із заявою кандидата про поразку, що розповсюджується у день виборів), протокол активується – чиновники, експерти з розвідки та технологічні платформи швидко перевіряють правду й оприлюднюють заяву із спростуванням фейку та роз’ясненням фактів cetas.turing.ac.uk. Ця швидка реакція життєво необхідна, щоб нівелювати вплив «потоку» дезінформації. Уряди повинні завчасно відпрацьовувати такі сценарії (програвати різні ситуації з діпфейками), аби оперативно й одностайно діяти за потреби.
3. Інвестувати в інфраструктуру для виявлення та автентифікації: Державні агентства мають активно вкладати ресурси у розвиток інструментів для виявлення діпфейків та аутентифікації контенту. Це передбачає фінансування досліджень і розробок (зразок програм DARPA, спрямованих на протистояння інформаційній дезінформації, що поширюється через ШІ), підтримку впровадження інструментів для виборчого процесу та застосування стандартів автентифікації в державних комунікаціях. Дієвий крок – для державних медіа (національні мовники, офіційні акаунти в соцмережах тощо) почати додавати доказові метадані про походження до всіх офіційно розповсюджуваних фотографій, відео та аудіо cetas.turing.ac.uk. Так створюється база для «завірено справжньої» інформації. Виборці й журналісти зможуть довіряти будь-якому відео з державною печаткою у метаданих – і навпаки підозріло ставитись до подібного контенту без цієї ознаки. Уряди можуть продемонструвати лідерство у підході «автентичність за замовчуванням» cetas.turing.ac.uk, який вже досліджують США і Велика Британія. Крім того, органи правопорядку та виборчого нагляду повинні мати підрозділи з експертизи медіа для аналізу підозрілих матеріалів під час кампаній. Усвідомлення того, що у влади є технічні можливості ідентифікувати джерело діпфейку (а можливо й винуватця) також відлякуватиме зловмисників.
4. Уточнити й оновити чинне законодавство: У багатьох країнах сучасне законодавство щодо шахрайства, викрадення особистості, наклепу або втручання у вибори вже частково може поширюватись на випадки діпфейків – але можуть лишатися прогалини. Уряди мають переглянути своє правове поле щодо необхідності нових статей. Наприклад, чи існує закон про відповідальність за імітацію посадової особи, створену ШІ? Якщо ні – ухвалити відповідний. Включити у законодавство про захист даних та приватності положення, що несанкціоноване використання чи відтворення голосу/зображення людини за допомогою ШІ є порушенням. Чітке визначення юридичного статусу шкідливих діпфейків (і належне роз’яснення громадянам) важливе для того, щоб потенційні зловмисники знали: їх можна притягти до відповідальності. Це також дає жертвам (кандидатам чи простим громадянам) інструмент захисту, якщо вони стали мішенню. Огляд повинен врахувати й виборче законодавство: оновити визначення незаконної виборчої агітації чи фейкового інформування населення так, щоб прямо охопити маніпуляції синтетичними медіа cetas.turing.ac.uk. Мета – усунути будь-яку невизначеність: дезінформатор не повинен мати можливості заявляти: «технічно це не заборонено, бо створено ШІ». Чіткі закони спрощують застосування і правозастосування.
5. Посилити міжнародну співпрацю: Оскільки дезінформаційні кампанії часто мають іноземне походження (чи поширюються через кордони), демократичні уряди мають працювати разом. Спецслужби та кібербезпекові підрозділи повинні обмінюватися інформацією про нові діпфейк-тактики (наприклад, якщо одна країна виявляє іноземну операцію з діпфейком, має попереджати інші). Платформи, як-от Альянс за безпечну демократію, G7, діалоги ЄС-США тощо можуть координувати спільні заяви і норми проти діпфейків під час виборів. Дипломатичний тиск можна спрямувати на держави, які підтримують чи толерують таке втручання. Є потреба і у спільних дослідженнях – наприклад, міжнародний центр з виявлення діпфейків міг би об’єднувати дані для поліпшення алгоритмів. Моніторингові організації (як-от ОБСЄ чи міжнародні місії спостереження) мають врахувати вплив синтетичних медіа, а країни – прописати сценарії діпфейків у взаємних гарантіях захисту демократичних процесів. Єдиний фронт ускладнить зловмисникам зловживання класифікованими національними вразливостями.
6. Сприяти підвищенню обізнаності суспільства та цифрової грамотності: У підсумку уряди мають відігравати роль освітян електорату щодо діпфейків. Багато країн вже обговорюють або впроваджують програми цифрової грамотності у школах і для всього населення cetas.turing.ac.uk. Такі ініціативи навчають перевіряти інформацію онлайн, розпізнавати ознаки підроблених медіа й критично ставитись до джерел. За теперішньої правдоподібності ШІ-фальшивок надто важливо, щоб кожен виборець знав про їх існування та мав навички двічі перевіряти неоднозначний контент (а не сліпо вірити чи поширювати). Влада має співпрацювати з освітніми установами та НУО для впровадження обізнаності про діпфейки у шкільні програми та суспільні кампанії. Наприклад, масмедіа можуть демонструвати соціальні ролики, у яких паралельно порівнюються справжні й діпфейк-відео політиків з поясненням відмінностей, що підвищить усвідомленість громадян. Дослідження показують, що люди з вищим рівнем медіаграмотності та критичного мислення значно краще розпізнають діпфейки і протистоять дезінформації cetas.turing.ac.uk. Тому фінансування медіаосвітніх ініціатив – одна з найефективніших довгострокових стратегій захисту. Коли громадяни стають активною мережею «сенсорів» – ідентифікують і викривають підробки – ефект діпфейк-пропаганди помітно зменшується.
Технологічні платформи і розробники ШІ
1. Посилити правила платформи та їх виконання: Соціальні мережі та онлайн-платформи є ключовими каналами поширення вірусних діпфейків. Ці компанії повинні впроваджувати жорстку політику проти маніпулятивних медіа, які вводять користувачів в оману, особливо у виборчому контексті. Багато платформ уже роблять перші кроки: наприклад, Facebook і Twitter (X) мають політику видалення або маркування «маніпульованих медіа», які можуть завдати шкоди. Проте виконання цих політик має бути жорстким. Платформи повинні вдосконалювати автоматичне виявлення діпфейків (з використанням новітніх інструментів, згаданих раніше), а також забезпечити швидку перевірку підозрілих матеріалів модераторами за скаргами користувачів. Під час виборів компанії можуть створювати спеціальні оперативні штаби й канали комунікації з виборчими комісіями для оперативного реагування на можливі інциденти з діпфейками в реальному часі. Якщо фейк виявлено, платформи повинні чітко маркувати його як неправдивий або оперативно видаляти і знижувати його рейтинг у стрічках, аби обмежити подальше поширення brennancenter.org brennancenter.org. Прозорість також важлива: платформи можуть регулярно публікувати звіти про виявлені діпфейки і вжиті заходи, що підвищує довіру суспільства. Вони мають ділитися зразками виявлених діпфейків з дослідниками для підвищення спільної обізнаності та вдосконалення інструментів.
2. Впровадження розкриття і відстеження дипфейків: За прикладом ЄС, платформи по всьому світу повинні вимагати, щоб контент, згенерований ШІ, був промаркований і розкритий. Наприклад, якщо політична реклама містить згенероване ШІ зображення чи голос, платформа може зобов’язати завантажувача відзначити відповідну опцію “цей контент містить синтетичні елементи” — і потім показати повідомлення глядачам (“Це відео було змінено або частково згенеровано ШІ”). Навіть поза офіційною рекламою платформи можуть використовувати інструменти виявлення, щоб візуально відмічати підозрювані дипфейк-відео (наприклад, попереджувальний напис, що автентичність відео не підтверджена). Крім того, соцмережі й месенджери могли б впроваджувати функції підтвердження автентичності контенту: використовуючи стандарти на кшталт C2PA, вони можуть показувати користувачам іконку, якщо джерело зображення й історія редагування перевірені, або навпаки позначати, якщо ці дані відсутні. Деякі технологічні компанії (Adobe, Microsoft, Twitter) вже працюють у цьому напрямку. Вбудовуючи сигнали про походження у свої інтерфейси, платформи можуть допомогти користувачам відрізнити справжнє від підробки. Вони також повинні працювати над механізмами простежування — наприклад, якщо розповсюджується шкідливий дипфейк, чи можуть вони відстежити, хто завантажив його вперше, навіть якщо його вже перепостили тисячі разів? Важливим буде співробітництво з правоохоронними органами щодо серйозних інцидентів (з дотриманням законів про приватність), щоб спіймати винних.
3. Блокування зловмисників і мереж, що поширюють дипфейки: Платформи повинні уважно стежити за організованими акторами, які систематично використовують дипфейки. Це означає не лише видаляти окремі матеріали, а й закривати акаунти, сторінки та ботів, що беруть участь у скоординованих кампаніях дипфейків. Якщо є докази, що операція пов’язана зі спонсорованими державою зусиллями чи відомою “фабрикою тролів”, платформи повинні публічно про це повідомляти й ліквідовувати їхню присутність. Останніми роками безліч дезінформаційних мереж уже було ліквідовано; той самий рішучий підхід слід застосовувати і до кампаній впливу на основі ШІ. Платформи мають оновити свої умови користування, чітко забороняючи зловмисне створення або поширення синтетичних медіа з метою введення в оману. Такі правила стануть підставою для блокування порушників. У контексті політичної реклами будь-яка кампанія або комітет, викриті у використанні оманливих дипфейків, повинні зазнавати санкцій — наприклад, втрачати право на розміщення реклами. Технологічні компанії також можуть співпрацювати для створення спільного “чорного списку” відомих дипфейкових хешів або сигнатур, щоб після ідентифікації підробки на одній платформі її могли блокувати й на інших (аналогічно тому, як хеші терористичного контенту обмінюються через консорціум). Суть — зробити використання дипфейків на великих платформах невигідним: або контент швидко видалять, або акаунт автора буде заблоковано.
4. Співпраця з фактчекерами та органами влади: Жодна платформа не здатна самостійно ідеально модерувати контент. Співпраця є життєво необхідною. Соціальні мережі повинні розширювати партнерства з незалежними організаціями з перевірки фактів для оцінки вірусних матеріалів. Коли фактчекери спростовують відео як підроблене, платформи зобов’язані поширювати це спростування — наприклад, додавати посилання на статтю-фактчек при кожному поширенні відео чи сповіщати всіх користувачів, які вже його бачили. Компанії на кшталт Facebook уже робили це щодо дезінформації й повинні робити це й для дипфейків. Додатково, платформи повинні координуватися з виборчими комісіями та органами безпеки, особливо під час виборів. Вони можуть створювати гарячі лінії чи спеціальні канали для оперативних повідомлень про підозрілі дипфейки, що впливають на голосування, і самі сповіщати уряди, якщо помітили іноземну дезінформацію. В окремих юрисдикціях існують формалізовані механізми (наприклад, Кодекс практики ЄС заохочує обмін інформацією з урядами щодо загроз дезінформації brennancenter.org). Навіть у США підрозділ кібербезпеки Міністерства внутрішньої безпеки співпрацює з платформами щодо моніторингу дезінформації під час виборів. Такі співпраці, звичайно, повинні поважати свободу слова й не перетворюватися на цензуру легітимних висловлювань. Проте у випадку явної вигаданої та шкідливої інформації швидка, скоординована реакція між платформами та публічними інституціями може зупинити масштабування фейку. Це може включати спільні прес-релізи із спростуванням вірусної підробки або підсилення в алгоритмах авторитетних джерел для протидії її розповсюдженню.
5. Вдосконалення запобіжників у ШІ-моделях: Компанії, що створюють генеративні моделі ШІ (OpenAI, Google, Meta тощо), несуть відповідальність із самого “джерела”. Вони повинні впроваджувати механізми, які унеможливлюють зловживання їхнім ШІ для втручання у вибори. Це може включати водяні знаки на ШІ-контенті, як уже обговорюється (щоб кожне згенероване зображення, наприклад DALL-E чи Midjourney, містило прихований підпис). Також можлива ретельна перевірка навчальних даних — наприклад, гарантія, що моделі навчені відмовлятися від запитів на шкідливе імітування реальних осіб. Частина інструментів ШІ вже не створюють дипфейк-зображення відомих політиків завдяки вбудованим фільтрам. Ці захисні механізми слід постійно вдосконалювати (хоча відкриті моделі залишаються проблемою, адже їх можна перенавчити зловмисниками без обмежень). Розробники ШІ повинні також вкладати у дослідження технік детекції дипфейків і ділитися ними з професійною спільнотою. Позитивним є те, що багато провідних компаній ШІ вже добровільно підтримали водяні знаки й автентифікацію контенту. Надалі вони могли б розробити стандартизований API, завдяки якому будь-яке відео чи аудіо можна буде швидко перевірити на предмет походження із певної ШІ-моделі. Загалом, ті, хто створює “проблему” (генеративні технології), мають допомагати створювати й “рішення” (засоби ідентифікації їхнього контенту).
6. Прозорість у політичній рекламі: Платформи, що розміщують політичну рекламу, повинні забезпечити жорстку прозорість у питанні використання ШІ. Якщо політична реклама просувається у Facebook чи Google і містить елементи, згенеровані ШІ, бібліотека реклами платформи повинна прямо про це повідомляти. Платформи могли б навіть вимагати від політичних рекламодавців надавати сирі, немонтовані матеріали для порівняння. Амбітніше — соцмережі могли б тимчасово заборонити будь-яку політичну рекламу, що містить синтетичні медіа у чутливий фінальний період кампанії — подібно до того, як деякі сервіси забороняють нову політичну рекламу напередодні виборів. Це усуне ризик раптової хвилі дипфейк-реклами в останній момент. Хоча забезпечення контролю складне, але принцип полягає у тому, що оплачуване поширення шахрайського контенту — особливо небезпечне, і платформи мають більше повноважень щодо реклами, аніж щодо звичайних постів. Забезпечити максимальну прозорість і швидке видалення у сфері реклами життєво важливо, адже дипфейк-реклама з таргетингом за алгоритмами може за лічені години охопити мільйони і зруйнувати інформаційний баланс.
Медіа та журналістські організації
1. Ретельні протоколи верифікації: Новинні ЗМІ повинні адаптувати свої стандарти верифікації до епохи дипфейків. Кожна редакція — від національного ТБ до місцевих газет і фактчекерських сайтів — має впровадити формалізовані процедури перевірки автентичності аудіо- й відеоконтенту перед публікацією чи трансляцією. Це включає навчання журналістів користуванню криміналістичними інструментами (наприклад, перевірка метаданих відео, запуск аналізу зображень) і звернення до експертів у разі потреби. До всіх гучних чи сенсаційних записів, що з’являються під час виборів, редактори мають ставитися з поміркованим скептицизмом і не поспішати публікувати їх без підтвердження. Медіа повинні перевіряти “на два джерела” будь-який контент користувачів: якщо в мережі з’явилося відео, де кандидат робить щось скандальне, слід шукати підтверджуючі докази (свідки, офіційні заяви тощо) або принаймні провести покадровий аналіз для виключення дипфейку. Мета — не стати мимовільним ретранслятором дезінформації. Вражає, що деякі медіа вже створили внутрішні “антидипфейкові” групи. В Аризоні журналісти навіть самі створили дипфейк (з дозволу), щоб показати глядачам, наскільки просто підробити відео knightcolumbia.org — це ефективний спосіб підвищити обізнаність. Кожна редакція повинна мати “експерта з дипфейків” на зв’язку (або партнерство з технічною лабораторією) для швидкого аналізу підозрілих матеріалів. Якщо зробити верифікацію такою ж рутиною, як і фактчек, ЗМІ зможуть швидко відсівати підробки — або принаймні попереджати аудиторію, якщо відео ще не перевірене.
2. Відповідальна подача матеріалів про дипфейки: Досліджуючи синтетичний контент, журналісти повинні робити це виважено і з поясненням контексту. Якщо дипфейк, що атакує кандидата, стає вірусним, суть новини не в хибних твердженнях, а у факті маніпуляції. Медіаповідомлення мають уникати детального переказу фейкових закидів або відтворення фейкового відео без коментаря, аби ненароком не поширити дезінформацію ще більше. Замість цього можна описати справу загально й зосередитися на реакції (наприклад, “Опубліковано змонтоване відео, яке неправдиво зображає, нібито X щось зробив, це вже спростовано експертами”). ЗМІ можуть розмивати чи взагалі не давати прямі посилання на фейковий контент в онлайн-матеріалах cetas.turing.ac.uk, щоб не стимулювати аудиторію переглядати чи поширювати його повторно. Фреймування новини має значення: слід акцентувати саме спробу обману і факт створення дипфейку, а не його вигаданий сюжет cetas.turing.ac.uk. Медіа також мають чітко подавати спростування або правду (наприклад: “Ні, політик Z цього не казав — відео створене ШІ; ось що він/вона насправді говорив(-ла) з цієї теми”). Регулярно діючи так, якісні ЗМІ допомагають імунізувати публіку від віри чи поширення підробок. Важливо зберігати баланс між висвітленням дезінформації (адже ігнорування не знищить явища) та уникненням ненавмисного розголошення фейку. Слід створити подібні до стандартів для висвітлення обману чи масових розстрілів (де мінімізується деталізація задля уникнення наслідування) спеціальні рекомендації щодо дипфейків. Також Організацію стандартів незалежної преси у Великій Британії закликають оновити свої кодекси для таких ситуацій cetas.turing.ac.uk.
3. Використання технологій автентичності в редакціях новин: Самі новинні організації можуть використовувати нову інфраструктуру автентичності. Наприклад, медіа можуть впровадити інструменти Ініціативи достовірності контенту (Content Authenticity Initiative), щоб додавати криптографічні атрибути до всіх оригінальних фотографій і відео, знятих їх журналістами. Це означає, що будь-які зняті відео, скажімо, оператором Reuters або AP, можуть мати захищену мітку, що підтверджує їхнє походження та всі редагування. Далі, коли люди бачать відео з посиланням на Reuters, вони можуть переконатися, що його не змінювали. Такі заходи допомагають визначити, що є справжнім, і дають суспільству достовірне джерело істини. Медіа також повинні співпрацювати для створення баз даних відомих дипфейків (та перевіреного автентичного контенту), які можуть допомогти фактчекерам. Наприклад, ведення репозиторію офіційних виступів і інтерв’ю може дозволити швидко спростувати підроблений фрагмент шляхом порівняння. Головні інформаційні агентства можуть координувати дії, щоб негайно повідомляти всім підписникам про виявлення небезпечного дипфейку — як вони це роблять з терміновими новинами. Усередині організацій редактори також повинні пам’ятати, що політичні діячі можуть спробувати “підкинути” фальшиві матеріали журналістам (наприклад, надіслати “злитий” аудіозапис, який насправді створив штучний інтелект). Тому важливо зберігати високий рівень скептицизму до анонімно отриманих цифрових матеріалів.
4. Освіта аудиторії: Медіа можуть відігравати значну роль у навчанні виборців щодо синтетичних медіа. Новинні видання та журналісти мають створювати аналітичні матеріали, інтерв’ю з експертами, сюжети, які показують аудиторії, як створюються дипфейки та як їх розпізнати. Демістифікація цієї технології робить її менш небезпечною. Деякі телевізійні новини у 2024 році, наприклад, демонстрували клонування голосу на основі ШІ в ефірі, щоб показати, як шахрай може зімітувати голос вашого родича. Так само під час виборчих кампаній варто нагадувати: “Якщо ви за останній момент побачите скандальне відео про кандидата, будьте обережні — це може бути фейк. Як перевірити…”. Проведення інформаційних кампаній (можливо, у партнерстві з державою чи НУО) може суттєво підвищити цифрову грамотність. Журналісти мають також завжди використовувати точну термінологію: називати щось “діпфейком” або “підробленим відео, створеним ШІ”, а не просто “відредагованим відео”, — це підкреслює появу нової категорії явищ. З часом добре поінформоване суспільство буде рідше потрапляти у пастку фейків і частіше вимагати доказів. Медіа, як міст між інформацією і громадськістю, мають обов’язок формувати таку стійкість.
5. Відповідальність і викриття: Нарешті, журналісти повинні розслідувати і виявляти хто стоїть за масштабними кампаніями з використанням дипфейків. Притягнення винних до відповідальності в суспільній думці може стримати подальше зловживання. Якщо виявиться, що до створення злоякісного дипфейка причетний штаб опонента, іноземна фабрика тролів або конкретна інтернет-група, широка публікація цієї інформації накладе негативний імідж на такі тактики. Викривальні матеріали про організацію і фінансування дезінформаційних кампаній послаблять їхню силу. Також, якщо політик або публічна особа свідомо поширює дипфейк (наприклад, кандидат твітує фальшиве відео суперника), медіа повинні чітко називати це серйозним порушенням. Перспектива негативного розголосу може зупинити політиків від “брудних трюків” із дипфейками. Коротко: функція медіа як “контролера” розширюється і в цифрову сферу — розслідувати, приписувати відповідальність і викривати шкідливі операції із синтетичними медіа так само, як й інші види шахрайства чи корупції в політиці.
Громадянське суспільство та ініціативи виборців
1. Цифрова грамотність та громадська освіта: Організації громадянського суспільства — включаючи неприбуткові, бібліотеки, університети та активістські групи — можуть очолити навчання громадян орієнтації у світі дипфейків. Слід організувати масштабовані програми для спільнот щодо перевірки медіа. Наприклад, НУО можуть проводити семінари, де люди дізнаються прості прийоми: як здійснювати зворотній пошук зображень (щоб визначити, чи фото створене ШІ або відредаговане), шукати підтвердження новин та користуватись сайтами фактчекінгу. Уже є якісні інструментарії й навчальні курси від фактчекерів (наприклад, First Draft, Media Literacy Now), де йдеться й про виявлення дипфейків; їх потрібно максимально поширювати. Таке навчання має бути орієнтоване не лише на школярів, але й на людей старшого віку, адже вони часто належать до групи ризику через довіру до побаченого онлайн. Всеукраїнські кампанії з цифрової грамотності можуть бути впроваджені навіть за фінансування держави, але проводитись громадськими організаціями для підвищення довіри. Мета — підвищити “колективний імунітет” суспільства: якщо значна частина людей зможе розпізнати фейк або хоча б утримається від оцінки до перевірки, вплив дезінформаторів суттєво знижується. Опитування показують, що суспільство хоче ці знання: багато хто почувається тривожно через незнання, як розрізнити справжнє і підробку brennancenter.org brennancenter.org. Громадянське суспільство може заповнити цю прогалину, навчаючи людей і даючи їм практичні навички.
2. Фактчекінгові та спростувальні ініціативи: Незалежні фактчекери та громадські моніторингові організації залишатимуться ключовими. Вони повинні особливо активно діяти під час виборів, створюючи хаби перевірки дипфейків. Наприклад, коаліції фактчекерів можуть мати відкриту панель під час виборів, де відстежуються чутки й нові випадки дипфейків, і надається швидке спростування. Проект The News Literacy Project робив щось подібне на виборах у США-2024, фіксуючи випадки дезінформації і звертаючи увагу, що мало з них реально стосувалися ШІ knightcolumbia.org knightcolumbia.org. Така прозорість допомагає громадськості і журналістам бачити загальну картину і не перебільшувати загрозу, одночасно вирішуючи реальні проблеми. Громадські організації можуть поширювати спростування у соцмережах — наприклад, оперативно під кожним вірусним дописом розташовувати правильну інформацію, використовуючи community notes чи інші функції. Важливо також використовувати підхід “передспростування”: попереджати громадськість заздалегідь, що може з’явитись підробка. Наприклад, якщо заборонена розвідка чи досвід показують: кандидата можуть звинуватити у скандалі на базі фейку — громадськість (разом з виборчкомом) може попередити виборців: “Не довіряйте шокуючому відео про X, можливий дипфейк”. Дослідження доводять, що превентивне інформування значно знижує довірливість і поширення неправдивих тверджень cetas.turing.ac.uk cetas.turing.ac.uk. Тобто, активна діяльність громадянського суспільства — превентивна і реактивна — до кампаній дипфейків може дати значні результати.
3. CivTech та колективне виявлення: Технічно підкована громадськість може бути мобілізована для боротьби з дипфейками. Уже існують “мисливці за дипфейками”, які аналізують підозрілий контент в інтернеті. Громадські організації можуть координувати ці зусилля через платформи — наприклад, через спеціальний портал чи додаток, де кожен може подати сумнівне відео або аудіо для аналізу, а мережа експертів чи ШІ надає висновок щодо автентичності. Таке колективне інформування може доповнювати офіційні зусилля. Tech-активісти також можуть розробляти розширення браузерів чи мобільні додатки для розпізнавання синтетичних медіа. Наприклад, програма дозволяє відзначити відео на екрані й отримати миттєвий аналіз від кількох алгоритмів (як антивірус — тільки для дипфейків). Хоча це й не гарантія, але це підвищить пильність. Відкриті проекти зі створення таких інструментів мають підтримуватись грантами. Ще одна ідея — “гарячі лінії” для повідомлень громадян про підозрілі месседжі, подібно до ліній для скарг у день виборів; заявку отримує виборчком чи фактчекери, які перевіряють факт. Заохочуючи громадян активно брати участь у виявленні підозрілого контенту, ми суттєво підвищуємо рівень моніторингу. Такий розподілений підхід враховує, що в цифровому світі мільйонів хтось обов’язково щось помітить рано — головне, щоб ця інформація швидко потрапила до тих, хто може її перевірити та оприлюднити правду.
4. Адвокація за відповідальність платформ: Громадянське суспільство має й надалі тиснути на технологічні платформи і компанії, які займаються ШІ, щоб вони діяли відповідально. Громадські ініціативи та аналітичні центри відіграють ключову роль у висвітленні загроз дипфейків і закликах до змін (наприклад, Access Now, EFF та інші видавали рекомендації). Така адвокація потрібна й надалі — від боротьби за впровадження вказаних вище платформних політик (кращого маркування, блокування тощо) до закликів до етики у дизайні ШІ. Кампанія Public Citizen щодо моніторингу законодавчих ініціатив та звернення до FEC — яскравий приклад citizen.org citizen.org. Так само коаліції можуть вимагати прозорості від платформ: домагатись публікації даних про об’єм AI-контенту на сайтах і про ефективність детекторів. Громадські голоси також мають стежити, щоб нові закони і регуляції зберігали права і свободи (наприклад, протидіяти надмірному обмеженню свободи слова під приводом боротьби з дипфейками). Збалансованість цього процесу потребує консультацій із суспільством, і саме громадські організації виступають представниками громадян у таких дебатах. Наступні роки принесуть нові регуляторні рамки для ШІ та онлайн-контенту — важливо, щоб демократичні цінності і права людини були основними у цих реформах, і громадянське суспільство виконує тут ключову “сторожову” місію.
5. Підтримка жертв і жертв атак: Якщо кандидат або приватна особа стала жертвою дискредитації через дипфейк, громадянське суспільство може надати підтримку. Некомерційні організації можуть запропонувати юридичну допомогу чи консультації щодо видалення наклепницьких дипфейків і притягнення винних до відповідальності. Можуть існувати гарячі лінії для жертв дипфейк-порнографії чи атак на репутацію, що з’єднують їх із правоохоронними органами та ресурсами психологічної допомоги. Для кандидатів, яких спіткала дискредитація, громадські організації (як-от ліги виборців або групи із захисту чесності виборів) можуть допомогти посилити їхнє спростування й викриття фейку, зменшуючи завдану шкоду. Швидке згуртування навколо людини, яку помилково атаковано — щоб правда звучала гучніше за брехню — це те, що можуть координувати спільнотні й адвокаційні групи, як вони це роблять у боротьбі з наклепом чи мовою ворожнечі. У ширшому вимірі, громадянське суспільство може сприяти міжпартійним зобов’язанням: якщо з’явиться дипфейк, усі сторони публічно його засудять. Уявіть собі зобов’язання, яке підписали всі провідні партії країни, пообіцявши не використовувати дипфейки і негайно засуджувати будь-які зловмисні фальсифікації. Такі норми, які формують організації на кшталт міжпартійних виборчих комітетів чи етичних НУО, знижують ймовірність “змагання у брудності”, коли партії відчувають, що змушені відповідати тим же. Це створює єдиний фронт, який заявляє, що атаки на правду не будуть терпітися незалежно від того, хто є ціллю.
На завершення, щоб протистояти виклику дипфейків, потрібно задіяти всі захисні механізми суспільства — технологічні, юридичні, інституційні та людські. Виконуючи наведені вище кроки, уряди можуть укріпити виборчу систему від штучних фейків, технічні платформи — обмежити поширення неправдивого контенту, медіа — забезпечити перевагу правди у висвітленні, а громадяни — стати пильними захисниками реальності. Витрачати час не можна: адже з розвитком генеративного ШІ виборчий цикл 2025 року стане випробуванням стійкості демократій до синтетичних брехень. Добра новина — ми не беззахисні. Завдяки підготовці, прозорості та співпраці ми можемо перехитрити й перемогти кампанії дипфейків, зберігаючи цілісність виборчого процесу. Як підсумовано у звіті досліджень CETaS щодо ШІ та виборів, “самозаспокоєність не повинна проникати у процес ухвалення рішень” — навпаки, час використати нинішній момент для зміцнення стійкості cetas.turing.ac.uk cetas.turing.ac.uk. Чинячи так, ми підтримуємо принцип, що хоча технології розвиваються, наші демократичні цінності правди й довіри збережуться.
Джерела
- Стоквелл, Сем та ін. «AI-Enabled Influence Operations: Safeguarding Future Elections.» Дослідницький звіт CETaS (Інститут Алана Тюрінга), 13 листопада 2024. cetas.turing.ac.uk cetas.turing.ac.uk
- Стоквелл, Сем та ін. Там само. (Звіт CETaS, 2024), розділ 2.1 про дипфейки на виборах у США. cetas.turing.ac.uk cetas.turing.ac.uk
- Бомонт, Хіларі. «‘Відсутність довіри’: як дипфейки й ШІ можуть потрясти вибори у США». Al Jazeera, 19 червня 2024. aljazeera.com aljazeera.com
- Сзе-Фунг Лі. «Канаді потрібне законодавство щодо дипфейків ще вчора». Policy Options, 18 березня 2024. policyoptions.irpp.org policyoptions.irpp.org
- Голдстайн, Джош А. і Ендрю Лон. «Дипфейки, вибори і як нівелювати “дивіденди брехуна”». Brennan Center for Justice, 23 січня 2024. brennancenter.org
- «Синтетичні медіа». Wikipedia (переглянуто 2025). en.wikipedia.org en.wikipedia.org
- «Дипфейк». Kaspersky ІТ-енциклопедія (2023). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
- Хаміл, Натан. «Дипфейки виявилися іншою загрозою, ніж очікували. Ось як захищатися від них». World Economic Forum, 10 січня 2025. weforum.org weforum.org
- «Регулювання ШІ-дипфейків і синтетичних медіа в політичній сфері». Brennan Center for Justice, 4 жовтня 2023. brennancenter.org brennancenter.org
- Колман, Бен. «Акт ЄС про ШІ та зростаюча нагальність детекції дипфейків». Блог Reality Defender, 11 лютого 2025. realitydefender.com realitydefender.com
- «Трекер: законодавство штатів щодо дипфейків на виборах». Public Citizen, 2025. citizen.org citizen.org
- Партнерство з ШІ. «Синтетичні медіа і дипфейки — кейс: Словаччина 2023.» (згадується в аналізі Knight Columbia). brennancenter.org brennancenter.org
- Капур, Саяш і Арвінд Нараянан. «Ми дослідили 78 виборчих дипфейків. Політична дезінформація — це не (тільки) проблема ШІ». Knight First Amendment Institute, 13 грудня 2024. knightcolumbia.org knightcolumbia.org
- Звіт CETaS (2024), політичні рекомендації (орієнтація на Велику Британію). cetas.turing.ac.uk cetas.turing.ac.uk
- Звіт CETaS (2024), рекомендації щодо виявлення та встановлення джерела. cetas.turing.ac.uk cetas.turing.ac.uk
- Public Safety Canada. «Захист від дезінформації на основі ШІ» (бюлетень 2023 р.). policyoptions.irpp.org policyoptions.irpp.org
- InnovationAus. «Урядова заборона на дипфейки на виборах “зависне” до 2026 року». (Австралія) 2023. innovationaus.com
- Додаткові джерела: Статті Reuters, Wired та CNN, на які посилання наведено всередині основних джерел (напр., дипфейк із Зеленським, шахрайство через Zoom з Гонконгу на 25 млн доларів США — weforum.org), а також споживчі попередження FTC про голосові шахрайства weforum.org. Вони вбудовані в аналіз і доступні за наведеними посиланнями на джерела.