Синтетични медии и дийпфейкове: Защита на изборния цикъл през 2025 година

юни 30, 2025
Synthetic Media and Deepfakes: Safeguarding the 2025 Election Cycle

Напредъкът в изкуствения интелект позволи създаването на синтетични медии – съдържание, генерирано или манипулирано от ИИ – в безпрецедентен мащаб. С наближаването на изборния цикъл през 2025 г. в демократичните държави, официални лица и експерти алармират за дезинформация, задвижвана от изкуствен интелект. В скорошно проучване 85% от американците изразяват загриженост относно „заблуждаващи видео- и аудио дипфейкове“, които биха могли да повлияят на изборите brennancenter.org. Заглавията в медиите предупреждават, че генерираните от ИИ „дипфейкове“ може да нанесат големи щети на кампаниите и доверието на избирателите brennancenter.org, подчертавайки колко спешно е да се защитят целостта на изборите. Този доклад разглежда какво представляват синтетичните медии и дипфейковете, как заплашват демокрацията и какви мерки – от технологични решения до политики – могат да бъдат предприети за защитата на изборите през 2025 г. и след това.

Какво представляват синтетичните медии и дипфейковете?

Синтетични медии е общ термин за цифрово съдържание (изображения, видео, аудио, текст), което е изкуствено създадено или променено чрез автоматизирани средства, особено с алгоритми на изкуствен интелект en.wikipedia.org. Днешните генеративни ИИ системи могат да създават реалистични, наподобяващи човека резултати във всеки медиен формат – от снимки на хора, които никога не са съществували, до клониране на гласове и статии, написани от ИИ. Дипфейковете са специфичен поджанр на синтетичните медии: изключително правдоподобни фалшиви изображения, видеа или аудио, изработени с ИИ (“дълбоко” обучение + “фалшив”) с цел имитация на реални хора encyclopedia.kaspersky.com. На практика дипфейк може да бъде видео, в което лицето на политик е убедително сложено върху чуждо тяло, или аудиоклип, имитиращ кандидата да казва неща, които никога не е казвал.

Как се създават дипфейкове? Повечето от тях се генерират чрез напреднали дийп лърнинг техники. Обичаен подход използва генеративни състезателни мрежи (GANs) – две невронни мрежи, които се обучават една срещу друга icct.nl. Едната мрежа (генераторът) създава фалшиви медии (например изображение на лице), а другата (дискриминаторът) се опитва да разпознае дали те са фалшиви. След хиляди итерации генераторът се научава да създава все по-реалистични резултати, докато дискриминаторът вече не може да направи разлика icct.nl. В началото създаването на правдоподобен дипфейк изискваше много тренировъчни данни и мощен хардуер – например експеримент за дипфейк на актьора Том Круз отне два месеца обучение на висок клас GPU-та icct.nl. Въпреки това, инструментите се развиха изключително бързо. Съвършеният дипфейк софтуер вече е широко достъпен и много по-бърз, понякога дори работейки в реално време (напр. променяйки видео поток или гласово обаждане на живо) encyclopedia.kaspersky.com. Освен GANs, и други AI архитектури имат роля: трансформър модели могат да създават дипфейк текст или да подпомагат клонирането на глас encyclopedia.kaspersky.com. Обобщено, скорошните пробиви в ИИ направиха измамното аудио-визуално съдържание лесно и евтино за създаване от почти всеки – драстично снижавайки бариерата пред операциите по дезинформация.

Важното е да се уточни, че не всяка синтетична медия е злонамерена. Генерираното от ИИ съдържание може да се използва с невинни или творчески цели – персонализирани аватари, дублаж на глас в други езици, сатира и забавление и др. Всъщност на световния изборен цикъл през 2024 г. около половината документирани случаи на ИИ в политически контекст са незаблуждаващи (напр. кандидат, прозрачно използващ ИИ глас поради загуба на собствения, или журналисти използващи ИИ аватар за защита на самоличността си) knightcolumbia.org knightcolumbia.org. Този доклад обаче се фокусира върху злонамерените аспекти на синтетичните медии – дипфейкове, целящи да заблудят, измамят или манипулират избирателите и общественото мнение.

Рискове за демократичните процеси

Синтетичните медии и дипфейковете представляват значителни рискове за демокрацията, особено по време на избори, когато осведомеността на избирателите и доверието в информацията са от първостепенно значение. Основните заплахи включват:

  • Дезинформация и манипулиране на избирателите: Генерирани от ИИ фалшиви видеа, изображения или аудио могат да се използват за разпространение на невярна информация за кандидати или теми, подвеждайки избирателите. Например дипфейк може да показва кандидат да прави провокативни изявления, които никога не е казвал. Такова фалшиво съдържание може да внесе отровна невярност в публичния дебат. Експерти предупреждават, че дипфейковете „носят висок риск“ за избирателите чрез въвеждане на невярно съдържание в кампаниите и ерозиране на публичното доверие aljazeera.com. Убедително подправено видео, разпространено малко преди изборния ден – без време за опровержение от проверяващите факти – може дори да наклони везните при колебаещи се избиратели или да потисне активността, потенциално променяйки резултата citizen.org. Заплахата не е само теоретична: както ще се разгледа по-долу, през 2024 г. дипфейк аудио имитира президента на САЩ, който призовава поддръжниците си да не гласуват с очевидна цел да намали активността aljazeera.com aljazeera.com.
  • Ерозия на доверието („дивидентът на лъжеца“): Дори и без конкретен фалшив случай, самото съществуване на дипфейкове може да подкопае общественото доверие в истинската информация. Избирателите може да започнат да се съмняват дори в автентични доказателства, несигурни дали дадено вирусно видео е реално или ИИ измама. Още по-лошо, корумпирани участници могат да се възползват от това съмнение: реални скандали или истински записи могат да бъдат отхвърлени като „просто дипфейк“, позволявайки на виновните да избегнат отговорността. Учените наричат това „дивидентът на лъжеца“ – покачване на осведомеността за дипфейковете улеснява лъжците да твърдят, че истинското е фалшиво brennancenter.org. Покачената обществена осведоменост за мощта на изкуствения интелект означава, че политик, уловен в реално нарушение, може по-лесно да заблуди обществото, наричайки компрометиращи записи измама, генерирана от ИИ brennancenter.org. Тази динамика застрашава фундаменталното доверие, от което зависи демократичният диалог. Изборни наблюдатели отбелязват, че през 2024 г. някои кандидати и поддръжници им предварително нарекли неудобни истории „ИИ фалшификати“ brennancenter.org brennancenter.org. В дългосрочен план, ако гражданите изпитват усещане, че „не можеш да вярваш на нищо, което виждаш или чуваш“, това подкопава общата реалност, необходима за свободни и честни избори cetas.turing.ac.uk cetas.turing.ac.uk.
  • Засилване на поляризацията и конфликтите: Досега доказателствата сочат, че дипфейк пропагандата по-скоро усилва съществуващите предразсъдъци на хората, вместо да убеждава отвъд разделителната линия cetas.turing.ac.uk. Злонамерено ИИ съдържание най-често се възприема и разпространява от вече крайнo настроени групи, което засилва ехокамерите. В президентската надпревара на САЩ през 2024 г. изследователи откриха, че фалшивите твърдения, генерирани от ИИ, най-вече засилват партийните наративи и насъскват дебатите, вместо да привличат нови последователи cetas.turing.ac.uk. Например фалшиви видеа с Джо Байдън или Камала Харис събират милиони гледания онлайн и се разпространяват най-вече от вече негативно настроени потребители cetas.turing.ac.uk cetas.turing.ac.uk. Като консолидират идеологически лагери с драматични фалшиви „доказателства“ за измамността на противника, дипфейковете могат да раздалечават общностите още повече, внасяйки токсичност в предизборната среда. Освен това хаосът и недоверието, посети от дипфейковете, създават почва, в която конспиративните теории виреят по-лесно cetas.turing.ac.uk, тъй като гражданите по-лесно могат да отхвърлят неудобна реалност като ИИ измама.
  • Подкопаване на изборната администрация: Рискът не се ограничава само до подвеждане на избирателите за кандидатите – дипфейковете могат да нарушат и самия изборен процес. Официални лица си представят сценарии, в които ИИ гласови клони или фалшиви съобщения се представят от името на изборни органи, казвайки на работниците в секциите да затворят по-рано или дават фалшиви инструкции на избирателите (напр. „изборът е отложен“) aljazeera.com. Изобретателен противник може да симулира заповед от изборна комисия или гласа на доверен местен служител, за да саботира гласуването. Такива тактики могат да намалят активността или да причинят хаос в изборния ден. Американският Brennan Center отбелязва, че манипулирани медии могат да заблудят не само обществото, но и работещите по изборите и административните служители, налагайки нужда от ново обучение и процедури в отговор aljazeera.com.
  • Тормоз и злепоставяне на личности: Дипфейковете също така предоставят мощно оръжие за лични атаки срещу кандидати, активисти или журналисти. Особено опасна категория е непоисканата синтетична порнография – придърпването на чуждо лице върху сексуално съдържание. Тази тактика вече се използва за тормоз над жени журналисти и политици по света. Най-екстремната форма на дипфейк тормоза са фалшиви интимни изображения, създадени за унижение или изнудване weforum.org. В изборен контекст оперативни участници могат да разпространят компрометиращо фалшиво видео на кандидат (например дипфейк секс запис или подправено съдържание, показващо незаконно поведение) малко преди изборите. Дори ако бъде бързо опровергано, щетите върху реномето на кандидата може вече да са нанесени. Жените и малцинствата са непропорционално засегнати от подобни „синтетични кампании за очерняне“, които могат да разубедят представители на разнообразни групи да се кандидатират policyoptions.irpp.org policyoptions.irpp.org. Накратко, дипфейковете добавят ново гориво към старите мръсни номера – от фалшиви скандали до измислени цитати – драматично усилвайки опитите за очерняне на избори.

И накрая трябва да се подчертае, че до момента нямаме свидетелства за изборна катастрофа, причинена от дипфейк. Емпирични анализи на изборите през 2024 г. по света показват малко доказателства, че ИИ дезинформация е променила който и да е изборен резултат cetas.turing.ac.uk weforum.org. Традиционната дезинформация (евтино редактирани „cheapfakes”, слухове, партиен пиар) продължава да е далеч по-голям фактор в разпространението на лъжи отколкото високотехнологичните дипфейкове knightcolumbia.org knightcolumbia.org. Въпреки това, експерти предупреждават, че липсата на катастрофа дотук не е повод за успокоение cetas.turing.ac.uk weforum.org. Технологията се развива бързо, а злонамерените участници се учат. Дори дипфейковете да не са обърнали резултата в голяма надпревара през 2024 г., те влияят на обществения дискурс – например вирусни ИИ лъжи за кандидати се превръщат в централни теми на дебат cetas.turing.ac.uk. Освен това самата представата за заплаха от дипфейкове увеличава обществения страх и недоверие спрямо изборите cetas.turing.ac.uk cetas.turing.ac.uk. Потенциалът за далеч по-сериозен инцидент остава, особено с оглед на идващите съдбоносни избори през 2025 г. Демократичните общества следва да третират дипфейковете като сериозен въпрос за сигурността и интегритета, като се борят както с прекият риск от фалшифицирано съдържание, така и с цялостната ерозия на истината в изборната сфера.

Скорошни инциденти: Дийпфейкове, разтърсващи политиката

Реални случаи от последните няколко години илюстрират как синтетичните медии вече са били използвани като оръжие в политически контекст. По-долу разглеждаме няколко значими инциденти и казуси с дийпфейкове и генерирана от изкуствен интелект дезинформация, които са повлияли на избори или на общественото мнение:

  • Украйна (март 2022) – Видео за „предаване“: В първите дни на войната на Русия срещу Украйна, се появи видео, което изглеждаше така, сякаш украинският президент Володимир Зеленски призовава войниците си да капитулират и да се предадат. Видеото беше дийпфейк, с изкуствено променени образ и глас на Зеленски icct.nl. Характерните дефекти (замъглени ръбове, несъответствие в тена на врата) го издаваха и украинските медии бързо разкриха измамата. Този случай – първото известно използване на дийпфейк в условия на въоръжен конфликт – показа как AI пропагандата може да се използва за подриване на лидерите по време на кризи icct.nl. Макар фалшивото видео със Зеленски да не успя да деморализира украинската съпротива, то доказа намеренията и способностите на злонамерени актьори (в този случай предполагаеми руски дейци) да използват дийпфейкове за информационна война.
  • Словакия (септември 2023) – Изборна дезинформация: Само дни преди парламентарните избори в Словакия, дийпфейк аудиозаписи станаха вирусни, представяйки Михал Шимеčka, лидер на партията „Прогресивна Словакия“, как си признава за изборни измами и дори предлага да се удвои цената на бирата brennancenter.org. Някои версии имаха слабо уточнение, че са генерирани с AI, но това се появяваше само в края на клипа – вероятно умишлен опит да подведе слушателите brennancenter.org. Таймингът беше очевидно стратегически – непосредствено преди гласуването. Прозападната партия на Шимеčka загуби на косъм от проруска опозиция, а някои коментатори спекулираха, че дискредитиращият дийпфейк в последния момент може да е повлиял на вота brennancenter.org. Този случай подчертава как външни или вътрешни актьори могат да използват дийпфейкове, за да повлияят на оспорвана надпревара и колко трудно е да се противодейства на фалшивите наративи в последните мигове на една кампания.
  • Тайван (януари 2024) – Чуждестранни операции за влияние: Преди президентските избори в Тайван през 2024 г., наблюдателите документираха дезинформационна кампания от страна на Китай с използване на дийпфейкове за да дискредитират кандидата Лай Чин-дъ. Фалшиви видеа се разпространяваха онлайн, показвайки Лай (от управляващата про-независимост партия) как прави изявления, които никога не е правил – например, че подкрепя платформата на опонентите си policyoptions.irpp.org. В един от случаите е пуснат генериран с AI аудиозапис на Лай, който изглежда го кара да критикува собствената си партия policyoptions.irpp.org, с цел да се разцепи неговата подкрепа. Тези синтетични атаки, проследени до Китай, целяха да влияят на общественото мнение и да сеят объркване в тайванската демокрация policyoptions.irpp.org. В крайна сметка Лай спечели изборите, а анализатори прецениха, че китайската дийпфейк кампания не е променила значително резултата policyoptions.irpp.org. Въпреки това, тя даде учебникарски пример за враждебна чужда сила, използваща AI пропаганда срещу демократични избори policyoptions.irpp.org policyoptions.irpp.org. Притеснението остава, че при по-оспорвани избори подобни тактики могат да имат по-голям ефект.
  • Съединени щати (2024) – Дийпфейкове в кампанията: Изборният цикъл в САЩ през 2024 г. видя нарастване на генерираното с AI политическо съдържание, което макар да не дестабилизира изборите, породи тревога. В началото на 2024 г. избиратели в Ню Хемпшир получиха объркващо обаждане: глас, наподобяващ президента Джо Байдън, който казва на демократите „спасете гласа си, не гласувайте на тези избори“. Гласът звучеше достоверно за някои, но самото послание бе очевидно подозрително – Байдън никога не би призовал съмишленици да не гласуват. Всъщност това беше дийпфейк аудио-клон на Байдън, изпратен на хиляди избиратели като опит за потискане на вот-а aljazeera.com aljazeera.com. Този случай, достигнал приблизително 5000 телефонни номера в Ню Хемпшир, показа колко лесно и евтино могат да се осъществят подобни мръсни номера – консултантът, създал дийпфейк гласа на Байдън, сподели, че това му е отнело само 20 минути и около $1 разход за изчисления policyoptions.irpp.org policyoptions.irpp.org. Междувременно в социалните мрежи AI-генерирани изображения влизаха дори в официални кампанийни материали. Забележително е, че екипът на губернатора на Флорида Рон Десантис пусна нападателна реклама с фалшифицирани изображения на Доналд Тръмп, прегръщащ д-р. Антъни Фаучи – т.е. посланието беше, че Тръмп е прекалено близък с бившия ковид съветник, непопулярен сред десните избиратели. Оказа се, че тези кадри с прегръдка са фалшификати, генерирани с AI, и вмъкнати от кампанията във видеото brennancenter.org, което доведе до публични критики след разкриването им. В друг случай, видео, генерирано от AI, показваше президента Байдън да се обръща към нацията с неясен говор – то бързо бе разобличено. Някои фалшиви видеа с Байдън и вицепрезидент Харис събраха милиони гледания в социалните мрежи cetas.turing.ac.uk, показвайки колко бързо се разпространява това съдържание. Дори тех-магнати се включиха: Илон Мъск нашумя като повторно сподели грубо обработено видео на Харис (означено като „сатира“), в което тя бълва несмислици – размазвайки границата между мем-хумор и дезинформация cetas.turing.ac.uk cetas.turing.ac.uk. Въпреки че нито един от тези дийпфейкове не промени хода на изборите, те затвърдиха фалшиви наративи (напр. за умствената дееспособност на Байдън или лоялността на Тръмп) и допълнително отровиха информационната среда. Американските власти са обезпокоени и от възможни дийпфейкове, насочени към инфраструктурата на изборите – например, фалшиво аудио с началници на изборни секции, които дават указания за незаконни действия aljazeera.com, но през 2024 г. публично не е потвърден сериозен случай от този тип.

Тези примери подчертават глобалния мащаб на заплахата. Дийпфейковете се използват от държави в геополитически конфликти, от провокатори в национални избори от Европа до Азия, както и от кампании и поддръжници в Съединените щати. Синтетичните фалшификации приемат формата на фалшиви речи, изображения, телефонни обаждания и видеа – целящи както избиратели, така и изборни служители. Досегашните случаи дават и уроци: много дийпфейкове бяха разкрити и разобличени сравнително бързо (често от бдителни журналисти или фактчекъри), а в някои случаи реакцията срещу използването им (напр. рекламата на Десантис) генерира негативен публичен отзвук за извършителите. Това показва, че прозрачността и бдителността могат да намалят вредите. Но тенденцията е очевидна – тези синтетични измами стават все по-чести и все по-трудни за бързо разграничаване от реалност. С всеки избор идват нови прецеденти (2024 донесе първите AI „робообаждания“ за влияние върху вота, първата употреба на дийпфейк-реклами в кампания и др.), а рискът от по-разрушителен дийпфейк инцидент става все по-голям с наближаването на 2025 г.

Откриване и противодействие на дийпфейкове: инструменти и технологии

Критичен компонент за защитата на изборите е разработването на надеждни инструменти за откриване и ограничаване срещу дийпфейкове. Изследователи, технологични компании и правителства се надпреварват да създадат технологии, които могат да разпознават ИИ-фалшификации и да удостоверяват достоверното съдържание. Тук представяме настоящата картина на средствата за откриване на дийпфейкове и свързаните с тях контрамерки:

  • Автоматизирани детектори за дийпфейкове: Основната линия на защита е ИИ срещу ИИ – алгоритми, обучени да анализират медийно съдържание и да идентифицират отличителните белези на манипулация. Тези системи за откриване търсят фини артефакти или несъответствия, оставени от генеративните модели. Ранните дийпфейкове, например, често имат неестествено мигане или несъвършена синхронизация на устните. Днешните детектори използват дълбоки невронни мрежи, за да изследват осветеността и сенките по лицата, честотните модели в аудиото или биологични сигнали (като пулса във видео), които ИИ може да не успее да пресъздаде. Технологични компании разработиха свои вътрешни инструменти – например Microsoft пусна “Video Authenticator” през 2020, което маркира фалшиви видеа чрез анализ на кадър по кадър. Платформи като Facebook и X (Twitter) инвестират в разработки за разпознаване и прилагат филтри за изчистване на добре познати фалшиви медии. Академични инициативи и състезания (като Facebook Deepfake Detection Challenge и IEEE конференции) стимулират развитието, а стартъпи като Sensity и Reality Defender предлагат търговски услуги за откриване на дийпфейкове. Но това е напрегнато надпреварване с “надграждане на оръжията”: с подобряването на откриването, създателите на дийпфейкове усъвършенстват техниките си да заобикалят автоматичните проверки. Забележително е, че според доклад на Meta от 2023 сред всички дезинформации, отбелязани по време на изборния цикъл 2024, “по-малко от 1%” са били идентифицирани като съдържание, генерирано от ИИ weforum.org, което предполага или относителна рядкост на дийпфейковете, или че много от тях са преминали незабелязано през филтрите.
  • Водни знаци и доказване на произхода на съдържанието: Друга стратегия е да се маркира ИИ-създаденото съдържание още при създаването му, така че следващите потребители лесно да разпознават, че е синтетично. ЕС силно насърчава този подход – новият ЕС AI Act изрично задължава всяко генерирано или манипулирано от ИИ съдържание да бъде ясно етикетирано или маркирано като такова realitydefender.com. Фирмите трябва да вграждат индикатор (дигитален воден знак или метаданни), когато изображението, видеото или аудиото е генерирано от ИИ. Браузъри или социални мрежи биха могли автоматично да маркират или филтрират съдържание с такива индикатори. Маркирането е обещаващо, особено за възпиране на случайна злоупотреба. Основните доставчици на ИИ модели (като OpenAI, Google и др.) обсъждат доброволно маркиране на генерираните от тях изображения или текст. Освен това, коалиция от медийни и технологични организации разработва стандарти за доказване на произхода (например C2PA, Coaliton for Content Provenance and Authenticity) за криптографски запис на произхода и историята на редакциите на цифрови медии. Например, новинарска снимка или предизборна реклама може да съдържа защитен сертификат за автентичност, позволяващ на всеки да провери кой я е създал и че не е била манипулирана cetas.turing.ac.uk. Американското правителство възприема този подход; Белият дом нареди на федералните агенции да разработят указания за “автентичност по дизайн”, вграждайки метаданни за произход във всички дигитални съдържания, които създават до 2025 cetas.turing.ac.uk. При широко прилагане, тези мерки ще затруднят разпространението на фалшифицирано съдържание като истинско.
  • Ограничения на етикетите: Въпреки че инструментите за прозрачност са ключови, те не са безгрешни. Водните знаци могат да бъдат премахнати или променени от решени злонамерени актьори. Изследователи вече показаха методи за премахване или замъгляване на ИИ-водни знаци realitydefender.com, а злонамерен актьор, който създава свой генеративен модел, може просто да не вгражда никакви маркери. И метаданните за произход помагат само ако са широко въведени и ако потребителите всъщност ги проверяват. Създател на дийпфейк може да използва и “прикачване на произход” – взима автентична снимка или видео и наслагва фалшиви елементи, така че крайният файл запазва цифровия подпис на оригинала. Тези предизвикателства означават, че не можем да разчитаме само на етикети за съдържание. Както посочи една фирма за ИИ сигурност, решенията за водни знаци и произход работят само ако създателите сътрудничат при маркирането на продукцията си – което няма да спре решени престъпници realitydefender.com. Затова откриването чрез анализ на съдържанието за признаци на ИИ-манипулация остава незаменимо realitydefender.com. Най-добрата защита вероятно ще комбинира и двата подхода: мощни автоматични детектори и системи за удостоверяване на легитимни медии.
  • Откриване в реално време за видео/аудио потоци: Нововъзникващо изискване са инструменти, които могат да уловят дийпфейкове в реално време. Представете си измамен “на живо” видеоразговор с кандидат или официално лице – както се случи през 2023 в Хонконг, когато престъпници дийпфейкнаха лицето на изпълнителен директор по Zoom, за да разрешат измамно превеждане на $25 милиона weforum.org. В случая, няколко души в разговора – сред които и имитатор на финансовия директор – бяха изцяло генерирани от ИИ. Откриването на такива фалшификати в реално време е изключително трудно. Компаниите работят по решения като плъгини за видеоконференции, които да алармират, ако изображението или гласът изглеждат синтетично изменени (например чрез анализ на аудио закъснения и честотни аномалии, или проверка дали лицето на екрана съвпада с движението на лице, записано от камерата). Някои стартъпи твърдят, че предлагат API за откриване на дийпфейкове в реално време, които да се интегрират в стрийминг платформи или дори да удостоверяват говорители на живи събития. Засега обаче, реалното време изостава зад нападателите, затова се набляга на предпазни мерки (като използване на пароли или споделени “кодови думи” при разговори по препоръка на полицията weforum.org).
  • Човешка проверка и сигнали от общността: Само технологиите не са “сребърният куршум”. Бдителният човешки елемент остава решаващ. Новинарски агенции, групи за проверка на факти и платформи изграждат специализирани екипи за наблюдение на вирусни дийпфейкове по време на избори. Тези екипи използват OSINT (открит разузнавателен източник) техники и съдебни инструменти за анализ на подозрителни медии – например, проверка на времеви маркери, търсене на несъответствия (като различни обеци на политик във видео, или странни движения на устата) и бързо публикуване на опровержения. Помагат и колективните усилия: в X/Twitter функцията “Community Notes” се използва за маркиране на постове с ИИ-генерирани изображения или видео с поясняващ контекст. При последните избори често потребители изобличаваха дийпфейкове само часове след появата им, публикувайки сравнения или указвайки на дефекти. Този вид колективна бдителност, подсилена с дигитална грамотност, е мощен инструмент. Платформите все повече се опират на потребители и независими проверители за идентифициране на съмнително съдържание, предвид мащаба, който автоматичните филтри трябва да обработват. Недостатък е, че дийпфейк може да стане вирусен преди да бъде опроверган. Въпреки това, ускоряването на реакцията и повишаването на осведомеността (така че повече хора да разпознават фалшификати сами) ще ограничи вредата.

В обобщение, разпознаването на дийпфейкове е активна и бързо развиваща се област. Напредък има – днешните детектори са много по-добри от тези през 2018, а инициативи като Content Authenticity Initiative се стремят да наложат стандарти за проверка. Но предизвикателства остават – заради вечната игра на котка и мишка с нападателите и нуждата от масово въвеждане на инструментите. В следващите години вероятно ще видим технология за разпознаване интегрирана в социални мрежи, новинарски работни потоци и дори в устройства (представете си смартфон, който ви предупреждава, че входящо видео е с вероятност генерирано от ИИ). Ключово е, че технологиите за разпознаване и доказване на произход трябва да бъдат съчетани с обществено образование, така че появата на предупреждение или етикет да се разбира и приема адекватно. Тези технологични решения са само един стълб от по-широка стратегия за справяне със заплахите от синтетични медии.

Политически отговори и регулаторни рамки

Политиците по света осъзнаха заплахата от дийпфейкове и започнаха да изграждат закони и регулации за справяне с нея. Макар проблемът да е нов, постепенно се оформя пъстра мозайка от мерки в основните демокрации. По-долу е даден преглед на законодателните и регулаторни инициативи в развитие:

  • САЩ: В САЩ в момента няма единен федерален закон срещу политическите дийпфейкове, но се засилва стремежът този вакуум да се запълни. В Конгреса са внесени няколко законопроекта, които имат за цел да ограничат злонамерените дийпфейкове. Например, в началото на 2024 се предлага законът No AI FRAUD Act в отговор на нашумели случаи (като ИИ-генерирани експлицитни снимки на известни личности) policyoptions.irpp.org. Този закон има за цел да въведе федерална рамка за криминализиране на вредни ИИ-употреби като измамни политически дийпфейкове и подвеждащи порнографски фалшификати policyoptions.irpp.org. Други идеи включват задължително обозначаване на ИИ-съдържание в изборни реклами (за да съдържат яснота, ако се ползва синтетична медия). Междувременно Федералната комисия по комуникации (FCC) въведе забрана за използване на ИИ-клонирани гласове в автоматизирани обаждания, насочени към измама или вреда policyoptions.irpp.org. Причината са схеми, в които измамници имитират гласа на реални лица. Това прави незаконно използването на синтетични гласови съобщения от телемаркетинг или политически кампании с цел подвеждане на избиратели. В голяма степен регулацията на дийпфейковете в САЩ се провежда на щатско ниво. От 2019 насам Калифорния, Тексас и др. приемат закони срещу изборни дийпфейкове. Калифорния забранява разпространение на манипулирани фалшиви видеа на кандидати 60 дни преди избори (с изключения за сатира/пародия) brennancenter.org. В Тексас това е наказуемо като тежко престъпление, ако дийпфейкът цели нараняване на кандидат или заблуда на избиратели brennancenter.org. Към средата на 2025 поне четиринадесет щата са приели или обсъждат законодателство срещу дийпфейкове в изборите citizen.org. Интересно е, че това привлича двупартийна подкрепа – и двете партии приемат, че ИИ-манипулирани изборни дезинформации са заплаха за демокрацията citizen.org citizen.org. Щатските закони се различават: някои залагат криминални санкции за публикация на вредни дийпфейкове за кандидат, други се съсредоточават върху етикети върху синтетично съдържание в реклами. Освен това организацията Public Citizen подаде петиция до Федералната избирателна комисия (FEC) за актуализация на правилата и забрана на федералните кандидати да използват манипулативни дийпфейкове brennancenter.org. FEC все още не е приела нов регламент, но въпросът е на дневен ред. Американските законодатели балансират и с правата на свободно изразяване – твърде широки забрани може да конфликтуват с Първата поправка. Например сатирата и пародията често използват фалшифицирани изображения/видео; затова в много щатски закони изрично има изключения за пародия, сатира и журналистика brennancenter.org brennancenter.org. Всеобщото мнение е, че фалшиво ИИ съдържание, което умишлено заблуждава избиратели или подстрекава към безредици, няма легитимна стойност в демокрацията и може да бъде ограничавано brennancenter.org brennancenter.org, без да се накърнява свободата на изразяване.
  • Европейски съюз: ЕС предприема активни стъпки за обща регулация на ИИ, включително по въпроси, свързани с дийпфейкове. Значимият AI Act, приет през 2024 (планиран за пълно въвеждане през 2026, с някои разпоредби по-рано), включва изискване за прозрачност при синтетични медии. Съгласно AI Act, всеки ИИ, който може да генерира “дийпфейк” съдържание, трябва да осигури, че то е ясно маркирано като ИИ-генерирано (освен при изключения като изкуство или научни изследвания) realitydefender.com. На практика това означава, че разработчиците на генеративни ИИ модели в ЕС са длъжни да вграждат воден знак или метаданни, указващи, че резултатът е синтетичен. Нарушаването може да доведе до солени глоби. Обновеният Кодекс за борба с дезинформацията на ЕС (доброволен кодекс, подписан от основни платформи) специално подчертава дийпфейковете като опасност и задължава платформите да развиват “политики, мерки и инструменти за справяне с манипулирано съдържание” brennancenter.org brennancenter.org. Например, платформите се ангажират да въвеждат системи за откриване и маркиране или премахване на дийпфейк видеа, които могат да причинят вреда на обществото, и да сътрудничат с проверители на факти за бързо опровергаване на фалшиво ИИ съдържание. Съгласно Digital Services Act (DSA) – в сила от 2023 – много големи онлайн платформи в ЕС трябва да оценяват и ограничават “системни рискове”, включително разпространение на ИИ-дезинформация. Този регулаторен натиск доведе до това, че компании като Meta, Google и TikTok въвеждат нови мерки за изборите 2024–2025: по-добро разпознаване и по-ясно етикетиране на синтетичните медии. Накратко, Европа залага на регулации, даващи приоритет на прозрачността: задължителни етикети на ИИ резултати и отговорност за платформите да ограничават дийпфейковата дезинформация. Критиците посочват, че прилагането ще е трудно (как ще се хващат всички неетикетирани фалшификати?), но ЕС ясно показва, че неконтролираните дийпфейкове са недопустими и не съответстват на дигиталните му стандарти realitydefender.com realitydefender.com.
  • Обединено кралство: Великобритания все още не е приела конкретни закони срещу дийпфейкове в изборите, но работи по проблема чрез по-широки инициативи за онлайн сигурност и ИИ. През 2023 бе приет Online Safety Act (Закон за онлайн безопасност), който криминализира разпространението на неразрешени дийпфейк-порнографски материали – правейки незаконно създаването или разпространението на експлицитни синтетични образи на човек без съгласие policyoptions.irpp.org. Така се атакува аспектът на тормоз чрез дийпфейкове. По отношение на изборната дезинформация, Online Safety Act дава правомощия на Ofcom (регулаторния орган) да публикува кодекси за справяне с дезинформация. Експертите настояват Ofcom да разработи Кодекс на поведение за дезинформация, включващ стандарти за ИИ-манипулирано съдържание cetas.turing.ac.uk. Такъв кодекс, по модела на ЕС, може да задължи платформите и политическите актьори във Великобритания да се въздържат от дийпфейкове и да етикетират ясно синтетичните материали. Има призиви и Изборната комисия да даде инструкции на политическите партии за отговорна употреба на ИИ, въвеждайки червени линии срещу дийпфейкове в кампании cetas.turing.ac.uk. В края на 2024, парламентарна комисия препоръча затягане на изборното законодателство за санкции срещу дийпфейкове, но все още няма законодателна инициатива. Правителството проверява дали настоящото законодателство (например за клевета, измама и изборни нарушения) е достатъчно или са нужни нови текстове cetas.turing.ac.uk. Освен това Обединеното кралство създава Институт за ИИ безопасност и бе домакин на световна среща за ИИ сигурност през 2023, където манипулацията на информация бе тема. Британските власти изглежда залагат на техническа защита и медийна грамотност (разгледани по-долу в препоръките), наред със законовите мерки. Забраната на дийпфейк порно и овластяването на регулаторите показват, че фалшивото ИИ съдържание изисква политически отговор.
  • Канада: Към 2024 Канада няма конкретен закон срещу използване на дийпфейкове в избори. Canada Elections Act не забранява изрично ИИ-дезинформацията или дийпфейковете, което означава, че преследването може да стане само по общи разпоредби (напр. срещу измама или самоличност), които може да не са напълно адекватни cef-cce.ca. Този регулаторен вакуум е отбелязан от експерти, които предупреждават, че Канада “изостава с една-две крачки” от другите демокрации policyoptions.irpp.org. През есента на 2023 се случи малък инцидент с дийпфейк, когато фалшив аудио клип разпространил глас на политик. Макар и с малко въздействие, това повиши чувствителността. Elections Canada (избирателният орган) оттогава сигнализира ИИ-дезинформацията като нова заплаха и изследва потенциални решения cef-cce.ca. Политически анализатори настояват за законодателство “още вчера” – например, да се дадат правомощия на Комисаря по изборите да се бори с измамните синтетични медии в кампании policyoptions.irpp.org. Канада може да почерпи идеи от съюзници: например да въведе задължителни обозначения за ИИ-реклами или да криминализира разпространението на дийпфейкове, за които е известно, че целят заблуда на избиратели. Към средата на 2025 няма внесен законопроект, но натискът расте Канада да догони останалите policyoptions.irpp.org.
  • Други демокрации: В световен мащаб други демокрации също предприемат мерки:
    • Австралия: Австралийското правителство, притеснено от “подкопаване на истината” чрез ИИ пред избори, обяви планове за законодателство за “истина в политическата реклама”, което да забрани измамни дийпфейкове във видео и аудио по време на кампании innovationaus.com. Проектозаконът на правителството на Албанезе от 2023 предвижда забрана за публикуване на синтетично съдържание, което имитира кандидати или може да заблуди избиратели по време на избори innovationaus.com. Законът обаче се бави и според доклади тези мерки може да влязат в сила чак през 2026 innovationaus.com, т.е. през изборите през 2025 няма да са напълно в сила. Дотогава Австралийската избирателна комисия издава насоки и подчертава да не се прекалява с фокуса върху дийпфейковете, защото това може да подкопае доверието и в реалната информация ia.acs.org.au. Политици от всички партии подкрепят ограничаване на ИИ-дезинформацията, а дебатът е как да се балансира с правото на свободна политическа реч theguardian.com sbs.com.au.
    • Тайван: След намеса с дийпфейкове от Китай, Тайван промени изборните си закони. През 2023 парламентът прие изменение в Election and Recall Act, което изрично забранява споделянето на подправени аудио/видео на кандидати с цел измама policyoptions.irpp.org. Това даде ясен инструмент за наказване на извършителите на дийпфейк-кампаниите през 2024. Тайван инвестира и в публично образование и бърза система (с участието на държавата, гражданското общество и технологични платформи) за опровергаване на фалшивата информация policyoptions.irpp.org policyoptions.irpp.org, което ограничи вредата.
    • Европейски демокрации: Отделни европейски държави (освен регулациите на ЕС) започват да прилагат съществуващи закони срещу дийпфейкове. Например, във Франция законът срещу “фалшива информация” по време на избори (от 2018) важи срещу дийпфейк-видеа с цел влияние върху вота, а Германия разчита на строгите си закони за клевета и избори. Обсъждат се и нови мерки: в Германия се говори за задължаване на партиите да декларират употреба на синтетични медии в кампаниите. В Обединеното кралство, както вече се посочи, бъдещи промени в изборния закон (като нови изисквания за дигитална реклама) може да обхващат и задължение за етикетиране на ИИ съдържание cetas.turing.ac.uk.
    • Международни инициативи: Расте осъзнаването, че е нужна глобална координация, тъй като дезинформацията не признава граници. Г-7 има работна група за “управление на ИИ”, която през 2024 публикува позиция срещу злонамерено използване на ИИ в информационната сфера. Администрацията на Байдън в САЩ постигна доброволни ангажименти от водещи ИИ-разработчици (OpenAI, Google, Meta и др.) за въвеждане на водни знаци на ИИ съдържание и инвестиции в превенция на злоупотребите. Това са необвързващи, но показателни за новата международна норма за прозрачност и отговорност при употребата на ИИ.

В обобщение, политическите реакции към дийпфейковете се ускоряват. Законодателството догонва технологията, но тенденцията е ясна: държавите се движат към криминализиране на най-вредните употреби на синтетични медии в избори, към задължаване за прозрачност (етикети/декларации) на ИИ съдържание и към овластяване на регулатори или изборни органи да се борят с дигиталните фалшификати. В същото време трябва да се пази легитимното изразяване (като сатира) и да се избягват прекомерни правила с риск от цензура. Балансът е труден. Приложените подходи – от щатските закони в САЩ до европейските директиви – ще са лаборатория през 2025. Политиците безспорно ще прецизират тези инструменти с опита. Но бездействието не е опция: както цитират в един тракер “Без регулация, дийпфейковете вероятно ще объркват все повече избиратели и ще подкопават доверието в изборите.” citizen.org citizen.org Следващата част представя стратегически препоръки към всички заинтересовани от демократичния процес страни.

Стратегически препоръки за опазване на изборите

Защитата на интегритета на изборите в ерата на изкуствения интелект изисква многостранна стратегия. Нито един инструмент или закон не може да реши проблема с дийпфейковете самостоятелно; вместо това, е необходим координиран подход между правителствата, технологичните платформи, медиите и гражданското общество. По-долу са представени стратегически препоръки за тези сектори с цел намаляване на риска и осигуряване на възможност избирателите да вземат информирани решения през 2025 г. и след това:

Правителства и политици

1. Засилване на правната защита и възпиране: Правителствата трябва да приемат или актуализират закони, които изрично забраняват злоумишленото използване на синтетични медии в избори. Това включва обявяване за незаконно създаването или разпространението—с намерение за измама на обществото или саботиране на избори—на дийпфейкове, които лъжливо представят кандидат или манипулират информация, свързана с изборния процес (като процедури за гласуване). Закона трябва да е насочен към умишлена измама (дезинформация), с ясни изключения за сатира, пародия или очевидно художествено изразяване. Санкциите (глоби или наказателна отговорност) ще възпират потенциалните разпространители на дийпфейкове, особено ако се прилагат незабавно. Например, предложеният в Австралия закон за забрана на измамни дийпфейкове по време на кампании и новите клаузи на Тайван срещу AI-манипулирано съдържание в изборите могат да бъдат модел innovationaus.com policyoptions.irpp.org. В САЩ федерални мерки (като предложения No AI FRAUD Act) могат да създадат национални базови стандарти, които да допълват щатските закони. Освен това, правителствата трябва да актуализират правилата за финансиране на кампании и реклама: да изискват всеки политически рекламен материал (онлайн или излъчен), съдържащ синтетични медии, да има ясен дисклаймър (например: „Този образ/видео е създадено с изкуствен интелект“), така че зрителите да не бъдат заблуждавани. Регулациите за истина в политическата реклама трябва да включват и съдържание, създадено с изкуствен интелект.

2. Въвеждане на протоколи за реагиране при изборни инциденти: Изборните власти трябва да създадат формални протоколи за реагиране в реално време при сериозни инциденти с дийпфейкове. Пример за добра практика е Протоколът за публични критични изборни инциденти на Канада, който събира висши служители, за да оценят и информират обществото за чуждестранна намеса или заплахи от дезинформация по време на избори cetas.turing.ac.uk cetas.turing.ac.uk. Други демокрации следва да приемат подобни механизми. Ако се появи опасен дийпфейк (например фабрикувано видео с кандидат, който признава поражение, циркулира в изборния ден), протоколът се активира – служителите, експертите по разузнаване и технологичните платформи бързо проверяват истинността и излизат с публично опровержение, развенчавайки фалшивата информация и уточнявайки фактите cetas.turing.ac.uk. Този бърз отговор е решаващ, за да намали ефекта на “пожарния маркуч” от дезинформация. Правителствата трябва да тренират тези реакции предварително (сценарии с дийпфейкове), за да могат да реагират бързо и с единна позиция при нужда.

3. Инвестиране в инфраструктура за откриване и автентикация: Държавните агенции трябва да инвестират сериозно в развитие на технологии за разпознаване на дийпфейкове и удостоверяване на съдържание. Това включва финансиране на научно-изследователска работа (например, програми в стил DARPA за борба с дезинформация, създадена от AI), подкрепа за внедряване на инструменти за откриване на дийпфейкове в изборите, както и приемане на стандарти за удостоверяване в правителствените комуникации. Конкретна стъпка е правителствените медии (държавни телевизии, официални социални мрежи и др.) да започнат да добавят доказуеми метаданни за произход към всички официални снимки, видеа и аудиоматериали, които публикуват cetas.turing.ac.uk. Така се създава база от „проверена автентична“ информация. Избиратели и журналисти могат да имат доверие, че всяко видео с държавен печат в метаданните е автентично – и съответно да са по-предпазливи към подобно съдържание без такива данни. Правителството може да даде пример с този подход на “автентичност по дизайн” cetas.turing.ac.uk, по който вече работят САЩ и Обединеното кралство. Освен това правоохранителните органи и избирателните комисии трябва да имат специализирани звена за съдебен анализ на съмнителни медии по време на кампании. Фактът, че властите имат технически възможности да проследят и идентифицират дийпфейкове (и потенциално извършителите), също ще възпира злонамерени актьори.

4. Уточняване и модернизиране на съществуващите закони: В много страни настоящите закони за измама, кражба на самоличност, клевета или изборна намеса може да се прилагат за някои случаи с дийпфейкове – но могат да съществуват пропуски. Правителствата следва да прегледат законодателството си, за да преценят дали са необходими нови категории. Например, има ли разпоредби за AI-генерирано имитиране на държавни служители? Ако не, трябва да се въведат. Уверете се, че законите за защита на личните данни и поверителността обхващат неоторизираното използване на нечий образ/глас от изкуствен интелект като нарушение. Ясното дефиниране на правния статус на вредните дийпфейкове (и публичното информиране за това) е важно, за да са наясно потенциалните злосторници, че могат да бъдат подведени под отговорност. Това дава възможност и на жертвите (кандидати или граждани) да търсят правна защита. Прегледът трябва да включва и изборното законодателство: актуализиране на определението за незаконна изборна реклама или подвеждаща информация при проучвания, така че изрично да покрива синтетични медийни манипулации cetas.turing.ac.uk. Целта е да се премахне всяка неяснота – разпространител на дезинформация не бива да твърди: „Технически това не е незаконно, защото го е направил AI“. Ако законите са изрични, прилагането и преследването стават по-лесни.

5. Засилване на международното сътрудничество: Тъй като кампаниите за дезинформация често възникват в чужбина (или се разпространяват трансгранично), демократичните правителства трябва да работят заедно по този въпрос. Разузнавателните агенции и киберсигурностните звена трябва да споделят информация за нови тактики с дийпфейкове (например, ако една държава установи чужда операция с дийпфейкове, да предупреди останалите). Форумите като Алианс за защита на демокрацията, Г-7, диалога ЕС-САЩ и други могат да координират общи позиции и норми срещу дийпфейкове в изборите. Може да се упражни дипломатически натиск над държави, които спонсорират или толерират такава намеса. Съществуват възможности и за съвместни научни изследвания – например, международен център за откриване на дийпфейкове може да обедини данни за усъвършенстване на алгоритмите. Организациите за наблюдение на изборите (като ОССЕ или международни наблюдателски мисии) трябва да актуализират методологиите си, за да следят за синтетично медийно влияние, а държавите могат да включат сценарии с дийпфейкове в взаимни договори за защита на демократичните процеси. Единен фронт затруднява злонамерените актьори да се възползват от уязвимостите на отделна държава.

6. Насърчаване на обществения информираност и дигитална грамотност: В крайна сметка правителствата играят роля в образованието на електората по темата за дийпфейковете. Много страни обмислят или вече въвеждат програми за дигитална грамотност в училищата и за широката публика cetas.turing.ac.uk. Тези програми обучават хората как да проверяват онлайн информация, да разпознават манипулирани медии и да развият критично мислене за източниците. Като се има предвид колко убедителни са станали фалшификатите чрез AI, жизненоважно е всеки избирател да знае, че такива фалшификати съществуват, и да се чувства способен да проверява съмнително съдържание (вместо сляпо да вярва или споделя). Правителствата трябва да си партнират с образователни институции и НПО за въвеждане на обучение по дийпфейкове в учебните програми и в публични кампании. Например, чрез клипове в медиите, които сравняват реални и дийпфейк записи на политици и обясняват разликата, може сериозно да се повиши информираността. Данните показват, че индивиди с по-висока медийна грамотност и критично мислене разпознават по-лесно дийпфейкове и устояват на дезинформация cetas.turing.ac.uk. Затова финансирането на инициативи за медийна грамотност е една от най-ефективните дългосрочни защити. Когато обществото стане активно наблюдаваща мрежа — откривайки и сигнализирайки за фалшификати — ефектът на дийпфейк пропагандата може значително да намалее.

Технологични платформи и AI разработчици

1. Засилване на политиките на платформите и прилагането им: Социалните мрежи и онлайн платформите са основен канал за разпространение на вирусни дийпфейкове. Тези компании трябва да приемат строги политики срещу манипулирани медии, които подвеждат потребителите, особено в контекста на изборите. Много платформи вече са започнали това: например Facebook и Twitter (X) имат политики за премахване или обозначаване на „манипулирани медии“, които могат да причинят вреда. Но прилагането трябва да бъде ефективно. Платформите трябва да подобрят автоматизираното откриване на дийпфейкове (с използване на най-новите инструменти, обсъдени по-горе) и да осигурят бързо преглеждане от човешки модератори при сигнализирано подозрително съдържание. В изборни периоди компаниите могат да създадат специални кризисни центрове и канали за сътрудничество с избирателни комисии за навременно обработване на потенциални дийпфейк инциденти. Когато бъде идентифициран фалшив материал, платформите трябва да го обозначават като невярен или незабавно да го премахват и да ограничават неговото разпространение чрез алгоритмите brennancenter.org brennancenter.org. Прозрачността също е ключова: платформите може да публикуват периодични доклади за засечените дийпфейкове и предприетите действия, което повишава общественото доверие. Те също могат да споделят примери на засечени дийпфейкове с изследователи и така да подпомагат общата експертиза.

2. Прилагане на разкриване и проследимост на дийпфейкове: По примера на ЕС, платформите в световен мащаб трябва да изискват ясно обозначаване и разкриване на AI-генерираното съдържание. Например, ако се качи политическа реклама, съдържаща AI-генериран образ или глас, платформата може да задължи качващия да отбележи кутийка „Това съдържание съдържа синтетични елементи“ – и след това да покаже уведомление на зрителите („Това видео е променено или частично генерирано с AI“). Дори и извън официалните реклами, платформите могат да използват инструменти за откриване, с които визуално да бележат заподозрени дийпфейк видеа (например чрез предупреждение, че достоверността на видеото е непотвърдена). Освен това, социалните мрежи и услуги за съобщения могат да интегрират функции за автентичност на съдържанието: използвайки стандарти като C2PA, могат да показват икона, ако източникът и историята на редакциите на изображението са потвърдени, или обратно — да отбележат, ако тези данни липсват. Някои технологични компании (Adobe, Microsoft, Twitter) вече участват в такива инициативи. Чрез вграждане на сигнали за произход в потребителския интерфейс, платформите могат да помогнат на потребителите да различават истинското от фалшивото. Те трябва да работят и по механизми за обратно проследяване – например, ако се разпространява вреден дийпфейк, могат ли да проследят кой го е качил първоначално, дори ако е бил препубликуван хиляди пъти? Сътрудничеството с органите на реда при тежки инциденти (със спазване на законите за поверителност) ще бъде важно за залавяне на извършителите.

3. Забрана на злонамерени дийпфейк потребители и мрежи: Платформите трябва да проявяват бдителност срещу организирани актьори, които системно използват дийпфейкове. Това означава не само премахването на отделни материали, но и закриване на акаунти, страници или ботове, занимаващи се с координирани дийпфейк кампании. Ако има доказателства, че операцията е свързана с държавно подкрепени усилия или известна тролска ферма, платформата трябва да обяви това публично и да премахне тяхното присъствие. Много дезинформационни мрежи бяха свалени през последните години; същият агресивен подход трябва да се прилага и към AI-движените операции за влияние. Платформите трябва да актуализират своите условия на ползване, като изрично забраняват злонамерено създаване или споделяне на синтетични медии с цел заблуда. Тези правила са основание да се блокират нарушителите. В политическата реклама всеки щаб или PAC, уличен в ползване на измамни дийпфейкове, трябва да бъде санкциониран, като например загуба на рекламни права. Технологичните компании могат да работят заедно, като поддържат общ черен списък с хешове или подписи на познати дийпфейкове, така че след като един фалшификат бъде идентифициран на една платформа, той да бъде блокиран и на останалите (подобно на схемите за блокиране на терористично съдържание чрез общи хешове). По същество трябва да се обезсмисли използването на дийпфейкове в основните платформи – или съдържанието бързо ще бъде премахнато, или нарушителят ще изгуби акаунта си.

4. Сътрудничество с проверяващи фактите и властите: Нито една платформа не може сама да следи съдържанието напълно. Затова сътрудничеството е жизненоважно. Социалните медии трябва да задълбочат партньорствата си с независими организации за проверка на факти, за да оценяват вирусното съдържание. Когато проверителите опровергаят видео като фалшиво, платформите трябва да разпространят тази корекция – например, като прикачат линк към статията за проверка на фактите при всяко споделяне на видеото или уведомят всички, които са го гледали първоначално. Компании като Facebook вече правят това за дезинформация и трябва да продължат и за дийпфейкове. Платформите трябва да координират усилията си с избирателни комисии и органи по сигурността, особено в предизборни периоди. Могат да създадат директни горещи линии или комуникационни канали за официални сигнали за предполагаеми дийпфейкове, свързани с изборния процес, и обратно — платформите да известяват властите, ако забележат чужда дезинформация срещу страната. В някои юрисдикции има формални споразумения (например, Кодексът за практика на ЕС насърчава обмяната на информация с властите за дезинформационни заплахи brennancenter.org). Дори в САЩ, звеното за киберсигурност към Департамента за вътрешна сигурност работи с платформите за мониторинг на дезинформация по изборите. Тези колаборации, разбира се, трябва да уважават свободата на изразяване и да не преминават в цензура на легитимна реч. Но при ясно фалшифицирани и вредни материали, бързата и координирана реакция между платформите и публичните институции може да спре разпространението на фалшификата. Това може да включва съвместни прессъобщения за разобличаване на вирусен фалшификат или алгоритмично издигане на авторитетни източници за противодействие.

5. Подобряване на защитите в AI моделите: Компаниите, разработващи генеративни AI модели (OpenAI, Google, Meta и др.), носят отговорност в самото начало. Те трябва да внедряват мерки, които препятстват злоупотребата с AI за манипулация на избори. Това може да включва водни знаци в AI-генерираните материали, както вече се обсъжда (така че всяко изображение, произведено от DALL-E или Midjourney, да има вграден подпис). Могат и да контролират курирането на тренировъчните данни – например да гарантират, че моделите им са обучени да отказват заявки за вредно имитиране на реални личности. Вече някои AI инструменти отказват да генерират дийпфейк изображения на политически фигури заради вградени филтри за съдържание. Тези защитни механизми трябва непрекъснато да се подобряват (макар че отворените модели представляват предизвикателство, тъй като могат да бъдат преподобрявани от злонамерени лица без такива ограничения). Разработчиците на AI следва да инвестират и в изследвания за техники за откриване на дийпфейкове и да ги споделят с общността. Положителен знак е, че много водещи AI фирми доброволно подкрепиха водните знаци и удостоверяване на съдържание. В бъдеще те могат да си сътрудничат върху стандартен API, позволяващ на всяко видео или аудиофайл да се провери мигновено дали е генериран от някой от тези модели. В същността си, тези които създават „проблема“ (генеративната технология), трябва да помогнат и в създаването на „решенията“ (средства за разпознаване на нейната продукция).

6. Прозрачност в политическата реклама: Платформите, които показват политически реклами, трябва да прилагат строга прозрачност относно използването на AI. Ако във Facebook или Google се промотира предизборна реклама с AI-елементи, библиотеката с реклами на платформата трябва изрично да го отбелязва. Платформите дори могат да изискват от политическите рекламодатели да предоставят необработен, суров видеоматериал за сравнение. Още по-амбициозно, социалните мрежи биха могли временно да забранят всички политически реклами със синтетични медии през последните чувствителни дни на кампанията – подобно на забрана за нови политически реклами непосредствено преди изборите. Така ще се елиминира рискът от внезапен дийпфейк рекламен залп в последния момент. Въпреки че контролът е труден, принципът е, че платеното разпространение на фалшиво съдържание е особено опасно и платформите разполагат с по-голяма свобода да регулират реклама, отколкото обикновени потребителски публикации. Високата прозрачност и бързото премахване на подобни реклами е критично важно, тъй като дийпфейк, пуснат чрез платени реклами, може да достигне до милиони чрез алгоритмично таргетиране и несправедливо да изкриви информационната среда.

Медии и журналистически организации

1. Стриктни протоколи за проверка: Новинарските медии трябва да адаптират своите практики за верификация според дийпфейк ерата. Всяка редакция – от националните телевизии до местните вестници и сайтове за проверка на факти – трябва да създаде официални процедури за удостоверяване на аудио-визуален материал преди излъчване или публикуване. Това включва обучение на журналистите да използват форензични инструменти (напр. проверка на метаданните на видеото, анализ на изображенията) и да се консултират с експерти при нужда. При всяко сензационно или скандално видео, което се появи по време на избори, редакторите трябва да подхождат с здравословен скептицизъм и да не бързат да го разпространят без потвърждение. Медиите трябва да потърсят втори източник за всяко потребителско съдържание: например, ако излезе видео на кандидат с шокиращо поведение, медията трябва да търси допълнителни доказателства (очевидци, официални изявления и др.) или поне да направи кадър по кадър анализ, за да се увери, че не е дийпфейк. Целта е да не станат неволни разпространители на дезинформация. Похвално е, че някои медии вече създадоха вътрешни екипи за дийпфейк. В Аризона журналисти дори създадоха собствен дийпфейк (с разрешение), за да обучат зрителите колко лесно може да се манипулира видео knightcolumbia.org – умен начин да се повиши информираността. Всички редакции трябва да имат „дийпфейк експерт“ на разположение (или партньорство с тех-лаборатория) за бърз анализ на съмнителен материал. Ако верификацията стане рутинна като проверката на фактите, медиите могат да разпознаят фалшификатите навреме или поне да предупредят аудиторията си, ако нещо не е потвърдено.

2. Отговорно отразяване на дийпфейкове: Когато се отразяват случаи на синтетични медии, журналистите трябва да го правят внимателно и с контекст. Ако дийпфейк, насочен към кандидат, стане вирусен, новината не са самите фалшиви твърдения, а фактът, че става въпрос за манипулация. Медиите трябва да се въздържат от детайлно повтаряне на фалшивите обвинения или безкритичното излъчване на фалшификата, тъй като така може неволно да мултиплицират дезинформацията. Вместо това могат да го опишат обобщено и да се съсредоточат върху реакцията (напр. „Манипулирано видео, съдържащо лъжливо твърдение за X, беше публикувано онлайн и опровергано от експерти“). Редакциите могат да замъгляват или да не дават директна връзка към дийпфейка в онлайн материалите cetas.turing.ac.uk, за да не водят трафик към него или позволяват злонамерено изтегляне и новоразпространение. Рамката на репортажа е важна: наблегнете на опита за измама и факта на дийпфейка, а не на неговите фалшиви наративи cetas.turing.ac.uk. Медиите трябва да подчертават и корекциите, и истината (например: „Не, политик Z не е казал това – видеото е AI фалшификат; ето какво всъщност каза“). Последователното прилагане на тази практика ще предпази обществото от разпространяването или вярата във фалшификати. Това е деликатен баланс между отразяване на дезинформацията (защото пренебрегването ѝ няма да я заличи) и случайното ѝ разпространяване. Могат да се разработят насоки, подобни на правилата за отразяване на мистификации или масови стрелби (при които някои детайли се омаловажават, за да се избегнат копиращи случаи), и за репортажи за дийпфейкове. Независимата преска организация във Великобритания (Independent Press Standards Organisation) беше призована да актуализира кодекса си по този въпрос cetas.turing.ac.uk.

3. Използване на технологии за автентичност в редакциите: Самите новинарски организации могат да се възползват от нововъзникващата инфраструктура за автентичност. Например, една медия би могла да възприеме инструментите на Content Authenticity Initiative, за да прикрепя криптографски удостоверения за съдържание към всички оригинални снимки и видеа, заснети от нейните журналисти. Това означава, че всякакви кадри, заснети например от оператор на Reuters или AP, могат да носят сигурен печат, който удостоверява произхода им и евентуални редакции. Надолу по веригата, когато хората видят видео от източник като Reuters, ще могат да проверят, че то не е манипулирано. Подобни мерки помагат да се твърди кое е истинско, предоставяйки на обществото източник на истина. Медиите също така трябва да си сътрудничат при изграждането на бази данни с известни deepfake-ове (и доказано автентично съдържание), които да помагат на проверителите на факти. Например, поддържането на хранилище с официални речи и интервюта може да помогне за бързо разобличаване на манипулиран клип чрез сравнение. Основните информационни агенции могат да координират действията си, за да алармират незабавно всички свои абонати, ако бъде засечен опасен deepfake – както изпращат спешни новини. Вътрешно, редакторите също трябва да са наясно, че политически опериращи лица може да се опитат да подадат фалшиви медии на журналистите (например, сигнал с „изтекъл“ запис, който всъщност е генериран с AI). Здравословният скептицизъм към всякакви цифрови материали с анонимен произход е препоръчителен.

4. Образоване на аудиторията: Медиите могат да играят голяма роля във възпитаването на избирателите относно синтетичните медии. Новинарски организации и журналисти трябва да подготвят обяснителни материали, интервюта с експерти и сегменти, които показват на публиката как се правят deepfake-ове и как да ги разпознава. Дeмистифицирайки технологията, се намалява нейното въздействие. Например, някои телевизионни репортажи през 2024 г. демонстрираха AI-клонирани гласове в ефир, за да покажат как измамно обаждане може да имитира гласа на ваш роднина. Също така, в предизборното отразяване може да има напомняния: „Ако в последния момент видите скандално видео за кандидат, бъдете внимателни – може да е фалшификат. Ето как да проверите…“. Медийни кампании за обществена информираност (възможно в партньорство с държавата или НПО) могат значително да повишат дигиталната грамотност. Журналистите трябва последователно да използват точна лексика: наричайки нещо „deepfake“ или „генерирано с AI невярно видео“, не просто „манипулирано видео“, за да се затвърди, че съществува нова категория. С течение на времето добре информираната публика по-рядко ще се подлъгва по фалшификати и по-настойчиво ще изисква доказателства. Медиите, като интерфейс между информацията и обществото, имат дълг да изграждат тази устойчивост.

5. Отчетност и изобличаване: И не на последно място, журналистите трябва да разследват и осветяват кой стои зад високопрофилни deepfake операции. Привличането на извършителите към обществена отговорност може да действа възпиращо за бъдещи злоупотреби. Ако съперническа кампания, чуждестранна „тролска ферма“ или конкретна онлайн група бъдат идентифицирани като източник на злонамерен deepfake, публикуването на тази информация ще добави стигма и риск към подобни тактики. Разследвания за създаването и финансирането на дезинформационни кампании могат да намалят тяхната ефективност. Също така, ако политик или публична фигура сподели deepfake, знаейки че е фалшив (например кандидат си туитне фалшиво видео на опонент), медиите трябва твърдо да назоват това – обработвайки го като сериозно нарушение на етиката. Перспективата за негативно медийно отразяване и навреда на репутацията може да възпре политическите актьори от подобни „мръсни трикове“. Накратко, кучешката функция на журналистиката се простира и в дигиталната ера: разследвай, идентифицирай и разобличавай злонамерени операции със синтетични медии както би направил с всяка друга измама или корупция в политиката.

Гражданско общество и инициативи на избирателите

1. Дигитална грамотност и общностно образование: Гражданските организации – включително НПО, библиотеки, университети и местни групи – могат да водят борбата по образоване на гражданите за ориентиране в ерата на deepfake. Трябва да се предлагат мащабируеми програми на общностите как да проверяват медийно съдържание. Например, НПО могат да провеждат работилници, които учат хората на прости трикове като търсене по обратно изображение (за да се види дали снимката е генерирана с AI или е манипулирана), търсене на потвърждение от новинарски източници и използване на сайтове за проверка на факти. Вече съществуват отлични комплекти с инструменти и учебни програми, разработени от организации за проверка на факти (например First Draft, Media Literacy Now), които обхващат разпознаването на дезинформация и deepfake; те трябва да бъдат широко разпространявани. Това обучение не трябва да е насочено само към учениците, но и към по-възрастните хора, които често са по-уязвими на онлайн измами. Национални кампании за дигитална грамотност могат да бъдат организирани, евентуално финансирани от държавата, но изпълнявани от общностни организации, за да се гарантира доверие. Целта е да се повиши „колективният имунитет“ на обществото: ако критично мнозинство от хора могат да разпознаят фалшиво съдържание или поне да запазят съмнение преди проверка, дезинформаторите губят голяма част от силата си. Проучвания показват, че обществото иска тези знания – мнозина се тревожат, че не знаят как да разграничат истинското от фалшивото brennancenter.org brennancenter.org. Гражданското общество може да запълни тази празнина, като овластява гражданите чрез образование и практически умения.

2. Фактологични проверки и инициативи за опровергаване: Независимите проверители на факти и наблюдателските организации на гражданското общество ще останат от решаващо значение. Те трябва да се подготвят специално за предизборни периоди с инициативи като специализирани хъбове за проверка на deepfake. Например, коалиции на организации за проверка на факти могат да поддържат публично табло по време на избори, което следи слухове и нововъзникващи deepfake твърдения, предоставяйки бързи опровержения. News Literacy Project направи нещо подобно за изборите в САЩ през 2024 г., като документира случаи на дезинформация и отбелязва колко малко от тях всъщност са включвали AI knightcolumbia.org knightcolumbia.org. Този тип прозрачно проследяване помага на обществото и журналистите да виждат цялата картина и да не преувеличават заплахата, като същевременно адресират реалните случаи. Гражданските организации могат също така да публикуват опровержения в социалните мрежи – например, да реагират на вирусни постове с коректна информация, подпомогнати от community notes или други функции. Трябва да се насърчава и т.нар. „предварително опровергаване“ (“prebunking”): обществеността да бъде предупредена предварително, че може да се появи фалшификат. Например, ако разузнаването или минали модели сочат, че даден кандидат може да е обект на фалшив скандал, граждански групи (в координация с изборните власти) могат да предупредят избирателите: „Бъдете скептични, ако внезапно видите шокиращо видео за X, има вероятност за deepfake.“ Проучвания показват, че предварителното опровергаване може значително да намали доверчивостта и разпространението на фалшиви твърдения cetas.turing.ac.uk cetas.turing.ac.uk. Следователно, проактивният подход на гражданското общество, който предвижда и предотвратява deepfake кампании, може да се окаже много ефективен.

3. Граждански технологии и колективно откриване: Технологично напредналата общност от граждани може да бъде мобилизирана в борбата с deepfake-овете. Вече съществуват доброволчески „ловци на deepfake“, които анализират подозрително съдържание онлайн. Гражданското общество може да организира тези усилия чрез платформи – например, специален портал или приложение, където хората могат да подават съмнителни видеа или аудио за анализ и мрежа от експерти или AI инструменти предоставя отчет за автентичност. Този интелект, базиран на масово участие, може да допълни официалните усилия. Освен това, организации за граждански технологии могат да разработят браузърни разширения или мобилни приложения, които помагат на потребителите да идентифицират синтетични медии. Например, приложение може да позволи на потребителя да избере видео на екрана си и да получи моментален анализ от няколко алгоритъма за откриване (като нещо подобно на антивирусна програма, но за deepfake). Макар и не безпогрешно, това може да вдига червен флаг. Отворените усилия за създаване на такива инструменти трябва да бъдат подкрепяни с грантове. Друга идея са горещи телефонни линии за подаване на сигнали от граждани – подобно на горещи линии в изборния ден, може да има канал за сигнализиране на подозрителни дезинформации или deepfake-ове, които се препращат към изборните власти или проверителите на факти за реакция. Като ангажираме гражданите като активни участници в откриването и докладването на подозрително съдържание, мащабът на мониторинг значително нараства. Този децентрализиран подход отчита, че в общество от милиони онлайн някой често ще забележи нещо рано – ключовото е тези наблюдения бързо да стигат до онези, които могат да ги проверят и оповестят истината.

4. Призив за отчетност на платформите: Гражданското общество трябва да продължи да настоява технологичните платформи и AI компаниите да се държат отговорно. Обществени организации и мозъчни тръстове са ключови за изтъкване на опасностите от deepfake и за стимулиране на реформи (например Access Now, EFF и други са публикували препоръки). Тази активност трябва да продължи – настояването платформите да прилагат по-добрите мерки, посочени по-горе (по-добро етикетиране, премахване и др.), както и натискът производителите на AI да приемат етика при проектирането. Кампанията на Public Citizen за проследяване на щатското законодателство относно deepfake-ове и петицията до FEC е един пример citizen.org citizen.org. По подобен начин, коалиции могат да настояват за прозрачност от платформите: изисквайки те да публикуват данни за това колко AI съдържание има в техните сайтове или колко ефективно е откриването му. Гласовете на гражданското общество също могат да допринесат новите закони и регулации реално да пазят гражданските свободи (например, противопоставяйки се на твърде широки правила, които биха могли да потиснат свободата на словото под предлог борба с deepfake-овете). Търсенето на баланс изисква обществено обсъждане, а адвокационните групи представляват гражданите в тези дебати. През следващите години може да се появят нови регулаторни рамки за AI и онлайн съдържание – жизненоважно е демократичните ценности и принципите за човешки права да бъдат спазени, а гражданското общество е ключов страж в тази роля.

5. Подкрепа за жертви и потърпевши: Ако кандидат или частно лице стане обект на очерняне чрез дипфейк, гражданското общество може да окаже подкрепа. Неправителствени организации биха могли да предоставят правна помощ или съвети как да се премахнат клеветнически дипфейкове и да се потърси отговорност от извършителите. Може да има телефони за помощ на жертви на дипфейк порнография или характероубийство, които да ги свързват с органите на реда и ресурси за психично здраве. При кандидат, атакуван чрез компромат, граждански организации (като съюзи на жените избиратели или групи за почтеност на изборите) могат да помогнат като усилят тяхното опровержение и опровергаването на фалшивата информация, за да минимизират вредата. Бързата защита на някой, който е бил неправомерно набелязан — осигурявайки истината да е по-силна от лъжата — е дейност, която общностни и правозащитни групи могат да координират, както често вече правят в борбата с клевета или език на омразата. На по-широко ниво гражданското общество може да насърчи междупартийни ангажименти, че ако се появи дипфейк, всички страни ще го осъдят. Представете си ангажимент, който всички основни партии в една държава подписват, обещавайки да не използват дипфейкове и да осъждат бързо всяка злонамерена фалшификация. Такива норми, подкрепени от организации като междупартийни избирателни комитети или етични НПО, биха намалили рисковете от „надпревара към дъното“, при която партиите се чувстват принудени да отговарят със същото. Това създава единен фронт, който атаките срещу истината няма да бъдат толерирани, независимо срещу кого са насочени.

В заключение, справянето с предизвикателството на дипфейковете изисква да се използват всички защити на обществото — технологични, правни, институционални и човешки. Изпълнявайки посочените по-горе стъпки, правителствата могат да укрепят избирателната система срещу фалшификации с изкуствен интелект, технологичните платформи могат да ограничат разпространението на фалшиво съдържание, медиите могат да гарантират надмощие на истината в отразяването, а гражданите да станат внимателни пазители на реалността. Няма време за губене: с напредъка на генеративния ИИ изборният цикъл през 2025 г. ще изпита устойчивостта на демокрациите срещу синтетичните лъжи. Добрата новина е, че не сме беззащитни. С подготовка, прозрачност и сътрудничество можем да надхитрим и надорганизираме кампаниите с дипфейкове, запазвайки почтеността на нашите избори. Както се заключава в изследователски доклад на CETaS за ИИ и изборите, „самодоволството не трябва да се прокрадва в процеса на вземане на решения“ — вместо това трябва да използваме настоящия момент, за да изградим устойчивост cetas.turing.ac.uk cetas.turing.ac.uk. Така ще отстояваме принципа, че докато технологиите се развиват, нашите демократични ценности — истина и доверие — ще останат непоклатими.

Източници

  1. Стокуел, Сам и др. „AI-Enabled Influence Operations: Safeguarding Future Elections.“ CETaS (Алан Тюринг институт) изследователски доклад, 13 ноември 2024 г. cetas.turing.ac.uk cetas.turing.ac.uk
  2. Стокуел, Сам и др. Пак там (CETaS доклад, 2024), раздел 2.1 за дипфейкове в изборите в САЩ. cetas.turing.ac.uk cetas.turing.ac.uk
  3. Бомон, Хилари. „‘Липса на доверие‘: как дипфейковете и ИИ могат да разтърсят изборите в САЩ.“ Al Jazeera, 19 юни 2024 г. aljazeera.com aljazeera.com
  4. Сзе-Фунг Лий. „Канада се нуждае от закон за дипфейк веднага.“ Policy Options, 18 март 2024 г. policyoptions.irpp.org policyoptions.irpp.org
  5. Голдщайн, Джош А. и Андрю Лон. „Deepfakes, Elections, and Shrinking the Liar’s Dividend.“ Brennan Center for Justice, 23 януари 2024 г. brennancenter.org
  6. „Синтетични медии.“ Уикипедия (достъп 2025 г.). en.wikipedia.org en.wikipedia.org
  7. „Дипфейк.“ Kaspersky IT Енциклопедия (2023 г.). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
  8. Хамиел, Нейтън. „Дипфейковете се оказаха различна заплаха. Ето как да се защитим.“ World Economic Forum, 10 януари 2025 г. weforum.org weforum.org
  9. „Регулация на AI дипфейкове и синтетични медии в политическата арена.“ Brennan Center for Justice, 4 октомври 2023 г. brennancenter.org brennancenter.org
  10. Колман, Бен. „Актът на ЕС за ИИ и засилващата се нужда от откриване на дипфейкове.“ Reality Defender Blog, 11 февруари 2025 г. realitydefender.com realitydefender.com
  11. „Tracker: Законодателство на щатско ниво относно дипфейкове в изборите.“ Public Citizen, 2025 г. citizen.org citizen.org
  12. Partnership on AI. „Synthetic Media and Deepfakes – Case Study: Slovakia 2023.“ (Отразен в анализа на Knight Columbia). brennancenter.org brennancenter.org
  13. Капур, Саяш & Арвинд Нараянан. „Прегледахме 78 изборни дипфейка. Политическата дезинформация не е AI проблем.“ Knight First Amendment Institute, 13 декември 2024 г. knightcolumbia.org knightcolumbia.org
  14. Доклад CETaS (2024), Политически препоръки (насочени към Великобритания). cetas.turing.ac.uk cetas.turing.ac.uk
  15. Доклад CETaS (2024), Препоръки за откриване и произход. cetas.turing.ac.uk cetas.turing.ac.uk
  16. Public Safety Canada. „Защита срещу дезинформация, задвижвана от ИИ“ (кратко резюме, 2023 г.). policyoptions.irpp.org policyoptions.irpp.org
  17. InnovationAus. „Забраната на правителството за изборни дипфейкове ще се ‘проточи’ до 2026.“ (Австралия), 2023 г. innovationaus.com
  18. Допълнителни източници: Статии на Reuters, Wired и CNN, цитирани в по-горните източници за конкретни инциденти (напр. дипфейкът със Зеленски, измамата в Хонконг за 25 млн. долара чрез дипфейк по Zoom weforum.org), както и потребителски предупреждения от FTC за гласови измами weforum.org. Те са включени в анализа и достъпни чрез посочените линкове към източниците.

Вашият коментар

Your email address will not be published.

Latest Posts

Don't Miss

Boise’s 2025 Housing Market EXPLOSION: Skyrocketing Prices, Rental Frenzy & Expert Forecasts

Експлозия на жилищния пазар в Бойзи през 2025: Небесни цени, лудост при наемите и експертни прогнози

Имoтният пазар на Бойзи през 2025 година остава изключително конкурентен. Средните
Barcelona’s 2025 Real Estate Boom: Record Prices, Hotspots and Future Forecasts

Недвижим имот бумът в Барселона през 2025 г.: рекордни цени, горещи точки и бъдещи прогнози

Имoтният пазар в Барселона през 2025 г. е в разгара