Syntetyczne media i deepfake’i: Ochrona cyklu wyborczego 2025

30 czerwca, 2025
Synthetic Media and Deepfakes: Safeguarding the 2025 Election Cycle

Postępy w dziedzinie sztucznej inteligencji umożliwiły tworzenie syntetycznych mediów – treści generowanych lub modyfikowanych przez AI – na niespotykaną dotąd skalę. W związku ze zbliżającym się cyklem wyborczym 2025 roku w państwach demokratycznych, urzędnicy i eksperci biją na alarm w sprawie dezinformacji napędzanej przez AI. W niedawnym badaniu 85% Amerykanów wyraziło obawy dotyczące „wprowadzających w błąd wideo i audio deepfake’ów” wpływających na wybory brennancenter.org. Nagłówki prasowe ostrzegają, że generowane przez AI „deepfake’i” mogą doprowadzić do chaosu w kampaniach i utraty zaufania wyborców brennancenter.org, co podkreśla pilność ochrony integralności wyborów. Niniejszy raport analizuje, czym są media syntetyczne i deepfake’i, jak zagrażają demokracji oraz jakie rozwiązania – od technologii po politykę – mogą pomóc zabezpieczyć wybory w 2025 roku i później.

Czym są media syntetyczne i deepfake’i?

Media syntetyczne to szerokie pojęcie oznaczające cyfrowe treści (obrazy, wideo, audio, tekst), które są sztucznie stworzone lub zmodyfikowane automatycznie, zwłaszcza przez algorytmy AI en.wikipedia.org. Dzisiejsze systemy generatywnej AI potrafią tworzyć realistyczne, przypominające człowieka treści w każdej formie – od zdjęć ludzi, którzy nigdy nie istnieli, po sklonowane głosy i artykuły pisane przez AI. Deepfake’i to szczególna podgrupa mediów syntetycznych: wysoce realistyczne fałszywe obrazy, wideo lub nagrania audio stworzone przez AI („deep” learning + „fake”), które naśladują prawdziwe osoby encyclopedia.kaspersky.com. W praktyce deepfake może być wideo, gdzie twarz polityka zostaje przekonująco nałożona na ciało innej osoby, lub audio naśladujące głos kandydata wypowiadającego słowa, których nigdy nie powiedział.

Jak powstają deepfake’i? Większość z nich generuje się przy wykorzystaniu zaawansowanych technik głębokiego uczenia. Popularnym podejściem są generatywne sieci przeciwstawne (GANs) – dwa współzawodniczące ze sobą sieci neuronowe icct.nl. Jedna sieć (generator) tworzy fałszywe media (np. obraz twarzy), a druga (dyskryminator) próbuje wykryć, czy są prawdziwe. Przez tysiące iteracji generator uczy się tworzyć coraz bardziej realistyczne treści, aż dyskryminator nie jest już w stanie ich odróżnić icct.nl. Początkowo stworzenie wiarygodnego deepfake’a wymagało ogromnych zbiorów danych i mocnego sprzętu – np. eksperyment z deepfake’iem Toma Cruise’a trwał dwa miesiące na wysokiej klasy GPU icct.nl. Jednak narzędzia szybko się rozwijają. Zaawansowane oprogramowanie deepfake jest dziś szeroko dostępne i szybsze, czasem nawet działa w czasie rzeczywistym (np. zmieniając na żywo obraz z kamery czy rozmowę głosową) encyclopedia.kaspersky.com. Oprócz GANów, wykorzystuje się inne architektury AI: modele transformer generują tekst deepfake lub wspierają klonowanie głosu encyclopedia.kaspersky.com. Podsumowując, ostatnie przełomy w AI sprawiły, że oszukańcze treści audio-wizualne może dziś stworzyć łatwo i tanio prawie każdy – co dramatycznie obniża barierę do uruchomienia operacji dezinformacyjnych.

Warto podkreślić, że nie każda media syntetyczne powstają w złych zamiarach. Treści generowane przez AI mogą mieć pozytywne i kreatywne zastosowania – spersonalizowane awatary, dubbing głosu w innych językach, satyra czy rozrywka itp. Faktycznie, w trakcie wyborów na świecie w 2024 r. około połowa udokumentowanych użyć AI w polityce miała nie wprowadzać w błąd (np. kandydat jawnie korzystał z AI-owego głosu z powodu utraty własnego, dziennikarze korzystali z awatara AI w celu ochrony tożsamości) knightcolumbia.org knightcolumbia.org. Ten raport koncentruje się jednak na złowrogiej stronie mediów syntetycznych – deepfake’ach używanych do wprowadzania w błąd, oszukiwania lub manipulacji wyborcami i opinią publiczną.

Zagrożenia dla procesów demokratycznych

Media syntetyczne i deepfake’i stanowią istotne zagrożenie dla demokracji, zwłaszcza podczas wyborów, kiedy kluczowe są świadomy elektorat i zaufanie do informacji. Główne ryzyka obejmują:

  • Dezinformacja i manipulacja wyborcami: Fałszywe wideo, obrazy lub audio wygenerowane przez AI mogą służyć do rozpowszechniania fałszywych informacji o kandydatach lub sprawach, wprowadzając wyborców w błąd. Na przykład deepfake może pokazywać kandydata wypowiadającego kontrowersyjne słowa, których nigdy nie powiedział. Tak spreparowane materiały mogą zatruć publiczną debatę fałszami. Eksperci ostrzegają, że deepfake’i „stanowią wysokie ryzyko” dla wyborców, wprowadzając fałszywe treści w kampanie i podważając zaufanie publiczne aljazeera.com. Przekonująco spreparowany film wypuszczony tuż przed dniem wyborów – bez czasu na weryfikację przez factcheckerów – może wpłynąć na niezdecydowanych i zaniżyć frekwencję, potencjalnie zmieniając wynik citizen.org. To nie tylko teoretyczne zagrożenie: jak opisano dalej, w 2024 roku audio deepfake podszyło się pod prezydenta USA, nawołując wyborców do pozostania w domu, co najwyraźniej miało zniechęcić do głosowania aljazeera.com aljazeera.com.
  • Utrata zaufania („dywidenda kłamcy”): Już sama obecność deepfake’ów może podkopywać zaufanie publiczne do autentycznych informacji. Wyborcy mogą zacząć wątpić w prawdziwe dowody, nie będąc pewni, czy wiralowe wideo jest prawdziwe czy to tylko fałszerstwo AI. Co gorsza, nieuczciwi mogą to wykorzystać: prawdziwe kompromitujące nagrania mogą być odrzucane jako „zwykły deepfake”, co pozwala uniknąć odpowiedzialności. Naukowcy nazwali to zjawisko „dywidendą kłamcy” – im większa świadomość deepfake’ów, tym łatwiej kłamcom kwestionować autentyczność nawet prawdziwych nagrań brennancenter.org. Wzrost świadomości siły AI sprawia, że polityk złapany na gorącym uczynku łatwiej oszuka wyborców, przedstawiając kompromitujące nagrania jako spreparowane przez AI brennancenter.org. Ta sytuacja zagraża podstawowemu zaufaniu, na którym opiera się demokratyczna debata. Obserwatorzy wyborów zauważyli, że w 2024 roku niektórzy kandydaci i ich zwolennicy z góry krzyczeli „fałszerstwo AI”, by odrzucić niewygodne informacje brennancenter.org brennancenter.org. Jeśli obywatele poczują, że „nie można wierzyć niczemu, co się widzi lub słyszy”, podważy to wspólną rzeczywistość niezbędną do wolnych i uczciwych wyborów cetas.turing.ac.uk cetas.turing.ac.uk.
  • Wzmacnianie polaryzacji i konfliktów: Dotychczasowe dowody sugerują, że propaganda deepfake zwykle wzmacnia już istniejące uprzedzenia, zamiast przekonywać osoby z innych obozów cetas.turing.ac.uk. Złośliwe treści AI najchętniej są podchwytywane i rozpowszechniane przez osoby już zaangażowane, co wzmacnia bańki informacyjne. Podczas wyścigu prezydenckiego w USA w 2024 roku naukowcy ustalili, że fałszywe treści AI służyły głównie do podbijania partyjnych narracji i zaostrzały debaty, a nie do przekonywania nowych wyborców cetas.turing.ac.uk. Przykładowo, fałszywe nagrania wymierzone w prezydenta Bidena czy wiceprezydent Harris wygenerowały miliony wyświetleń w internecie i były rozpowszechniane głównie przez osoby już im nieprzychylne cetas.turing.ac.uk cetas.turing.ac.uk. Dostarczając ideologicznym obozom dramatycznych dowodów „zdrady” przeciwnika, deepfake’i mogą oddalać grupy od siebie i zatruwać klimat kampanii. W chaosie i niepewności, które sieją deepfake’i, łatwiej też kwitną teorie spiskowe cetas.turing.ac.uk, bo łatwiej odrzucić każdą niewygodną prawdę jako sfałszowaną przez AI.
  • Podkopywanie administracji wyborczej: Ryzyko dotyczy nie tylko wprowadzania w błąd wyborców na temat kandydatów – deepfake’i mogą również zakłócać sam proces wyborczy. Eksperci przewidują scenariusze, w których AI-owe klony głosu lub fałszywe wiadomości mogą podszywać się pod komisje wyborcze, nakazując pracownikom wcześniejsze zamknięcie lokalu lub podając wyborcom fałszywe instrukcje (np. „wybory zostały przełożone”) aljazeera.com. Wyrafinowani przeciwnicy mogą symulować komunikaty od komisji wyborczych lub głos lokalnego urzędnika, by sabotować głosowanie. Takie taktyki mogą obniżyć frekwencję lub wywołać chaos w dniu wyborów. Brennan Center w USA zauważa, że spreparowane media mogą wprowadzać w błąd nie tylko społeczeństwo, ale też członków komisji, co wymaga nowych szkoleń i procedur aljazeera.com.
  • Nękanie i niszczenie reputacji: Deepfake’i to także potężne narzędzie do ataków osobistych na kandydatów, aktywistów czy dziennikarzy. Szczególnie groźną kategorią jest niekonsensualna pornografia syntetyczna – wklejenie twarzy ofiary w treści o charakterze seksualnym. Ta taktyka już teraz jest używana do nękania kobiet-dziennikarek i polityczek na całym świecie. Najbardziej ekstremalną formą molestowania deepfake’ami są fałszywe intymne obrazy używane do upokorzenia lub szantażu weforum.org. W kontekście wyborczym można tuż przed głosowaniem wypuścić fałszywe kompromitujące nagranie (np. deepfake z sekstaśmą lub rzekome łamanie prawa przez kandydata). Nawet jeśli szybko obalone, szkoda wizerunkowi może być nieodwracalna. Kobiety i mniejszości szczególnie często padają ofiarą tych „syntetycznych kampanii oszczerstw”, które mogą zniechęcać do kandydowania policyoptions.irpp.org policyoptions.irpp.org. Podsumowując, deepfake’i dostarczają nowego paliwa dla starych, nieczystych zagrywek – od fałszywych skandali po zmyślone cytaty – wzmacniając próby niszczenia reputacji w wyborach.

Na koniec, warto zauważyć, że jak dotąd nie byliśmy świadkami katastrofy wyborczej spowodowanej przez deepfake. Empiryczne analizy wyborów 2024 na świecie wykazały, że brakuje dowodów, by dezinformacja generowana przez AI zmieniła jakikolwiek wynik wyborów cetas.turing.ac.uk weforum.org. Tradycyjna dezinformacja (tanie „cheapfake’i”, plotki, partyjna propaganda) była znacznie ważniejsza w rozpowszechnianiu fałszywych informacji niż zaawansowane deepfake’i knightcolumbia.org knightcolumbia.org. Eksperci przestrzegają jednak, że brak katastrofy dotychczas nie powinien uspokajać cetas.turing.ac.uk weforum.org. Technologia rozwija się szybko, a wrogowie się uczą. Nawet jeśli deepfake’i nie przeważyły o wielkim wyścigu w 2024 roku, to wpłynęły na debatę – np. viralowe fałsze generowane przez AI stały się tematami w publicznej dyskusji cetas.turing.ac.uk. Ponadto już samo poczucie zagrożenia deepfake’ami podsycało niepokój i nieufność wobec wyborów cetas.turing.ac.uk cetas.turing.ac.uk. Potencjał na poważniejszy incydent nadal istnieje, zwłaszcza w kontekście kluczowych wyborów w 2025 roku. Dlatego demokratyczne społeczeństwa muszą traktować deepfake’i jako poważne zagrożenie dla bezpieczeństwa i integralności – zarówno w aspekcie bezpośredniego ryzyka fałszywych mediów, jak i szerszego osłabiania prawdy w sferze wyborczej.

Niedawne incydenty: Głębokie fałszywki zakłócające politykę

Przypadki z ostatnich kilku lat pokazują, jak media syntetyczne zostały już użyte jako broń w kontekście politycznym. Poniżej omawiamy kilka znaczących incydentów i studiów przypadku związanych z głębokimi fałszywkami i dezinformacją generowaną przez AI, które wpłynęły na przebieg wyborów lub debatę publiczną:

  • Ukraina (marzec 2022) – Wideo „Poddać się”: W początkowej fazie rosyjskiej inwazji na Ukrainę pojawiło się wideo, na którym prezydent Ukrainy Wołodymyr Zełenski miał wzywać żołnierzy do złożenia broni i poddania się. Wideo było głęboką fałszywką – wizerunek i głos Zełenskiego zostały sztucznie zmodyfikowane icct.nl. Charakterystyczne defekty (rozmyte krawędzie, niepasujący odcień szyi) zdradziły manipulację, a ukraińskie media szybko zdemaskowały oszustwo. Ten incydent – pierwsze znane użycie deepfake’u w trakcie konfliktu zbrojnego – zapowiadał, jak AI mogłaby być wykorzystywana do podkopywania przywódców w trakcie kryzysów icct.nl. Choć fałszywe nagranie Zełenskiego nie zdołało zdemoralizować ukraińskiego oporu, pokazało motywację i zdolności wrogich aktorów (w tym przypadku podejrzewa się rosyjskich operacyjnych), którzy sięgają po deepfake’i do prowadzenia wojny informacyjnej.
  • Słowacja (wrzesień 2023) – Dezinformacja wyborcza: Na kilka dni przed wyborami parlamentarnymi na Słowacji nagrania audio będące deepfake’ami stały się viralem. Rzekomo przedstawiały Michala Šimečkę, lidera partii Progresywna Słowacja, wyznającego fałszerstwo wyborcze i proponującego nawet podwojenie ceny piwa brennancenter.org. W niektórych wersjach pojawiała się stonowana informacja o wygenerowaniu przez AI, ale zamieszczona była dopiero na końcu nagrania – prawdopodobnie celowo, by zmylić odbiorców brennancenter.org. Zbieżność czasowa była strategiczna – tuż przed głosowaniem. Partia Šimečki, opowiadająca się za kierunkiem prozachodnim, przegrała minimalnie z prorosyjskim rywalem, a niektórzy komentatorzy spekulowali, że ostatniej chwili kampania deepfake’owa mogła wpłynąć na wynik wyborów brennancenter.org. Ten przypadek pokazuje, jak aktorzy krajowi lub zagraniczni mogą wykorzystywać deepfake’i, by przechylić szalę zwycięstwa w wyrównanej walce i jak trudno jest skutecznie odpierać fałszywe narracje w końcowym etapie kampanii.
  • Tajwan (styczeń 2024) – Zagraniczne operacje wpływu: Przed wyborami prezydenckimi w Tajwanie w 2024 roku, obserwatorzy odnotowali chińską kampanię dezinformacyjną opartą na deepfake’ach mającą osłabić kandydata Lai Ching-te. W sieci krążyły fałszywe nagrania wideo pokazujące, jak Lai (z rządzącej, proniepodległościowej partii) wypowiada się w sposób sugerujący poparcie dla swoich rywali policyoptions.irpp.org. W jednym przypadku opublikowano generowane przez AI nagranie audio z głosem Lai, który miał rzekomo krytykować własną partię policyoptions.irpp.org, próbując rozbić jego elektorat. Te ataki medialne, powiązane z Chinami, miały na celu wpływanie na opinię publiczną i wprowadzenie zamętu w tajwańskiej demokracji policyoptions.irpp.org. Ostatecznie wybory wygrał Lai, a analitycy ocenili, że chińska kampania deepfake’owa nie wpłynęła istotnie na wynik policyoptions.irpp.org. Jednak był to wzorcowy przykład agresywnego państwa obcego stosującego propagandę AI przeciwko demokratycznym wyborom policyoptions.irpp.org policyoptions.irpp.org. Obawa pozostaje: w przypadku bardziej wyrównanych wyborów w innym kraju takie działania mogą mieć większy efekt.
  • Stany Zjednoczone (2024) – Deepfake’i w kampanii: W cyklu wyborczym 2024 w USA pojawiła się fala treści politycznych generowanych przez AI, które co prawda nie zrujnowały wyborów, ale wzbudziły poważny alarm. Na początku 2024 roku wyborcy w New Hampshire otrzymali niepokojący telefon automatyczny – głos przypominający prezydenta Joe Bidena, mówiący Demokratom: „Zachowaj swój głos, nie używaj go w tych wyborach.” Dla wielu słuchaczy głos brzmiał autentycznie, ale treść była oczywistym fałszem – Biden nigdy nie namawiałby wyborców do niegłosowania. W rzeczywistości był to sklonowany przez AI głos Bidena, wysłany do tysięcy wyborców w próbie zniechęcenia do udziału w wyborach aljazeera.com aljazeera.com. Ten incydent dotarł do około 5 000 numerów telefonów w New Hampshire i pokazał, jak łatwo i tanio można przeprowadzić podobne oszustwa – konsultant, który stworzył deepfake głosu Bidena, twierdził, że zajęło mu to tylko 20 minut i kosztowało około 1 dolara w zasobach obliczeniowych policyoptions.irpp.org policyoptions.irpp.org. W międzyczasie w mediach społecznościowych obrazy stworzone przez AI znalazły się oficjalnie w materiałach kampanii. Zauważalnym przykładem była reklama atakująca Donalda Trumpa stworzona przez zespół Floridzkiego gubernatora Rona DeSantisa, w której pokazano przerobione zdjęcia Trumpa obejmującego dr Anthony’ego Fauciego – miało to sugerować zbyt bliskie relacje z niepopularnym na prawicy doradcą do spraw COVID. Okazało się, że ujęcia Trumpa obejmującego Fauciego to sfałszowane obrazy AI umieszczone w materiale przez sztab brennancenter.org, co po wykryciu wywołało publiczną krytykę. W innym przypadku w sieci rozprzestrzeniło się AI-generowane nagranie Bidena „przemawiającego” do narodu niewyraźnym głosem, które szybko zdemaskowano. Niektóre fałszywe nagrania Bidena i wiceprezydent Harris osiągnęły milionowe wyświetlenia w mediach społecznościowych cetas.turing.ac.uk, pokazując, jak szybko takie treści się rozprzestrzeniają. Nawet giganci technologiczni angażowali się w takie działania: Elon Musk słynnie udostępnił prymitywnie spreparowane wideo wiceprezydent Harris (opisane jako „satira”), na którym rzekomo wypowiadała nonsensy – zacierając granicę między humorem a dezinformacją cetas.turing.ac.uk cetas.turing.ac.uk. Choć żaden z tych deepfake’ów nie zmienił fundamentalnie przebiegu wyborów, wzmacniały fałszywe narracje (np. co do sprawności umysłowej Bidena czy lojalności Trumpa) i dodatkowo zatruwały środowisko informacyjne. Amerykańscy urzędnicy wyrażali również zaniepokojenie wykorzystaniem deepfake’ów do ataków na infrastrukturę wyborczą – np. poprzez fałszywe nagrania głosowe rzekomo wydające nielegalne polecenia pracownikom komisji wyborczych aljazeera.com – choć w 2024 roku nie potwierdzono większego tego typu incydentu.

Te przykłady pokazują globalny zasięg zagrożenia. Głębokie fałszywki były wykorzystywane przez wrogie państwa w konfliktach geopolitycznych, przez prowokatorów w kampaniach od Europy po Azję, a także przez sztaby wyborcze i zwolenników w Stanach Zjednoczonych. Występują w formie fałszywych przemówień, zdjęć, rozmów telefonicznych czy nagrań wideo – wymierzonych zarówno w wyborców, jak i urzędników wyborczych. Dotychczasowe incydenty rodzą też pewne wnioski: wiele deepfake’ów było wykrywanych i demaskowanych dość szybko (często przez czujnych dziennikarzy lub fact-checkerów), a w kilku przypadkach reakcja opinii publicznej na stosowanie deepfake’ów (np. spot DeSantisa) przyniosła negatywny rozgłos sprawcom. To sugeruje, że transparentność i czujność mogą ograniczać skutki tych działań. Jednak trendu nie da się zatrzymać – tego typu syntetyczne fałszerstwa pojawiają się coraz częściej i coraz trudniej je natychmiast odróżnić od rzeczywistości. Każde kolejne wybory przynoszą nowe precedensy (2024: pierwsze „robocall” stworzone przez AI do manipulacji głosowaniem, pierwsze użycie deepfake’u w spotach kampanijnych, itd.), a ryzyko poważniejszego incydentu deepfake’owego rośnie w miarę zbliżania się do 2025 roku.

Wykrywanie i przeciwdziałanie deepfakom: narzędzia i technologie

Krytycznym elementem ochrony wyborów jest rozwijanie wiarygodnych narzędzi wykrywania i przeciwdziałania deepfakom. Naukowcy, firmy technologiczne i rządy ścigają się w tworzeniu technologii, które mogą wskazywać fałszerstwa AI i uwierzytelniać prawdziwe treści. Oto przegląd aktualnego krajobrazu narzędzi do wykrywania deepfake’ów i powiązanych środków zaradczych:

  • Automatyczne detektory deepfake: Główną linią obrony jest AI walcząca z AI – algorytmy uczone analizowania mediów i wykrywania subtelnych oznak manipulacji. Systemy te szukają drobnych artefaktów lub niezgodności pozostawionych przez modele generatywne. Wczesne deepfaki np. często miały nieregularne mruganie oczami lub niedoskonałą synchronizację ust. Dzisiejsze detektory używają głębokich sieci neuronowych do sprawdzania oświetlenia i cieni na twarzy, wzorców częstotliwości dźwięku czy sygnałów biologicznych (np. puls na wideo), których AI może nie być w stanie odtworzyć. Firmy technologiczne stworzyły własne narzędzia – np. Microsoft w 2020 roku udostępnił „Video Authenticator”, który mógł wykrywać fałszywe nagrania na podstawie analizy klatek. Platformy takie jak Facebook i X (Twitter) inwestują w badania nad wykrywaniem i wdrażają filtry wychwytujące znane fałszywe media. Inicjatywy akademickie i konkursy (jak Facebook Deepfake Detection Challenge czy konferencje IEEE) napędzają postęp, a startupy, takie jak Sensity i Reality Defender, oferują komercyjne usługi wykrywania deepfake’ów dla klientów. Jest to jednak wyścig zbrojeń: wraz z postępem wykrywania, twórcy deepfake’ów uczą się wytwarzać bardziej płynne fałszerstwa, które unikają automatycznych testów. Co ważne, raport Meta z 2023 roku wykazał, że ze wszystkich oznaczonych treści dezinformujących podczas cyklu wyborczego 2024, „mniej niż 1%” zidentyfikowano jako treści wygenerowane przez AI weforum.org, co sugeruje, że deepfaki są relatywnie rzadkie lub wiele z nich przeszło niezauważone przez wykrywanie.
  • Znakowanie wodne i pochodzenie treści: Inną strategią jest oznaczanie treści generowanych przez AI już na etapie ich powstawania, aby użytkownicy mogli je łatwo rozpoznać jako syntetyczne. UE mocno promuje to podejście – nowa ustawa EU AI Act wyraźnie nakłada obowiązek jasnego znakowania lub umieszczania znaków wodnych na każdej treści wygenerowanej lub zmanipulowanej przez AI realitydefender.com. Firmy musiałyby umieszczać znacznik (znak wodny lub metadane) na obrazie, nagraniu wideo czy audio wyprodukowanym przez AI. Teoretycznie przeglądarki czy portale społecznościowe mogłyby automatycznie oznaczać lub filtrować treści zawierające te znaczniki. Znakowanie wodne ma potencjał, zwłaszcza jako środek odstraszający przed przypadkowym nadużyciem. Najwięksi dostawcy modeli AI (OpenAI, Google i inni) rozważają dobrowolne wprowadzanie znaków wodnych w generowanych przez siebie obrazach czy tekstach. Ponadto koalicja organizacji medialnych i technologicznych pracuje nad standardami pochodzenia (np. C2PA, Coalition for Content Provenance and Authenticity), które kryptograficznie zapisują pochodzenie i historię edycji cyfrowych mediów. Przykładowo, zdjęcie prasowe czy spot wyborczy mogłyby zawierać bezpieczny certyfikat autentyczności pozwalający każdemu sprawdzić, kto jest twórcą i czy materiał nie był modyfikowany cetas.turing.ac.uk. Rząd USA przyjął to podejście; Biały Dom nakazał agencjom federalnym opracowanie wytycznych dla „autentyczności z założenia” – osadzania metadanych pochodzenia we wszystkich produkowanych przez siebie treściach cyfrowych do 2025 roku cetas.turing.ac.uk. Po szerokim wdrożeniu tego typu środki bardzo utrudniłyby fałszywym treściom udawanie prawdziwych.
  • Ograniczenia etykiet: Chociaż narzędzia transparentności są kluczowe, nie są niezawodne. Znaki wodne można usunąć lub zmodyfikować przez zdeterminowanych przeciwników. Naukowcy już pokazali metody usuwania lub zaciemniania znaków wodnych AI realitydefender.com, a złośliwy aktor budujący własny model generatywny może po prostu nie zamieszczać żadnych znaczników. Metadane pochodzenia też pomagają tylko wtedy, gdy wdrożenie jest powszechne i konsumenci rzeczywiście to sprawdzają. Twórca deepfake’ów może też użyć sztuczki „proweniencja-cwaniak” polegającej na nałożeniu fałszywych elementów na autentyczne zdjęcie lub wideo – końcowy plik nadal posiada cyfrowy podpis oryginału. Te wyzwania sprawiają, że nie możemy polegać wyłącznie na etykietach treści. Jak zauważyła jedna z firm zajmujących się bezpieczeństwem AI, znak wodny i metadane działają tylko wtedy, gdy twórca współpracuje przy oznaczaniu efektów swojej pracy – co nie powstrzyma zdeterminowanych przestępców realitydefender.com. Dlatego wykrywanie na podstawie analizy treści (poszukiwanie oznak manipulacji AI w samym materiale) pozostaje niezbędne realitydefender.com. Najlepszą obroną będzie zapewne połączenie obu podejść: solidnych automatycznych detektorów skanujących treści oraz systemów uwierzytelniania legalnych mediów.
  • Wykrywanie w czasie rzeczywistym dla wideo/streamingu audio: Nowym wyzwaniem są narzędzia, które potrafią wykryć deepfake w ustawieniach na żywo. Wyobraźmy sobie oszukańczą „na żywo” rozmowę wideo z kandydatem lub urzędnikiem – co miało miejsce w 2023 roku, gdy przestępcy w Hongkongu wykorzystali deepfake’a prezesa firmy na Zoomie, by autoryzować fałszywy przelew na 25 milionów dolarów weforum.org. W tym przypadku większość osób na połączeniu – w tym sobowtór CFO – była wygenerowana przez AI. Wykrycie takich fałszerstw „na żywo” jest ogromnym wyzwaniem. Firmy pracują nad rozwiązaniami w postaci wtyczek do wideokonferencji, które ostrzegą użytkownika, gdy obraz lub głos wygląda na syntetycznie zmienione (np. analizując opóźnienia i anomalie widmowe audio albo sprawdzając, czy ruchy twarzy na ekranie dokładnie odpowiadają rzeczywistej twarzy rejestrowanej kamerą). Niektóre startupy oferują API do wykrywania deepfake’ów w czasie rzeczywistym, które mogą być zintegrowane z platformami streamingowymi czy nawet uwierzytelniać mówców na wydarzeniach na żywo. Na razie jednak wykrywanie „na żywo” ustępuje napastnikom, a nacisk kładziony jest na środki prewencyjne (np. wykorzystanie haseł lub wspólnych „słów kodowych” w rozmowach telefonicznych w celu weryfikacji tożsamości, zgodnie z zaleceniami organów ścigania weforum.org).
  • Ręczne sprawdzanie faktów i flagi społeczności: Technologia sama nie wystarczy. Czujna ludzka warstwa pozostaje kluczowa. Organizacje medialne, zespoły fact-checkingowe i platformy powołały specjalne zespoły monitorujące wirusowe deepfaki podczas okresów wyborczych. Wykorzystują one OSINT (open source intelligence) i narzędzia śledcze do analizy podejrzanych materiałów – np. sprawdzają znaczniki czasu, szukają niezgodności (jak różne kolczyki polityka na nagraniu czy dziwne ruchy ust) i natychmiast publikują obalające sprostowania. Pomagają także akcje crowdsourcingowe: na X/Twitterze funkcja „Community Notes” była używana do flagowania postów zawierających wygenerowane przez AI obrazy lub wideo z doprecyzowującym komentarzem. W trakcie ostatnich wyborów użytkownicy często ujawniali deepfaki w ciągu godzin od ich pojawienia się, publikując porównania lub wskazując błędy materiału. Tego rodzaju zbiorowa czujność, wspierana przez edukację cyfrową, jest potężnym narzędziem. Platformy coraz szerzej opierają się na użytkownikach i niezależnych fact-checkerach do identyfikowania wątpliwych treści przy takim wolumenie, jaki muszą przeskanować automatyczne filtry. Wadą tego podejścia jest to, że deepfake może stać się wiralowy zanim zostanie zdementowany. Poprawa szybkości reakcji i szerzenie świadomości (by więcej użytkowników potrafiło samodzielnie rozpoznać fałszywkę) ograniczy jednak szkody.

Podsumowując, wykrywanie deepfake’ów to obszar aktywnie rozwijający się. Osiągane są postępy – np. dzisiejsze detektory są znacznie lepsze niż w 2018, a inicjatywy takie jak Content Authenticity Initiative mają ustandaryzować weryfikację. Wciąż jednak pojawiają się wyzwania – zwłaszcza z powodu „gry w kotka i myszkę” z fałszerzami oraz potrzeby szerokiego wdrożenia narzędzi. Przyszłe lata prawdopodobnie przyniosą integrację technologii wykrywania z platformami społecznościowymi, redakcjami i nawet z urządzeniami (wyobraźmy sobie smartfon ostrzegający, że odbierane wideo mogło powstać dzięki AI). Kluczowe jest jednak połączenie narzędzi wykrywania i pochodzenia z edukacją społeczną, by gdy pojawi się ostrzeżenie czy etykieta, użytkownicy rozumieli i odpowiednio reagowali. Ta sfera technologiczna stanowi tylko jeden z filarów szerszej strategii przeciwdziałania zagrożeniom związanym z mediami syntetycznymi.

Odpowiedzi polityczne i ramy regulacyjne

Decydenci na całym świecie zdali sobie sprawę z zagrożenia deepfake’ami i zaczęli tworzyć przepisy oraz regulacje, by im przeciwdziałać. Choć problem jest nowy, w głównych demokracjach pojawia się mozaika odpowiedzi. Poniżej przedstawiamy przegląd działań legislacyjnych i regulacyjnych w toku:

  • Stany Zjednoczone: W USA obecnie nie ma ogólnokrajowego prawa federalnego zakazującego politycznych deepfake’ów, ale rośnie presja, by to zmienić. Do Kongresu trafiło wiele projektów ustaw mających na celu ograniczenie szkodliwych deepfake’ów. Przykładowo, na początku 2024 roku zaproponowano ustawę No AI FRAUD Act w reakcji na głośne incydenty (np. obraźliwe grafiki znanych osób wygenerowane przez AI) policyoptions.irpp.org. Celem tej ustawy jest wprowadzenie federalnych ram karnych dotyczących takich nadużyć jak oszukańcze deepfaki polityczne i fałszywa pornografia policyoptions.irpp.org. Dyskutuje się także na temat obowiązku ujawniania treści AI w reklamach wyborczych (kampanie musiałyby wtedy wyraźnie oznaczać reklamy zawierające media syntetyczne). Federalna Komisja Komunikacji (FCC) podjęła zaś punktowy krok, zakazując wykorzystywania klonów głosów AI w automatycznych połączeniach telefonicznych służących oszustwom lub szkodom policyoptions.irpp.org. Bezpośrednim powodem były oszustwa, w których naśladowano głosy prawdziwych osób. Ruch FCC sprawia, że telemarketerzy czy działacze polityczni mają zakaz używania syntetycznych głosów wprowadzających odbiorców w błąd. Duża część regulacji deepfake’ów rozwija się na poziomie stanowym. Od 2019 roku Stany, takie jak Kalifornia, Teksas i inne, przyjęły własne prawo adresujące deepfaki wyborcze. Kalifornia zabrania rozpowszechniania materiałów wideo z kandydatami wprowadzających w błąd w ciągu 60 dni przed wyborami (z wyjątkami dla satyry i parodii) brennancenter.org. W Teksasie stworzenie lub rozpowszechnianie deepfake wideo mające zranić kandydata lub wpłynąć na wyborców jest przestępstwem brennancenter.org. Do połowy 2025 roku co najmniej czternaście stanów USA przyjęło bądź rozważa przepisy regulujące deepfaki w kontekście wyborczym citizen.org. Co ważne, te inicjatywy cieszą się ponadpartyjnym poparciem – ustawodawcy niezależnie od opcji politycznej uznają, że manipulacje wyborcze AI zagrażają demokracji citizen.org citizen.org. Prawo stanowe przyjmuje różne podejścia – od kar za publikację szkodliwych deepfake’ów o kandydacie po nakaz umieszczania ostrzeżeń przy syntetycznych mediach w reklamach wyborczych. Grupa Public Citizen wezwała też Federalną Komisję Wyborczą, by zakazać kandydatom federalnym rozpowszechniania zwodniczych deepfake’ów w kampaniach brennancenter.org. Choć FEC nie wydała jeszcze nowych zasad, temat jest aktualny. Ustawodawcy w USA muszą też ważyć wolność słowa – zbyt szerokie zakazy mogą kolidować z Pierwszą Poprawką. Satyra i parodia (chronione wypowiedzi polityczne) często posługują się zmodyfikowanymi mediami; ustawy muszą celować tylko w szkodliwą manipulację. Wiele stanowych regulacji wyraźnie przewiduje wyjątki dla parodii, satyry czy użytku dziennikarskiego brennancenter.org brennancenter.org. Generalnym konsensusem jest jednak to, że fałszywe treści AI celowo wprowadzające wyborców w błąd lub podżegające do niepokojów nie mają miejsca w demokracji i ich ograniczenie nie narusza wolności wypowiedzi brennancenter.org brennancenter.org.
  • Unia Europejska: UE agresywnie podchodzi do szerokiej regulacji AI, w tym rozwiązań bezpośrednio dotyczących deepfake’ów. Przełomowy EU AI Act, przyjęty w 2024 roku (ze wszystkimi zapisami od 2026, niektóre wcześniej), wprowadza obowiązek transparentności dla mediów syntetycznych. Zgodnie z nim każdy system AI, który może generować „deepfaki”, musi zadbać, by treść była oznaczona jako wygenerowana przez AI (z wyjątkiem niektórych dziedzin jak sztuka czy badania naukowe) realitydefender.com. Praktycznie deweloperzy modeli generujących obrazy czy wideo będą w UE prawnie zobowiązani do wbudowania znakowania wodnego lub metadanych sygnalizujących syntetyczne pochodzenie. Niewywiązanie się grozi wysokimi karami. Zaktualizowany Code of Practice on Disinformation (dobrowolny kodeks podpisany przez największe platformy internetowe) wyodrębnia deepfake jako zagrożenie i zobowiązuje platformy do opracowania „polityk, środków i narzędzi przeciwdziałających manipulowanym treściom” brennancenter.org brennancenter.org. Przykładowo, platformy zobowiązały się do wprowadzania systemów wykrywania i oznaczania lub usuwania deepfake’ów wideo mogących wywołać szkody społeczne i do współpracy z fact-checkerami w szybkim demaskowaniu fałszowanych treści AI. Na mocy Digital Services Act (DSA) – obowiązującego od 2023 roku – bardzo duże platformy internetowe w UE muszą oceniać i ograniczać „systemowe ryzyka”, w tym rozprzestrzenianie się dezinformacji AI. Pod presją regulacyjną firmy jak Meta, Google czy TikTok ogłosiły nowe zabezpieczenia na sezon wyborczy 2024–2025: od lepszego wykrywania deepfake’ów po wyraźniejsze oznaczanie mediów syntetycznych. Europa stawia więc na regulacyjną transparentność: wymuszanie etykiet na wynikach AI i pociąganie platform do odpowiedzialności za ograniczanie deepfake’owej dezinformacji. Krytycy zauważają, że egzekwowanie będzie trudne (jak wyłapać wszystkie nieoznaczone fałszerstwa w zalewie treści online?), lecz UE sygnalizuje, iż niekontrolowane deepfaki są niedopuszczalne w jej standardach realitydefender.com realitydefender.com.
  • Wielka Brytania: Wielka Brytania nie wprowadziła jeszcze przepisów specjalnych nt. deepfake’ów w wyborach, ale podejmuje temat w ramach szerszych inicjatyw dotyczących bezpieczeństwa online i AI. W 2023 roku przyjęto Online Safety Act – szeroką ustawę regulującą szkodliwe treści online. Przewiduje ona m.in. karalność rozpowszechniania niekonsensualnej pornografii deepfake – zakaz wytwarzania lub udostępniania fałszywych nagich wizerunków danej osoby bez jej zgody policyoptions.irpp.org. Odpowiada to problemowi nękania przez deepfaki. Jeśli chodzi o dezinformację wyborczą, ustawa przekazała Ofcom (regulatorowi komunikacji) uprawnienia do wydania kodeksów postępowania dotyczących dezinformacji. Eksperci apelują, by Ofcom opracował kodeks postępowania dla dezinformacji obejmujący standardy dla AI-manipulowanych treści cetas.turing.ac.uk. Takie zasady, być może wzorowane na UE, mogłyby zachęcić platformy społecznościowe i aktorów politycznych do nieupowszechniania deepfake’ów i wyraźnego oznaczania mediów syntetycznych. Wzywa się też Komisję Wyborczą UK do sformułowania wytycznych dla partii politycznych nt. odpowiedzialnego stosowania AI, ustanowienia czerwonych linii przeciwko fałszywym deepfakom w kampaniach cetas.turing.ac.uk. Pod koniec 2024 roku międzyfrakcyjny zespół posłów zaproponował zaostrzenie prawa wyborczego – choć ustawy jeszcze nie wprowadzono. Rząd deklaruje przegląd obecnych przepisów (np. dot. zniesławienia, oszustw czy wykroczeń wyborczych), by sprawdzić, czy wystarczają do ścigania nadużyć deepfake’owych, czy też potrzebne są nowe cetas.turing.ac.uk. W Wielkiej Brytanii powstaje także AI Safety Institute, a organizowany przez nią światowy szczyt bezpieczeństwa AI w 2023 roku obejmował temat fałszerstw informacyjnych. Priorytetem wydaje się więc poprawa obrony technicznej i edukacji medialnej (opisana dalej), nie same zakazy. Ale już obecne działania, jak penalizacja deepfake’owej pornografii i zwiększenie możliwości organów, pokazują świadomość, że fałszywe treści generowane przez AI to problem wymagający politycznej reakcji.
  • Kanada: Na 2024 rok Kanada nie posiadała przepisów zakazujących deepfake’ów w wyborach. Canada Elections Act nie zabrania wprost dezinformacji czy deepfake’ów generated by AI, więc można je ścigać tylko z ogólnych przepisów (dotyczących oszustwa czy podszywania się), co jest niewystarczające cef-cce.ca. Eksperci zwracają uwagę na tę lukę prawną, twierdząc, że Kanada jest „krok lub dwa za” innymi demokracjami policyoptions.irpp.org. Jesienią 2023 roku w Kanadzie pojawił się drobny incydent z deepfake, gdy sfałszowana ścieżka audio udająca wypowiedź polityka zaczęła krążyć w sieci. Choć nie miała większych konsekwencji, zwiększyła świadomość problemu. Elections Canada (organ wyborczy) od tego czasu ostrzega przed dezinformacją AI i bada możliwe środki zaradcze cef-cce.ca. Analitycy apelują o nowe przepisy „na wczoraj” – m.in. uprawniające komisarza wyborczego do stanowczego zwalczania syntetycznych mediów w kampaniach policyoptions.irpp.org. Kanada może czerpać z rozwiązań sojuszników: np. przyjąć przepisy o ujawnianiu treści AI w reklamach czy penalizować rozpowszechnianie materiałów świadomie będących deepfake’ami mającymi wprowadzać wyborców w błąd. Do połowy 2025 roku żaden projekt ustawy nie trafił do parlamentu, lecz presja rośnie, by Kanada dołączyła do państw walczących z deepfake’ami prawem policyoptions.irpp.org.
  • Inne demokracje: Na całym świecie wdrażane są dodatkowe rozwiązania:
    • Australia: Australijski rząd, zaniepokojony „kryzysem prawdy” związanym z AI przed nadchodzącymi wyborami, ogłosił plany „prawdy w reklamach politycznych” zakazujących w kampaniach wyborczych fałszywych deepfake’owych nagrań wideo i audio innovationaus.com. Projekt partii Albane’a z 2023 roku zabraniałby publikacji mediów syntetycznych podszywających się pod kandydatów lub mogących wprowadzić wyborców w błąd podczas kampanii innovationaus.com. Jednak proces legislacyjny jest powolny – te zapisy mogą wejść w życie dopiero w 2026 roku innovationaus.com, więc wybory 2025 mogą nie być jeszcze objęte tą ochroną. W międzyczasie Australijska Komisja Wyborcza wydała zalecenia i apeluje o rozwagę (zwracając uwagę, że nadmierne skupienie na deepfake’ach może niechcący podkopać zaufanie do prawdziwych informacji) ia.acs.org.au. Australijscy politycy różnych opcji popierają zwalczanie dezinformacji AI, a debata dotyczy równoważenia tego z wolnością wypowiedzi theguardian.com sbs.com.au.
    • Tajwan: Po atakach z użyciem deepfake’ów z Chin, Tajwan znowelizował prawo wyborcze. W 2023 roku parlament przyjął poprawkę do Election and Recall Act, która zakazuje rozpowszechniania zmanipulowanej ścieżki audio lub wideo kandydata w celu fałszywego wpływania na wybory policyoptions.irpp.org. Daje to jasną podstawę dla ścigania deepfake’owych oszczerstw — tak jak miało to miejsce w wyborach 2024. Tajwan mocno inwestował jednak także w edukację społeczną oraz system szybkiej odpowiedzi (z udziałem rządu, NGO i platform tech), co okazało się kluczem do minimalizowania skutków policyoptions.irpp.org policyoptions.irpp.org.
    • Demokracje europejskie: Poszczególne państwa europejskie poza regulacjami UE zaczęły stosować istniejące przepisy wobec deepfake’ów. Przykładowo, francuskie prawo zakazujące rozpowszechniania „fałszywych informacji” podczas wyborów (uchwalone w 2018) może być wykorzystane dla deepfake’ów rozpowszechnianych dla wpływu na wynik wyborów, a niemieckie przepisy o zniesławieniu i wyborach także mogą znaleźć zastosowanie. Coraz częściej pojawiają się propozycje nowych regulacji: w Niemczech rozważane jest nakazanie partiom politycznym ujawniania wykorzystania mediów syntetycznych w materiałach wyborczych. W UK, jak wskazano wcześniej, przyszłe zmiany w prawie wyborczym mogą objąć etykietowanie treści AI cetas.turing.ac.uk.
    • Inicjatywy międzynarodowe: Coraz wyraźniej widać, że potrzebna jest globalna współpraca, bo dezinformacja nie zna granic. G7 powołała grupę roboczą „AI Governance”, która w 2024 roku wydała stanowisko dotyczące walki z nadużyciem AI w przestrzeni informacyjnej. Administracja Bidena w USA uzyskała dobrowolne zobowiązania od największych firm AI (OpenAI, Google, Meta itd.) do znakowania wyników AI wodnymi znakami i inwestowania w zapobieganie nadużyciom. Choć nie są prawnie wiążące, wskazują na powstawanie międzynarodowej normy transparentności i odpowiedzialności w korzystaniu z AI.

Podsumowując, odpowiedzi polityczne na deepfaki nabierają tempa. Prawo wciąż nadrabia za technologią, lecz kierunek jest jasny: rządy chcą penalizować najbardziej szkodliwe użycia mediów syntetycznych w wyborach, wymuszać transparentność (etykiety/ujawnienia) dla treści AI i wzmacniać uprawnienia regulatorów czy agencji wyborczych do zwalczania cyfrowych fałszerstw. Jednocześnie muszą chronić legalną ekspresję, jak satyra, i unikać drakońskich przepisów podatnych na nadużycia cenzorskie. Znalezienie równowagi jest trudne. Podejścia – od stanowego prawa w USA po unijne dyrektywy – dadzą pole do testów w 2025 roku. Decydenci zapewne będą te narzędzia udoskonalać w miarę napływu nowych doświadczeń. Ale bierność nie wchodzi w grę: jak ujęto w jednym policy trackerze, „bez regulacji deepfaki jeszcze bardziej zdezorientują wyborców i podważą zaufanie do wyborów” citizen.org citizen.org. Poniżej przedstawiamy rekomendacje strategiczne rozwijające te działania, skierowane do wszystkich interesariuszy procesu demokratycznego.

Strategiczne rekomendacje dotyczące zabezpieczenia wyborów

Obrona integralności wyborów w erze AI będzie wymagać wielotorowej strategii. Żadne pojedyncze narzędzie ani prawo nie rozwiąże problemu deepfake’ów; konieczna jest skoordynowana współpraca rządów, platform technologicznych, mediów i społeczeństwa obywatelskiego. Poniżej przedstawiono strategiczne rekomendacje w tych sektorach, które mają ograniczyć ryzyka i zapewnić, że wyborcy będą mogli podejmować świadome decyzje w 2025 roku i później:

Rządy i decydenci

1. Wzmocnienie ochrony prawnej i odstraszania: Rządy powinny uchwalić lub zaktualizować przepisy, aby wyraźnie zakazać złośliwego wykorzystania syntetycznych treści w wyborach. Oznacza to m.in. penalizowanie tworzenia lub rozpowszechniania – z zamiarem wprowadzenia w błąd opinii publicznej lub sabotażu wyborów – jakiegokolwiek deepfake’u, który fałszywie przedstawia kandydata bądź manipuluje informacjami związanymi z procesem wyborczym (np. procedury głosowania). Kluczowe jest precyzyjne dopracowanie przepisów – ustawy powinny skupiać się na umyślnym wprowadzaniu w błąd (dezinformacji), z jasnymi wyjątkami dla satyry, parodii czy oczywistej ekspresji artystycznej. Kary (mandaty lub zarzuty karne) będą stanowiły odstraszacz dla potencjalnych propagatorów deepfake’ów, zwłaszcza przy szybkim egzekwowaniu prawa. Przykładem mogą być: planowany australijski zakaz wprowadzających w błąd deepfake’ów w trakcie kampanii oraz nowe klauzule na Tajwanie przeciw treściom wyborczym zmanipulowanym przez AI innovationaus.com policyoptions.irpp.org. W USA działania na poziomie federalnym (np. projekt ustawy No AI FRAUD Act) mogłyby ustanowić standardy ogólnokrajowe, komplementarne względem stanowych przepisów. Ponadto rządy powinny zaktualizować zasady dotyczące finansowania kampanii i reklamy wyborczej: wymagać, by każda reklama polityczna (online lub w mediach tradycyjnych) zawierająca syntetyczne treści miała wyraźne zastrzeżenie (np. „Ten obraz/wideo został wygenerowany przez AI”) tak, by odbiorcy nie byli wprowadzani w błąd. Regulacje dotyczące prawdziwości reklamy polit. muszą obejmować także treści wygenerowane przez AI.

2. Wprowadzenie protokołów reagowania w przypadku incydentów wyborczych: Organy wyborcze powinny ustanowić formalne procedury reagowania na poważne incydenty z udziałem deepfake’ów w czasie rzeczywistym. Świetnym przykładem jest Krytyczny Protokół ds. Incydentów Wyborczych w Kanadzie, który gromadzi najwyższych urzędników odpowiedzialnych za ocenę i informowanie społeczeństwa o zagrożeniach związanych z zagraniczną ingerencją lub dezinformacją podczas wyborów cetas.turing.ac.uk cetas.turing.ac.uk. Inne demokracje powinny przyjąć podobne mechanizmy. Jeśli pojawi się niebezpieczny deepfake (np. fałszywy filmik przedstawiający kandydata rezygnującego w dniu wyborów), uruchamiany jest protokół – urzędnicy, eksperci ds. wywiadu oraz przedstawiciele platform technologicznych szybko weryfikują prawdziwość materiału i wydają publiczny komunikat demaskujący fałszywkę oraz precyzujący fakty cetas.turing.ac.uk. Taka szybka riposta jest kluczowa, by osłabić skutki „węża ognia” dezinformacji. Rządy powinny ćwiczyć te reakcje wcześniej (symulując różne scenariusze deepfake’ów), by w razie konieczności działać sprawnie i mówić jednym głosem.

3. Inwestowanie w infrastrukturę detekcji i uwierzytelniania: Agencje sektora publicznego powinny zainwestować środki w rozwój technologii wykrywania deepfake’ów i uwierzytelniania treści. Obejmuje to finansowanie badań i rozwoju (np. programy w stylu DARPA skupione na dezinformacji generowanej przez AI), wsparcie wdrażania narzędzi detekcji w realnych wyborach oraz przyjęcie standardów uwierzytelniania w komunikacji rządowej. Konkretnym krokiem może być to, by rządowe media (nadawcy państwowi, oficjalne konta w social mediach itp.) zaczęły do wszystkich publikowanych zdjęć, filmów i nagrań audio dodawać potwierdzające metadane dotyczące pochodzenia cetas.turing.ac.uk. Tym samym tworzą fundament „zweryfikowanych, autentycznych” informacji. Wyborcy i dziennikarze mogą wtedy ufać, że materiał posiadający w metadanych oficjalną pieczęć rządową jest prawdziwy – natomiast do analogicznych nagrań bez tego atrybutu podchodzić z większą ostrożnością. Rządy mogą tu dawać przykład, wcielając podejście „autentyczność już na etapie projektowania” cetas.turing.ac.uk, które już eksplorują USA i Wielka Brytania. Ponadto organy ścigania i instytucje nadzorujące wybory powinny być wyposażone w zespoły analiz kryminalistycznych oceniające podejrzane materiały w trakcie kampanii. Świadomość, że władze mają techniczne możliwości śledzenia i identyfikowania deepfake’ów (a w efekcie również sprawców), odstrasza potencjalnych przestępców.

4. Doprecyzowanie i unowocześnienie istniejących przepisów: Wiele państw może uznać, że aktualne przepisy dotyczące oszustw, kradzieży tożsamości, zniesławienia czy ingerencji w wybory można zastosować do niektórych przypadków deepfake’ów – jednak mogą pojawić się luki. Rządy powinny dokonać przeglądu swojego kodeksu prawnego, by ustalić, czy potrzebne są nowe kategorie. Na przykład: czy mamy przepisy obejmujące AI-generowane podszywanie się pod urzędnika publicznego? Jeśli nie, należy je wprowadzić. Upewnić się, że prawo o ochronie danych i prywatności traktuje nieuprawnione wykorzystanie wizerunku/głosu przez AI jako naruszenie. Ważne jest jasne określenie statusu prawnego szkodliwych deepfake’ów (i poinformowanie o tym społeczeństwa), by potencjalni sprawcy wiedzieli, że mogą zostać pociągnięci do odpowiedzialności. Daje to także narzędzia ofiarom (kandydatom lub obywatelom) do dochodzenia swoich praw w przypadku ataku. Przegląd legislacyjny powinien objąć też przepisy wyborcze: zaktualizować definicje nielegalnej reklamy wyborczej czy sondaży, by jasno obejmowały manipulacje syntetycznymi mediami cetas.turing.ac.uk. Celem jest eliminacja wszelkiej niejednoznaczności – potencjalny dezinformator nie powinien móc twierdzić „technicznie to nie jest przestępstwo, bo zrobiła to AI”. Jasne przepisy ułatwiają egzekwowanie prawa i ściganie sprawców.

5. Wzmocnienie współpracy międzynarodowej: Ponieważ kampanie dezinformacji często mają źródła zagraniczne (lub szerzą się ponad granicami), rządy państw demokratycznych powinny współpracować w tym obszarze. Służby wywiadowcze i cyberbezpieczeństwa powinny dzielić się informacjami o pojawiających się taktykach deepfake’owych (np. gdy jedno państwo wykryje zagraniczną operację z udziałem deepfake’ów, powiadomi inne). Fora takie jak Alliance for Securing Democracy, G7, dialogi UE-USA i inne mogą koordynować wspólne stanowiska i normy przeciwko deepfake’om wyborczym. Może też pojawić się nacisk dyplomatyczny na państwa sponsorujące lub tolerujące takie ingerencje. Jest również pole do wspólnych badań – np. międzynarodowe centrum wykrywania deepfake’ów mogłoby gromadzić dane dla poprawy algorytmów. Organizacje obserwujące wybory (jak OBWE czy międzynarodowe misje monitorujące) powinny zaktualizować swoje metodyki o sprawdzanie wpływu syntetycznych mediów, a państwa mogą wpisać deepfake’i do klauzul wzajemnej ochrony integralności procesów demokratycznych. Wspólny front utrudni wrogim aktorom wykorzystanie słabości pojedynczego kraju.

6. Promowanie świadomości społecznej i edukacji cyfrowej: Ostatecznie rządy mają do odegrania rolę w edukowaniu wyborców na temat deepfake’ów. Wiele państw już rozważa lub wdraża programy edukacji cyfrowej w szkołach i dla szerokiej publiczności cetas.turing.ac.uk. Programy te uczą, jak weryfikować informacje w internecie, rozpoznawać oznaki zmanipulowanych materiałów oraz krytycznie podchodzić do źródeł. Wobec rosnącej przekonującości „fejków” AI kluczowe jest, by każdy wyborca wiedział o ich istnieniu i czuł się uprawniony, by sprawdzić fizyczność szokujących materiałów (zamiast bezrefleksyjnie wierzyć lub udostępniać). Rządy powinny współpracować z uczelniami i NGO, by wprowadzić świadomość deepfake’ów do programów nauczania i kampanii społecznych. Przykładowo: puszczanie reklamy pokazującej nagrania polityka „na żywo” i deepfake, wraz z wyjaśnieniem różnic – może znacząco podnieść czujność. Badania wskazują, że ludzie o wyższej świadomości medialnej i umiejętnościach krytycznego myślenia znacznie lepiej wykrywają deepfake’i i są odporniejsi na dezinformację cetas.turing.ac.uk. Dlatego finansowanie inicjatyw podnoszących świadomość cyfrową to jedna z najskuteczniejszych długoterminowych strategii obronnych. Społeczeństwo staje się wtedy aktywną siecią czujności – wyłapuje i demaskuje fejki – co znacząco ogranicza szkodliwość deepfake’owej propagandy.

Platformy technologiczne i twórcy AI

1. Wzmocnienie polityk platform i ich egzekwowania: Media społecznościowe i platformy internetowe to główne kanały dystrybucji wiralowych deepfake’ów. Firmy te powinny wprowadzić surowe polityki przeciw zmanipulowanym treściom, które wprowadzają użytkowników w błąd, zwłaszcza w kontekście wyborów. Wiele platform już zaczęło ten proces: przykładowo, Facebook i Twitter (X) mają zasady dotyczące usuwania lub oznaczania „manipulowanych treści”, które mogą wyrządzić szkodę. Ale egzekucja musi być zdecydowana. Platformy powinny ulepszać automatyczne wykrywanie deepfake’ów (wykorzystując najnowsze narzędzia omówione wcześniej) i zapewnić szybką weryfikację przez moderatorów, gdy użytkownicy zgłoszą podejrzane materiały. W trakcie wyborów firmy mogą tworzyć specjalne sztaby kryzysowe i kanały współpracy z komisjami wyborczymi, by obsługiwać incydenty deepfake’owe w czasie rzeczywistym. Po wykryciu fałszywki platformy powinny wyraźnie ją oznaczyć jako nieprawdziwą lub szybko usunąć oraz obniżyć jej widoczność w algorytmach, aby zahamować rozprzestrzenianie się brennancenter.org brennancenter.org. Kluczowa jest też transparentność: platformy powinny regularnie publikować raporty o wykrytych deepfake’ach i podjętych działaniach, co buduje zaufanie publiczne. Powinny również udostępniać próbki wykrytych deepfake’ów naukowcom, by poprawiać wspólne rozumienie zjawiska.

2. Wprowadzenie ujawniania i śledzenia deepfake’ów: Na wzór Unii Europejskiej, platformy na całym świecie powinny wymagać, aby treści generowane przez AI były oznaczane i ujawniane. Na przykład, jeśli zostanie przesłana reklama polityczna zawierająca obraz lub głos wygenerowany przez AI, platforma może wymagać od przesyłającego zaznaczenia pola „ta treść zawiera elementy syntetyczne” – a następnie wyświetlić widzom informację („Ten film został zmodyfikowany lub częściowo wygenerowany przez AI”). Nawet poza formalnymi reklamami, platformy mogą używać narzędzi wykrywających do wizualnego oznaczania podejrzanych filmów deepfake (np. nakładając ostrzeżenie, że autentyczność filmu nie została potwierdzona). Dodatkowo, serwisy społecznościowe i komunikatory mogą wdrażać funkcje weryfikacji autentyczności treści: korzystając ze standardów takich jak C2PA, mogą pokazywać użytkownikom ikonę, jeśli źródło i historia edycji obrazu są zweryfikowane, lub ostrzegać, jeśli te dane są niedostępne. Niektóre firmy technologiczne (Adobe, Microsoft, Twitter) już zaangażowały się w takie działania. Umieszczając sygnały pochodzenia w swoich interfejsach, platformy mogą pomóc użytkownikom odróżnić fakty od fałszu. Powinny też pracować nad mechanizmami śledzenia wstecz – na przykład, jeśli szkodliwy deepfake się rozprzestrzenia, czy można ustalić, kto pierwotnie go zamieścił, nawet jeśli został udostępniony tysiące razy? Współpraca z organami ścigania w przypadku poważnych incydentów (z poszanowaniem przepisów dotyczących prywatności) będzie kluczowa do ujęcia sprawców.

3. Blokowanie szkodliwych użytkowników i sieci deepfake: Platformy muszą wykazywać czujność wobec zorganizowanych działań aktorów, którzy wielokrotnie wykorzystują deepfake’i. To oznacza nie tylko usuwanie pojedynczych treści, ale także zamknięcie kont, stron lub botów zaangażowanych w skoordynowane kampanie deepfake. Jeśli dowody łączą operację ze sponsorowanym przez państwo wysiłkiem lub znaną farmą trolli, platformy powinny to upublicznić i wyeliminować ich obecność. W ostatnich latach zlikwidowano wiele sieci dezinformacyjnych; takie samo zdecydowane podejście powinno obowiązywać w przypadku operacji wpływu napędzanych przez AI. Platformy powinny aktualizować swój regulamin, aby wprost zakazać złośliwego tworzenia lub udostępniania mediów syntetycznych w celu wprowadzania innych w błąd. Takie zasady są podstawą do blokowania naruszycieli. W reklamie politycznej każda kampania lub komitet, który zostanie przyłapany na stosowaniu zwodniczych deepfake’ów, powinien ponieść konsekwencje, np. utratę możliwości ogłaszania się. Firmy technologiczne mogą także współdziałać, by utrzymywać wspólną czarną listę znanych hashów lub sygnatur deepfake, dzięki czemu raz rozpoznany fałsz zostanie zablokowany na wszystkich platformach (podobnie jak hashy treści terrorystycznych). Główną zasadą jest, aby uniemożliwić korzystanie z deepfake’ów na głównych platformach – albo treść szybko zostanie usunięta, albo jej autor straci konto.

4. Współpraca z fact-checkerami i władzami: Żadna platforma nie jest w stanie samodzielnie perfekcyjnie kontrolować treści. Współpraca jest kluczowa. Firmy mediów społecznościowych powinny pogłębiać partnerstwa z niezależnymi organizacjami fact-checkerskimi w celu ewaluacji treści wiralnych. Gdy fact-checkerzy zdementują fałszywy film, platformy powinny nagłośnić tę korektę – np. dołączając link do artykułu wyjaśniającego przy każdym udostępnieniu filmu lub powiadamiając wszystkich, którzy widzieli pierwotny fejk. Takie działania podejmował już Facebook w walce z dezinformacją i powinny one objąć także deepfake’i. Ponadto platformy powinny współpracować z komisjami wyborczymi i służbami bezpieczeństwa, zwłaszcza w okresie wyborczym. Mogą ustanowić bezpośrednie linie kontaktowe dla urzędników zgłaszających podejrzane deepfake’i wpływające na głosowanie, a same informować władze o zagranicznych kampaniach dezinformacyjnych. W niektórych krajach funkcjonują już takie ustalenia (np. Kodeks Postępowania UE zachęca do wymiany informacji z rządami o zagrożeniach dezinformacyjnych brennancenter.org). Nawet w USA jednostka ds. cyberbezpieczeństwa Departamentu Bezpieczeństwa Wewnętrznego współpracuje z platformami przy monitoringu dezinformacji wyborczej. Współpraca musi oczywiście szanować wolność słowa i nie prowadzić do cenzurowania legalnych wypowiedzi. Jednak w przypadku jednoznacznie sfałszowanych, szkodliwych materiałów szybka, skoordynowana reakcja platform i instytucji publicznych może powstrzymać rozprzestrzenianie się fejka. Może to obejmować wspólne oświadczenia medialne obalające fake newsy lub algorytmy promujące autorytatywne źródła dla przeciwdziałania rozprzestrzenianiu fałszu.

5. Rozwijanie zabezpieczeń modeli AI: Firmy budujące generatywne modele AI (OpenAI, Google, Meta itd.) mają odpowiedzialność u źródła. Powinny wprowadzić zabezpieczenia, by zapobiegać nadużyciom AI przy ingerencji w wybory. Może to obejmować watermarkowanie wyników AI, jak już wspomniano (tak, by każdy obraz wygenerowany przez np. DALL-E czy Midjourney miał zakodowany podpis). Istotna jest również kuratela danych treningowych – zadbanie, by modele uczyły się odmawiać realizacji żądań imitowania realnych osób w szkodliwy sposób. Już teraz niektóre narzędzia AI nie pozwalają na generowanie deepfake’ów polityków dzięki wbudowanym filtrom treści. Te zabezpieczenia należy stale doskonalić (choć wyzwaniem są modele open-source, które można dostrajać bez ograniczeń przez złych aktorów). Twórcy AI powinni też inwestować w rozwój technik wykrywania deepfakes i udostępniać je społeczności. Pozytywnym sygnałem jest, że wiele czołowych firm AI dobrowolnie zadeklarowało wsparcie dla watermarków i autentykacji treści. W przyszłości mogą współpracować nad standardowym API umożliwiającym błyskawiczne sprawdzanie, czy dany plik wideo lub audio został wygenerowany przez ich modele. Innymi słowy, twórcy „problemu” (generatywnej technologii) powinni też pomagać w stworzeniu „rozwiązania” (możliwości rozpoznania jej efektów).

6. Przejrzystość w reklamie politycznej: Platformy hostujące reklamy polityczne powinny egzekwować wysoką przejrzystość w zakresie używania AI. Jeśli na Facebooku czy Google promowana jest reklama z elementami generowanymi przez AI, powinno to być wyraźnie oznaczone w bibliotece reklam platformy. Platformy mogłyby nawet wymagać od reklamodawców politycznych przesłania surowych, nieedytowanych nagrań do porównania. Bardziej ambitnie, media społecznościowe mogą rozważyć czasowy zakaz wszystkich reklam politycznych zawierających media syntetyczne w kluczowych ostatnich dniach kampanii – podobnie jak niektóre zakazują nowych reklam politycznych tuż przed dniem wyborów. To wyeliminowałoby ryzyko nagłego wysypu reklam deepfake tuż przed końcem kampanii. Choć egzekwowanie jest trudne, zasada jest taka, że płatna promocja zwodniczych treści jest szczególnie groźna i platformy mają tu szersze pole manewru niż przy postach użytkowników. Zagwarantowanie przejrzystości i szybkiego usuwania fejków w domenie reklamowej jest kluczowe, bo deepfake rozpowszechniony w reklamie płatnej może trafić do milionów osób dzięki targetingowi algorytmicznemu i niesprawiedliwie zdeformować środowisko informacyjne.

Media i organizacje dziennikarskie

1. Rygorystyczne protokoły weryfikacji: Media informacyjne muszą przystosować swoje praktyki weryfikacyjne do epoki deepfake. Każda redakcja – od ogólnokrajowych sieci telewizyjnych po lokalne gazety i portale fact-checkerskie – powinna ustanowić formalne procedury autentykacji materiałów audio-wizualnych przed ich emisją lub publikacją. Obejmuje to szkolenie dziennikarzy w obsłudze narzędzi analizy forensycznej (np. sprawdzanie metadanych, analiza obrazów) oraz konsultowanie się z ekspertami w razie potrzeby. Każdy sensacyjny lub skandaliczny klip pojawiający się w czasie wyborów powinien być traktowany przez redaktorów z dużą dozą sceptycyzmu i nie może być publikowany bez potwierdzenia autentyczności. Redakcje powinny weryfikować z dwóch źródeł wszelkie treści dostarczone przez użytkowników: jeśli pojawia się wideo ukazujące kandydata w kontrowersyjnej sytuacji, należy znaleźć potwierdzające dowody (świadków, oficjalne oświadczenia itp.) lub przynajmniej poddać klip analizie klatka po klatce, aby upewnić się, że nie jest to deepfake. Celem jest uniknięcie nieświadomego szerzenia dezinformacji. Warto wspomnieć, że niektóre redakcje już utworzyły wewnętrzne zespoły ds. deepfake. W Arizonie dziennikarze nawet celowo stworzyli własnego deepfake’a (za zgodą), by uświadomić widzom, jak łatwo jest zmanipulować nagranie knightcolumbia.org – sprytny sposób na zwiększenie świadomości. Każda redakcja powinna rozważyć stałą współpracę z „ekspertem ds. deepfake” (lub laboratorium technologicznym) w celu szybkiej analizy podejrzanych materiałów. Gdy weryfikacja stanie się równie rutynowa jak fact-checking, media mogą wyłapywać fałszywki szybko lub przynajmniej ostrzegać odbiorców, jeśli coś nie jest potwierdzone.

2. Odpowiedzialne raportowanie o deepfake: Relacjonując przypadki mediów syntetycznych, dziennikarze powinni robić to ostrożnie i z odpowiednim kontekstem. Jeśli deepfake wymierzony w kandydata stanie się wiralem, centrum historii nie są fałszywe twierdzenia, ale sam fakt manipulacji. W relacjach medialnych należy powstrzymać się od powielania szczegółów fake’owych zarzutów lub niekrytycznego odtwarzania fejka, bo to może nieświadomie nasilić dezinformację. Lepiej opisać to ogólnie i skoncentrować się na odpowiedzi (np. „Zmodyfikowane wideo fałszywie przedstawiające X podczas Y pojawiło się w sieci, zostało zdementowane przez ekspertów”). Redakcje mogą też zamazywać lub nie podawać bezpośrednich linków do treści deepfake w artykułach internetowych cetas.turing.ac.uk, by nie kierować ruchu do tych materiałów i nie ułatwiać ich dalszego pobierania przez osoby o złych intencjach. Framing relacji jest ważny: należy podkreślać próbę oszustwa i fakt istnienia deepfake bardziej niż samą fabułę fejka cetas.turing.ac.uk. Media powinny także wyraźnie eksponować sprostowania lub prawdę (np. „Nie, polityk Z tego nie powiedział – nagranie to wytwór AI; oto, co naprawdę powiedział w tej sprawie.”). Konsekwentne działanie w tym duchu pomaga rzetelnym mediom uodparniać opinię publiczną na błędne przekonania i szerzenie fejków. To trudna równowaga między relacjonowaniem dezinformacji (bo jej zignorowanie jej nie wyeliminuje), a unikaniem jej niezamierzonego wzmocnienia. Można stworzyć wytyczne podobne do tych dotyczących relacjonowania oszustw lub zamachów (gdzie pewne szczegóły się ogranicza, by nie prowokować naśladowców) także dla deepfake’ów. Independent Press Standards Organisation w Wielkiej Brytanii była już nawoływana do zaktualizowania swoich kodeksów na potrzeby takich sytuacji cetas.turing.ac.uk.

3. Wykorzystanie technologii autentyczności w redakcjach: Organizacje medialne same mogą korzystać z rozwijającej się infrastruktury autentyczności. Na przykład redakcja może wdrożyć narzędzia Content Authenticity Initiative, aby dołączać kryptograficzne poświadczenia autentyczności do wszystkich oryginalnych zdjęć i filmów tworzonych przez swoich dziennikarzy. Oznacza to, że każde nagranie zrobione np. przez kamerzystę Reutersa lub AP mogłoby posiadać bezpieczną pieczęć potwierdzającą jego pochodzenie i ewentualne edycje. Dalej, kiedy ktoś ogląda materiał wideo pochodzący od Reutersa, może sprawdzić, czy nie został on zmodyfikowany. Takie działania pomagają potwierdzać, co jest prawdziwe i dają opinii publicznej źródło prawdy. Media powinny też współpracować przy tworzeniu baz danych znanych deepfake’ów (i treści autentycznych), co ułatwi pracę fact-checkerom. Na przykład utrzymywanie repozytorium oficjalnych przemówień i wywiadów umożliwia szybkie obalenie spreparowanego nagrania poprzez porównanie z oryginałem. Główne agencje prasowe mogą koordynować ostrzeganie wszystkich swoich subskrybentów, gdy wykryty zostanie niebezpieczny deepfake – podobnie jak obecnie wydają alerty typu breaking news. Wewnątrz redakcji redaktorzy powinni być również świadomi, że grupy polityczne mogą próbować podsunąć dziennikarzom fałszywe materiały (np. „wyciekłe” nagranie audio, które w rzeczywistości zostało wygenerowane przez AI). Zachowanie wysokiego poziomu sceptycyzmu wobec wszelkich anonimowych, cyfrowych materiałów jest wskazane.

4. Edukacja odbiorców: Media mogą odegrać wielką rolę w edukowaniu wyborców na temat mediów syntetycznych. Redakcje i dziennikarze powinni przygotowywać materiały wyjaśniające, wywiady z ekspertami i programy, które pokazują społeczeństwu, jak powstają deepfake’i i jak je rozpoznawać. Demistyfikując tę technologię, ograniczają jej siłę rażenia. Niektóre programy informacyjne w 2024 roku prezentowały na żywo klony głosu AI, by pokazać, jak oszust może podszyć się pod głos członka rodziny. Podobnie w okresie wyborczym można wprowadzać przypomnienia: „Jeśli zobaczysz szokujące nagranie o kandydacie w ostatniej chwili, zachowaj ostrożność – to może być fałszywe. Oto jak to sprawdzić…”. Kampanie społeczne prowadzone przez media (możliwie z udziałem rządu lub NGO) mogą znacząco podnieść poziom kompetencji cyfrowych. Dziennikarze powinni także konsekwentnie używać precyzyjnego języka: nazywając coś „deepfake’iem” lub „fałszywym nagraniem wygenerowanym przez AI”, a nie po prostu „spreparowanym materiałem”. To wzmacnia świadomość, że istnieje nowa kategoria oszustw medialnych. W dłuższej perspektywie dobrze poinformowani odbiorcy rzadziej dadzą się nabrać na fałszywkę i częściej będą żądać dowodów. Media, jako pośrednik między informacją a społeczeństwem, mają obowiązek budować tę odporność.

5. Odpowiedzialność i ujawnianie: Wreszcie dziennikarze powinni badać i ujawniać kto stoi za głośnymi akcjami z użyciem deepfake’ów. Pociąganie sprawców do odpowiedzialności w opinii publicznej może zniechęcać do nadużyć w przyszłości. Jeśli jako źródło złośliwego deepfake’a uda się zidentyfikować konkurencyjny sztab, zagraniczną „farmę trolli” lub konkretną grupę internetową, nagłośnienie tego zniechęci innych do podobnych działań. Reportaże o produkcji i finansowaniu kampanii dezinformacyjnych osłabiają ich skuteczność. Jeśli polityk lub osoba publiczna świadomie udostępnia deepfake’a (np. kandydat tweetuje podrobiony film o rywalu), media powinny jasno to piętnować – traktując to jako poważne wykroczenie. Perspektywa negatywnego rozgłosu i utraty reputacji może powstrzymać polityków przed „brudnymi sztuczkami”. Funkcja psa stróżującego dziennikarstwa sięga tu sfery cyfrowej: badać, przypisywać i ujawniać szkodliwe operacje z użyciem fałszywych mediów tak samo jak inne formy oszustw czy korupcji w polityce.

Inicjatywy społeczeństwa obywatelskiego i wyborców

1. Kompetencje cyfrowe i edukacja społeczna: Organizacje społeczeństwa obywatelskiego – w tym organizacje non-profit, biblioteki, uniwersytety i oddolne grupy – mogą odegrać kluczową rolę w edukacji obywateli na temat funkcjonowania w erze deepfake’ów. Programy edukacyjne powinny być dostępne dla całych społeczności i uczyć, jak weryfikować media. Przykładowo, NGO mogą prowadzić warsztaty uczące prostych sztuczek, jak odwrócone wyszukiwanie zdjęć (by sprawdzić, czy zdjęcie zostało wygenerowane przez AI lub zmanipulowane), sprawdzania doniesień w kilku źródłach oraz korzystania ze stron fact-checkingowych. Istnieją już gotowe zestawy narzędzi i programy nauczania stworzone przez organizacje fact-checkingowe (np. First Draft, Media Literacy Now), które pokazują, jak wykrywać dezinformację i deepfake’i; należy je szeroko udostępniać. Szkolenia te powinny być skierowane nie tylko do uczniów, ale również do osób starszych, które są bardziej narażone na oszustwa online. Ogólnokrajowe kampanie na rzecz kompetencji cyfrowych mogą być wdrażane przy wsparciu publicznym, ale realizowane przez społeczności lokalne, by budować zaufanie. Celem jest podniesienie „odporności zbiorowej”: jeśli wystarczająca liczba osób potrafi rozpoznać fałszywkę lub przynajmniej wstrzymać się z oceną do czasu weryfikacji, dezinformatorzy tracą większość swojej siły. Badania pokazują, że społeczeństwo chce tej wiedzy – wielu czuje niepokój, nie wiedząc, jak odróżnić prawdę od fałszu brennancenter.org brennancenter.org. Społeczeństwo obywatelskie może wypełnić tę lukę, wzmacniając obywateli przez edukację i praktyczne umiejętności.

2. Inicjatywy fact-checkingowe i obalające dezinformacje: Niezależni fact-checkerzy i społeczni obserwatorzy nadal będą kluczowi. Ich dotychczasowa praca powinna zostać wzmocniona zwłaszcza w okresie wyborczym poprzez specjalne centra weryfikacji deepfake’ów. Przykładowo, koalicje organizacji fact-checkingowych mogłyby prowadzić publiczny dashboard podczas wyborów, śledząc plotki i pojawiające się deepfake’i oraz szybko je obalając. News Literacy Project robił coś podobnego podczas wyborów w USA w 2024 roku, rejestrując przypadki dezinformacji i notując, jak niewiele z nich faktycznie dotyczyło AI knightcolumbia.org knightcolumbia.org. Transparentne monitorowanie pozwala mediom i społeczeństwu widzieć całościowy obraz i nie wyolbrzymiać zagrożenia, a jednocześnie skuteczniej interweniować w realnych przypadkach. Organizacje społeczne mogą również publikować sprostowania w mediach społecznościowych – np. odpowiadając na wiralowe posty rzetelną informacją, korzystając z funkcji typu „community notes”. Powinniśmy też promować „prebunking”: ostrzeganie odbiorców z wyprzedzeniem o możliwych fałszywkach. Na przykład, jeśli z wywiadu lub przeszłych wzorców wynika, że kandydat może być celem deepfake’a, organizacje obywatelskie (w porozumieniu z władzami wyborczymi) mogą zawczasu ostrzec wyborców: „Zachowajcie sceptycyzm, jeśli nagle zobaczycie szokujące nagranie osoby X, istnieje ryzyko, że to deepfake”. Badania wskazują, że prebunking znacząco ogranicza podatność oraz rozprzestrzenianie się fałszywych informacji cetas.turing.ac.uk cetas.turing.ac.uk. Proaktywna postawa ze strony społeczeństwa obywatelskiego, przewidująca i wyprzedzająca deepfake’owe kampanie, może naprawdę przynieść rezultaty.

3. Technologie obywatelskie i wykrywanie przez społeczność: Społeczność obywateli znających się na technologiach może być zmobilizowana do walki z deepfake’ami. Już teraz istnieją ochotnicy – „łowcy deepfake’ów” – którzy analizują podejrzane treści w internecie. Społeczeństwo obywatelskie może zorganizować te działania poprzez platformy – np. specjalny portal lub aplikację, gdzie można przesłać wątpliwe nagranie do analizy, a sieć ekspertów lub narzędzi AI dostarcza raport o autentyczności. Tego typu inteligencja społecznościowa mogłaby uzupełniać działania oficjalne. Dodatkowo, grupy wykorzystujące technologie obywatelskie mogą tworzyć wtyczki do przeglądarek lub aplikacje mobilne, które pomagają identyfikować treści syntetyczne. Na przykład aplikacja mogłaby umożliwić użytkownikowi zaznaczenie wideo na ekranie i otrzymanie natychmiastowego raportu z różnych algorytmów wykrywania (trochę jak antywirus, tylko dla deepfake’ów). Choć nie są to rozwiązania niezawodne, mogą pokazywać sygnały ostrzegawcze. Otwarto-źródłowe inicjatywy tworzenia takich rozwiązań zasługują na wsparcie grantowe. Innym pomysłem są infolinie obywatelskie – podobnie jak telefoniczne linie wsparcia w dniu wyborów, mogą powstać kanały do zgłaszania podejrzanych deepfake’ów i dezinformacji, by przekazać je odpowiednim służbom lub fact-checkerom. Włączając obywateli w aktywne wykrywanie i zgłaszanie podejrzanych treści, można radykalnie zwiększyć zasięg monitoringu. Tak rozproszona strategia dostrzega, że w społeczeństwie milionów internautów ktoś często szybko natrafi na podejrzany materiał – kluczowe jest, by szybko przekierować te sygnały do osób mogących zweryfikować i nagłośnić prawdę.

4. Rzecznictwo na rzecz odpowiedzialności platform: Społeczeństwo obywatelskie powinno nadal wywierać presję na firmy technologiczne i twórców AI, by działali odpowiedzialnie. Organizacje działające w interesie publicznym oraz think tanki odegrały kluczową rolę w nagłaśnianiu zagrożeń związanych z deepfake’ami i w postulowaniu reform (np. Access Now, EFF i inne wydawały rekomendacje). Działania rzecznicze muszą być kontynuowane – należy nakłaniać platformy do wdrożenia wcześniej wymienionych zmian (lepsze oznaczenia, szybkie zdejmowanie treści itp.) oraz wymagać od twórców AI etycznego projektowania narzędzi. Kampanią Public Citizen na rzecz śledzenia legislacji stanowej dotyczącej deepfake’ów i petycja do FEC są jednym z przykładów citizen.org citizen.org. Podobnie koalicje mogą żądać od platform większej przejrzystości: np. upubliczniania danych o tym, jak dużo treści AI znajduje się na ich stronach i jak skuteczne są ich narzędzia wykrywające. Głos społeczeństwa obywatelskiego pomaga również upewnić się, że nowe przepisy i regulacje będą chronić wolności obywatelskie (np. sprzeciw wobec zbyt daleko idących przepisów, które pod pretekstem walki z deepfake’ami groziłyby ograniczeniem wolności słowa). Utrzymanie tej równowagi wymaga szerokich konsultacji społecznych – a grupy rzecznicze reprezentują obywateli w tych debatach. Nadchodzące lata mogą przynieść nowe ramy regulacyjne dla AI i treści online – niezwykle ważne jest, aby wartości demokratyczne i prawa człowieka były w nich przestrzegane, a społeczeństwo obywatelskie pełniło rolę strażnika.

5. Wsparcie dla ofiar i celów: Jeśli kandydat lub osoba prywatna zostanie oczerniona przez deepfake, społeczeństwo obywatelskie może zapewnić wsparcie. Organizacje non-profit mogą oferować pomoc prawną lub doradztwo dotyczące usunięcia zniesławiających deepfake’ów oraz pociągnięcia sprawców do odpowiedzialności. Mogą powstać infolinie dla ofiar deepfake pornografii lub zniesławienia, łączące je ze służbami ścigania i specjalistami zdrowia psychicznego. W przypadku kandydatów zaatakowanych pomówieniami, organizacje obywatelskie (takie jak Liga Kobiet Wyborczych czy grupy na rzecz integralności wyborów) mogą pomóc nagłośnić ich zaprzeczenie i sprostowanie, by zminimalizować szkody. Szybka mobilizacja w obronie niewinnie oczernionych – upewniając się, że prawda jest głośniejsza niż kłamstwo – to zadanie, które grupy społeczne mogą koordynować, tak jak często przeciwstawiają się zniesławieniom czy mowie nienawiści. W szerszej perspektywie społeczeństwo obywatelskie może ułatwiać ponadpartyjne zobowiązania, że jeśli pojawi się deepfake, wszystkie strony go potępią. Wyobraźmy sobie zobowiązanie podpisane przez wszystkie główne partie, zakazujące używania deepfake’ów i nakazujące szybkie potępienie wszelkich złośliwych fałszerstw. Takie normy, wspierane przez komitety międzyparyjne czy organizacje etyczne, zmniejszają ryzyko „wyścigu do dna”, gdzie partie odpowiadają tym samym. Tworzy się w ten sposób wspólny front, że ataki na prawdę nie będą tolerowane – niezależnie od tego, kto jest celem.

Podsumowując, sprostanie wyzwaniu deepfake wymaga wykorzystania wszystkich społecznych mechanizmów obronnych – technologicznych, prawnych, instytucjonalnych i ludzkich. Dzięki realizacji powyższych kroków rządy mogą wzmocnić odporność systemu wyborczego na fałszerstwa AI, platformy technologiczne mogą ograniczać rozprzestrzenianie fałszywych treści, media zapewnić rzetelność przekazu, a obywatele stać się czujnymi strażnikami rzeczywistości. Nie ma czasu do stracenia: wraz z rozwojem generatywnej AI cykl wyborczy 2025 roku wystawi na próbę odporność demokracji na syntetyczne kłamstwa. Pocieszające jest to, że nie jesteśmy bezbronni. Dzięki przygotowaniu, przejrzystości i współpracy możemy przechytrzyć i przeorganizować kampanie deepfake, zachowując integralność naszych wyborów. Jak podsumowano w raporcie badawczym CETaS o AI i wyborach: „nie wolno dopuścić, aby samozadowolenie przeniknęło do procesu decyzyjnego” – zamiast tego należy wykorzystać ten moment do budowania odporności cetas.turing.ac.uk cetas.turing.ac.uk. W ten sposób potwierdzamy zasadę, że mimo ewolucji technologii, nasze demokratyczne wartości prawdy i zaufania będą trwać.

Źródła

  1. Stockwell, Sam et al. “AI-Enabled Influence Operations: Safeguarding Future Elections.” CETaS (Alan Turing Institute) Research Report, 13 lis 2024. cetas.turing.ac.uk cetas.turing.ac.uk
  2. Stockwell, Sam et al. Op. cit. (CETaS Report, 2024), Sekcja 2.1 o deepfake w wyborach w USA. cetas.turing.ac.uk cetas.turing.ac.uk
  3. Beaumont, Hilary. „A lack of trust”: Jak deepfakes i AI mogą wstrząsnąć wyborami w USA.” Al Jazeera, 19 cze 2024. aljazeera.com aljazeera.com
  4. Sze-Fung Lee. „Kanada potrzebuje ustawy o deepfake natychmiast.” Policy Options, 18 mar 2024. policyoptions.irpp.org policyoptions.irpp.org
  5. Goldstein, Josh A. & Andrew Lohn. „Deepfakes, Elections, and Shrinking the Liar’s Dividend.” Brennan Center for Justice, 23 sty 2024. brennancenter.org
  6. „Synthetic media.” Wikipedia (dostęp 2025). en.wikipedia.org en.wikipedia.org
  7. „Deepfake.” Kaspersky IT Encyclopedia (2023). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
  8. Hamiel, Nathan. „Deepfakes okazały się innym zagrożeniem, niż sądzono. Oto jak się przed nimi bronić.” World Economic Forum, 10 sty 2025. weforum.org weforum.org
  9. „Regulacje AI Deepfakes i mediów syntetycznych na arenie politycznej.” Brennan Center for Justice, 4 paź 2023. brennancenter.org brennancenter.org
  10. Colman, Ben. „Rozporządzenie UE AI Act i rosnąca pilność wykrywania deepfake’ów.” Reality Defender Blog, 11 lut 2025. realitydefender.com realitydefender.com
  11. „Tracker: Stanowe ustawodawstwo dotyczące deepfake’ów w wyborach.” Public Citizen, 2025. citizen.org citizen.org
  12. Partnership on AI. „Syntetyczne media i deepfakes – studium przypadku: Słowacja 2023.” (Cytowane w analizie Knight Columbia). brennancenter.org brennancenter.org
  13. Kapoor, Sayash & Arvind Narayanan. „Przeanalizowaliśmy 78 deepfake’ów wyborczych. Dezinformacja polityczna nie jest tylko problemem AI.” Knight First Amendment Institute, 13 gru 2024. knightcolumbia.org knightcolumbia.org
  14. Raport CETaS (2024), Rekomendacje polityczne (skupione na Wielkiej Brytanii). cetas.turing.ac.uk cetas.turing.ac.uk
  15. Raport CETaS (2024), Rekomendacje dotyczące wykrywania i pochodzenia. cetas.turing.ac.uk cetas.turing.ac.uk
  16. Public Safety Canada. „Ochrona przed dezinformacją wspieraną przez AI” (bryfi 2023). policyoptions.irpp.org policyoptions.irpp.org
  17. InnovationAus. „Zakaz deepfake’ów wyborczych rządu będzie ‘odwlekany’ do 2026.” (Australia) 2023. innovationaus.com
  18. Dodatkowe źródła: Artykuły Reuters, Wired i CNN cytowane w powyższych źródłach dotyczących konkretnych incydentów (np. deepfake Zełenskiego, oszustwo na 25 mln USD w Hong Kongu przez deepfake na Zoomie weforum.org), a także ostrzeżenia konsumenckie FTC o oszustwach głosowych weforum.org. Są one zacytowane w analizie i dostępne poprzez powyższe linki.

Dodaj komentarz

Your email address will not be published.

Don't Miss

InSAR for Land Deformation Monitoring: Complete Guide and Applications

InSAR do monitorowania deformacji terenu: kompletny przewodnik i zastosowania

Interferometryczny Radar z Aperturą Syntezowaną (InSAR) to zaawansowana technika teledetekcyjna
Thailand Real Estate Market Outlook 2025: Trends, Forecast & Analysis

Perspektywy rynku nieruchomości w Tajlandii na 2025 rok: trendy, prognozy i analiza

Podsumowanie wykonawcze: Rynek nieruchomości w Tajlandii w 2025 roku porusza