Syntetická média a deepfaky: Ochrana volebního cyklu 2025

30 června, 2025
Synthetic Media and Deepfakes: Safeguarding the 2025 Election Cycle

Pokroky v oblasti umělé inteligence umožnily tvorbu syntetických médií – obsahu generovaného či upraveného AI – v dosud nevídaném měřítku. Jak se demokratické státy blíží volebnímu cyklu 2025, představitelé i experti varují před dezinformacemi řízenými umělou inteligencí. V nedávném průzkumu vyjádřilo 85 % Američanů obavy z “matoucích video a audio deepfakeů”, které by mohly ovlivnit volby brennancenter.org. Zpravodajské titulky varují, že AI generované “deepfaky” mohou způsobit chaos v kampaních i důvěře voličů brennancenter.org, což zdůrazňuje aktuálnost ochrany volební integrity. Tato zpráva se zaměřuje na to, co jsou syntetická média a deepfaky, jak ohrožují demokracii a jaká opatření – od technologických řešení po politiky – lze podniknout ke zabezpečení voleb v roce 2025 a dále.

Co jsou syntetická média a deepfaky?

Syntetická média je široký pojem pro digitální obsah (obrázky, videa, audio, text), který je uměle vytvářený nebo upravovaný automatizovanými prostředky, zejména pomocí AI algoritmů en.wikipedia.org. Současné generativní AI systémy dokáží vytvářet realistické lidsky vypadající výstupy v každém médiu – od životných fotografií lidí, kteří nikdy neexistovali, přes klonované hlasy až po AI generované články. Deepfaky jsou specifickou podmnožinou syntetických médií: velmi realistické falešné obrázky, videa nebo audio vytvořené pomocí AI (“deep” learning + “fake”) imitující skutečné osoby encyclopedia.kaspersky.com. V praxi může deepfake například zobrazovat video, kde je tvář politika přesvědčivě nasazena na tělo někoho jiného, nebo audio nahrávka napodobující hlas kandidáta, který říká něco, co nikdy ve skutečnosti neřekl.

Jak se deepfaky vytvářejí? Většina je generována pomocí pokročilých technik hlubokého učení. Běžným přístupem jsou generativní adversariální sítě (GAN) – dva neuronové sítě, které se navzájem trénují icct.nl. Jedna síť (tzv. generátor) vytváří falešná média (např. obraz tváře člověka) a druhá síť (diskriminátor) se snaží rozpoznat, zda je obsah falešný. Po tisících iterací se generátor naučí vytvářet stále realističtější výstupy, až je diskriminátor nedokáže odlišit od reality icct.nl. Původně bylo vytvoření kvalitního deepfaku velmi náročné na trénovací data i výkonný hardware – například experiment s deepfakem herce Toma Cruise vyžadoval dva měsíce trénování na špičkových GPU icct.nl. Avšak nástroje se rychle vyvíjejí. Sofistikovaný deepfakový software je dnes široce dostupný a rychlejší, někdy dokonce funguje v reálném čase (například úprava živého video přenosu či hovoru na hlasové bázi v průběhu rozhovoru) encyclopedia.kaspersky.com. Kromě GANů hrají roli i jiné AI architektury: modely typu transformer mohou generovat deepfakový text nebo pomáhat při klonování hlasu v audiu encyclopedia.kaspersky.com. Ve zkratce: nedávné AI průlomy umožnily snadno a levně komukoli vytvářet klamavý audiovizuální obsah – výrazně snižují bariéru pro dezinformační operace.

Je důležité poznamenat, že ne všechna syntetická média jsou škodlivá. AI generovaný obsah lze využít i k pozitivním a kreativním účelům – tvorba personalizovaných avatarů, dabing hlasu do cizích jazyků, satira a zábava apod. Ve světových volbách v roce 2024 byla přibližně polovina zdokumentovaných použití AI v politickém obsahu neklamavá (například kandidát transparentně používající AI hlas kvůli ztrátě vlastního hlasu nebo novinář chránící svou identitu pomocí AI avatara) knightcolumbia.org knightcolumbia.org. Tato zpráva se však zaměřuje na škodlivou stránku syntetických médií – deepfaky určené k klamání, podvádění či manipulaci voličů a veřejného mínění.

Rizika pro demokratické procesy

Syntetická média a deepfaky představují významná rizika pro demokracii, zejména během voleb, kdy je informovanost voličů a důvěra v informace zásadní. Hlavní hrozby zahrnují:

  • Dezinformace a manipulace voličů: AI generovaná falešná videa, obrázky nebo audio lze využít ke šíření nepravdivých informací o kandidátech či tématech a matení voličů. Deepfake může zobrazovat kandidáta, jak pronáší pobuřující výroky, které nikdy skutečně neřekl. Takový smyšlený obsah může vnést toxické lži do veřejné debaty. Experti varují, že deepfaky “představují vysoké riziko” pro voliče vnášením falešného obsahu do kampaní a erozí veřejné důvěry aljazeera.com. Opravdu přesvědčivě zmanipulované video zveřejněné těsně před volbami – bez časové rezervy pro ověření – může změnit názor nerozhodnutých voličů či dokonce snižovat účast, což může změnit výsledek voleb citizen.org. Tato hrozba není jen teoretická: jak bude popsáno dále, v roce 2024 byl použit deepfakový audiozáznam imitující prezidenta USA vybízejícího voliče, aby nevolili, zřejmě se záměrem snížit účast aljazeera.com aljazeera.com.
  • Eroze důvěry (“Dividenda lháře”): Nejen jednotlivé falzifikáty, už samotná existence deepfakeů může narušit veřejnou důvěru ve skutečné informace. Voliči mohou začít zpochybňovat i autentické důkazy, protože si nebudou jisti, zda je virální video skutečné nebo AI padělek. Ještě horší je, že zkorumpovaní aktéři tuto pochybnost zneužijí: skutečné skandály či pravdivé nahrávky lze odmítat jako “jen deepfake”, čímž se viníci vyhnou odpovědnosti. Badatelé tuto strategii nazývají “dividendou lháře” – vyšší povědomí o deepfakech usnadňuje lhářům tvrdit, že pravý záznam je falešný brennancenter.org. Zvyšující se povědomí o síle AI znamená, že politik přistižený při skutečném prohřešku může snáze přesvědčit veřejnost, že kompromitující audio či video je AI podvrh brennancenter.org. Tento trend ohrožuje základní důvěru, na které je demokratická diskuse postavena. Pozorovatelé voleb zaznamenali, že v roce 2024 někteří kandidáti i jejich příznivci předem vykřikovali “AI podvrh” pro zpochybnění nepříjemných témat brennancenter.org brennancenter.org. Pokud nakonec občané nabudou dojmu, že “nemůžete věřit ničemu, co slyšíte nebo vidíte”, narušuje to sdílenou realitu potřebnou pro svobodné a spravedlivé volby cetas.turing.ac.uk cetas.turing.ac.uk.
  • Prohlubování polarizace a konfliktů: Zatím důkazy ukazují, že deepfake propaganda spíš posiluje předchozí předsudky lidí než aby přesvědčovala napříč tábory cetas.turing.ac.uk. Škodlivý AI obsah bývá nejčastěji přijímán a šířen těmi, kdo už mají vyhraněné názory, čímž prohlubuje ozvěnové komory. Během prezidentských voleb 2024 v USA vědci zjistili, že AI generované lži především zintenzivňovaly partajní příběhy a rozdmýchávaly debaty, místo aby získávaly nové přívržence cetas.turing.ac.uk. Například falešná videa zaměřená na prezidenta Bidena nebo viceprezidentku Harris získala miliony zhlédnutí a šířili je hlavně lidé k nim už předtím negativní cetas.turing.ac.uk cetas.turing.ac.uk. Tím, že upevňují ideologické tábory dramatickými falešnými “důkazy” o morální zkaženosti druhé strany, deepfaky mohou komunity více rozdělovat a toxizovat předvolební prostředí. Navíc vzniklá nejistota a nedůvěra jsou úrodnou půdou pro šíření konspiračních teorií cetas.turing.ac.uk, protože občané snáze odmítnou jakoukoliv nepohodlnou realitu jako AI podvrh.
  • Narušení správy voleb: Riziko nespočívá pouze v matení voličů ohledně kandidátů – deepfaky mohou narušit i samotný volební proces. Úředníci si představili scénáře, kdy AI klon hlasu nebo falešné zprávy vydávané za volební orgány navádějí pracovníky volebních místností k předčasnému uzavření volebních místností nebo poskytují voličům falešné instrukce (např. “volby byly odloženy”) aljazeera.com. Sofistikovaný útočník může nasimulovat pokyn od volební komise či hlas důvěryhodného místního úředníka a sabotovat průběh voleb. Taková taktika může snížit volební účast nebo vyvolat chaos v den voleb. Brennanovo centrum v USA upozorňuje, že zmanipulovaná média lze použít k oklamání nejen veřejnosti, ale i pracovníků a úředníků, což vyžaduje nové školení a protokoly aljazeera.com.
  • Obtěžování a likvidace pověsti: Deepfaky se staly mocnou zbraní pro osobní útoky na kandidáty, aktivisty nebo novináře. Zvlášť zákeřnou kategorií je nevyžádaná syntetická pornografie – nasazení tváře konkrétní osoby do explicitního sexuálního obsahu. Tato taktika již byla použita k obtěžování novinářek a političek po celém světě. Nejextrémnější formou deepfake obtěžování je falešná intimní obrazová tvorba k zostuzení nebo vydírání jednotlivců weforum.org. V kontextu voleb mohou operátoři těsně před hlasováním zveřejnit podvržené kompromitující video kandidáta (např. deepfakové sexuální video nebo záznam, kde údajně páchá něco nelegálního). I když je rychle vyvráceno, pověst kandidáta může být značně poškozena. Ženy a menšiny jsou těmito “syntetickými pomluvami” ohroženy více, což může odradit rozmanité kandidáty od vstupu do politiky policyoptions.irpp.org policyoptions.irpp.org. Deepfaky tak dávají nový náboj starým špinavým trikům – od falešných skandálů po padělané citace – a zrychlují snahy o likvidaci pověsti ve volebním klání.

Na závěr je nutné zdůraznit, že dosud jsme nebyli svědky volební katastrofy způsobené deepfaky. Empirické studie voleb 2024 po celém světě odhalily, že existuje jen málo důkazů, že by AI generované dezinformace změnily výsledek kterýchkoli voleb cetas.turing.ac.uk weforum.org. Tradiční dezinformace (levně stříhané “cheapfaky”, fámy, partajní propaganda) zůstávají v šíření lží mnohem větším problémem než technologicky vyspělé deepfaky knightcolumbia.org knightcolumbia.org. Odborníci však upozorňují, že dosavadní absence katastrofy nesmí vést ke spokojenosti cetas.turing.ac.uk weforum.org. Technologie se rychle vyvíjí a nepřátelští aktéři se učí. I pokud deepfaky nezvrátily žádný významný výsledek v roce 2024, ovlivnily veřejnou debatu – například virální AI lži o kandidátech se staly tématem mainstreamových debat cetas.turing.ac.uk. Navíc již vnímání hrozby deepfake samo přispělo k veřejné úzkosti a nedůvěře vůči volbám cetas.turing.ac.uk cetas.turing.ac.uk. Potenciál pro ničivější incidenty stále existuje, zvlášť když se blíží volby v roce 2025. Demokratické společnosti proto musí brát deepfaky vážně jako otázku bezpečnosti a integrity – a řešit jak přímé riziko falešných médií, tak širší erozi pravdy ve volebním prostředí.

Nedávné incidenty: Deepfaky narušující politiku

Skutečné případy z posledních let ukazují, jak bylo syntetické médium již zneužito v politických kontextech. Níže uvádíme několik významných incidentů a případových studií deepfaků a AI-generovaných dezinformací, které ovlivnily volby nebo veřejnou debatu:

  • Ukrajina (březen 2022) – Video “kapitulace”: V počátcích války Ruska proti Ukrajině se objevilo video, které údajně zachycovalo ukrajinského prezidenta Volodymyra Zelenského, jak vybízí své vojáky ke složení zbraní a kapitulaci. Video bylo deepfake, Zelenského obraz i hlas byly synteticky upraveny icct.nl. Odhalující chyby (rozmazané okraje, nesoulad odstínu krku) ho usvědčily a ukrajinská média rychle podvod odhalila. Tento incident – první známé použití deepfaku v ozbrojeném konfliktu – předznamenal, jak může být AI propaganda využita k podkopání vůdců během krizí icct.nl. I když se falešnému videu se Zelenským nepodařilo demoralizovat ukrajinský odpor, prokázalo záměr a schopnost škodlivých aktérů (v tomto případě podezřelých ruských operativců) použít deepfaky pro informační válku.
  • Slovensko (září 2023) – Předvolební dezinformace: Jen několik dní před slovenskými parlamentními volbami se virálně šířily deepfake audio nahrávky, údajně zachycující Michala Šimečku, lídra Progresivního Slovenska, jak se přiznává k volebnímu podvodu a dokonce navrhuje zdvojnásobení ceny piva brennancenter.org. Některé verze měly slabě deklarované, že jsou AI-generované, ale upozornění se objevilo až na konci klipu – pravděpodobně záměrně, aby zmátlo posluchače brennancenter.org. Časování bylo jasně strategické, těsně před hlasováním. Prozápadní Šimečkova strana těsně prohrála s proruským rivalem a někteří komentátoři spekulovali, že závěrečná deepfake diskreditace mohla ovlivnit výsledek brennancenter.org. Tento případ ukazuje, jak mohou domácí i zahraniční aktéři využít deepfaky k ovlivnění těsného klání – a jak obtížné je v posledních okamžicích kampaně čelit lživým narativům.
  • Tchaj-wan (leden 2024) – Operace zahraničního ovlivňování: Před prezidentskými volbami v Tchaj-wanu v roce 2024 pozorovatelé zaznamenali čínskou dezinformační kampaň využívající deepfaky k oslabení kandidáta Lai Čching-te. Padělaná videa kolovala online a ukazovala, jak Lai (z vládní pro-nezávislostní strany) pronáší výroky, které nikdy neučinil – například nepravdivě naznačovala, že podporuje program svých protivníků policyoptions.irpp.org. V jednom případě bylo zveřejněno AI-generované audio Laie, které vypadalo, že kritizuje vlastní stranu policyoptions.irpp.org, s cílem rozbít jeho podporu. Tyto syntetické mediální útoky, vystopované do Číny, měly za cíl ovlivnit veřejné mínění a šířit zmatek v tchajwanské demokracii policyoptions.irpp.org. Nakonec Lai volby vyhrál a analytici hodnotili, že čínská deepfake kampaň výsledek významně nezměnila policyoptions.irpp.org. Přesto šlo o učebnicový příklad využití AI propagandy nepřátelskou cizí mocí proti demokratickým volbám policyoptions.irpp.org policyoptions.irpp.org. Obava zůstává, že v těsnějších volbách jinde by podobné praktiky mohly mít větší dopad.
  • Spojené státy americké (2024) – Deepfaky v kampani: Předvolební období v USA v roce 2024 zaznamenalo nárůst AI-generovaného politického obsahu, který sice nezvrátil výsledek voleb, ale vzbudil poplach. Na začátku roku 2024 dostali voliči v New Hampshire matoucí robocall: hlas připomínající prezidenta Joea Bidena vyzýval demokraty „abyste si šetřili svůj hlas, nepoužívejte ho v těchto volbách.“ Hlas zněl některým autenticky, ale sdělení bylo očividně podezřelé – Biden by své příznivce nikdy nevyzýval, aby nevolili. Ve skutečnosti se jednalo o deepfake hlasovou kopii Bidena, rozeslanou tisícům voličů zjevně s cílem potlačit volební účast aljazeera.com aljazeera.com. Tento incident, který zasáhl odhadem 5 000 telefonních čísel v New Hampshire, ukázal, jak levně a snadno lze takové „špinavé triky“ provádět – konzultant, který vytvořil deepfake Bidenova hlasu, uvedl, že mu to zabralo jen 20 minut a asi 1 dolar za výpočetní výkon policyoptions.irpp.org policyoptions.irpp.org. Mezitím se na sociálních sítích AI-generované obrázky objevily i v oficiálních kampaních. Tým guvernéra Floridy Rona DeSantise například vydal útočný spot s upravenými obrázky Donalda Trumpa, jak objímá Dr. Anthonyho Fauciho – mělo se tím naznačit, že Trump je příliš přátelský k bývalému poradci pro COVID, který je mezi konzervativci neoblíbený. Ukázalo se, že záběry Trumpa objímajícího Fauciho byly AI-vytvořené podvrhy vložené do videa samotnou kampaní brennancenter.org – po veřejném odhalení následovala vlna kritiky. V dalším případě se online šířilo AI-vytvořené video prezidenta Bidena s „nezřetelnou“ řečí, které bylo následně vyvráceno. Některé falešné videoklipy Bidena a viceprezidentky Harrisové nasbíraly na sociálních sítích miliony zhlédnutí cetas.turing.ac.uk a ukazují, jak rychle se takový obsah může šířit. Zapojili se i technologičtí magnáti: Elon Musk nechvalně proslul tím, že znovu sdílel hrubě upravené video VP Harrisové (označené jako „satira“), kde blábolí nesmysly – čímž stíral hranici mezi vtipem a dezinformací cetas.turing.ac.uk cetas.turing.ac.uk. Ani jeden z těchto deepfaků nezměnil trajektorii voleb, nicméně posiloval falešné narativy (například o Bidenově mentální výkonnosti nebo Trumpově loajalitě) a dále otrávil informační prostředí. Americké úřady se rovněž obávají deepfaků, které by mohly cílit na samotnou volební infrastrukturu – např. falešná audio nahrávka volebních komisařů poskytujících pokyny k nesprávnému jednání aljazeera.com – přesto v roce 2024 nebyl žádný velký incident tohoto typu veřejně potvrzen.

Tyto příklady ukazují globální rozsah této hrozby. Deepfaky využívaly státní subjekty v geopolitických konfliktech, provokatéři v domácích volbách od Evropy po Asii i samotné kampaně a jejich příznivci ve Spojených státech. Měly podobu falešných projevů, obrázků, telefonátů i videí – cílených na voliče i volební úředníky. Zatímní incidenty přinášejí i několik poučení: mnoho deepfaků bylo odhaleno a odmaskováno poměrně rychle (často díky pohotovým novinářům nebo ověřovatelům faktů) a v několika případech backlash proti použití deepfaků (např. DeSantisova reklama) způsobil negativní publicitu pro viníky. Naznačuje to, že transparentnost a ostražitost mohou jejich škodlivost otupit. Nicméně trend je jasný – syntetické lži jsou stále častější a obtížněji rozeznatelné od skutečnosti. Každé volby přinášejí nové „poprvé“ (rok 2024 přinesl první AI „robocallové“ podvody ovlivňující voliče, první kampaňové využití deepfake reklam atd.) a riziko vážnějšího deepfake incidentu do roku 2025 dále roste.

Detekce a potírání deepfaků: Nástroje a technologie

Kritickou součástí ochrany voleb je vývoj spolehlivých nástrojů pro detekci a zmírnění vlivu deepfaků. Výzkumníci, technologické firmy i vlády soutěží o to, kdo dokáže odhalit padělky vytvořené umělou inteligencí a ověřit pravost skutečného obsahu. Zde přinášíme přehled současného prostředí v oblasti detekce deepfaků a souvisejících protioopatření:

  • Automatizované detektory deepfaků: První linií obrany je AI proti AI – algoritmy trénované na rozpoznávání mediálního obsahu a identifikaci znaků manipulace. Tyto detekční systémy hledají jemné artefakty nebo nekonzistence, které modely generativní AI zanechávají. První deepfaky například často měly nepravidelné mrkání očí nebo nepřesné pohyby rtů. Dnešní detektory využívají hluboké neuronové sítě ke zkoumání osvětlení a stínů na obličeji, vzorců frekvence zvuku či biologických signálů (např. pulsu na videu), které může AI nedokázat napodobit. Technologické firmy vyvíjejí interní nástroje – například Microsoft v roce 2020 vydal “Video Authenticator”, který analyzuje snímky videa a upozorňuje na možné padělky. Platformy jako Facebook a X (Twitter) investují do výzkumu detekce a nasazují některé filtry pro zachycení známých falešných médií. Akademické iniciativy a soutěže (jako Facebook Deepfake Detection Challenge a konference IEEE) urychlily pokrok, a startupy jako Sensity a Reality Defender nabízejí komerční služby detekce deepfaků pro klienty. Jde ovšem o zbrojní závody: jak se detekce zlepšuje, tvůrci deepfaků se přizpůsobují a vytvářejí plynulejší padělky, které uniknou automatickým kontrolám. Pozoruhodné je, že podle zprávy Meta z roku 2023 bylo během volebního cyklu v roce 2024 “méně než 1 %” označeno jako obsah vytvořený AI weforum.org, což naznačuje, že deepfaky buď byly relativně vzácné nebo mnohé prošly bez povšimnutí detekcí.
  • Vodoznakování a provenience obsahu: Další strategií je označení AI-generovaného obsahu již při jeho vzniku, aby jej uživatelé dále poznali jako syntetický. EU toto řešení výrazně prosazuje – nový AI Act EU výslovně nařizuje, aby každý obsah vytvořený či upravený AI byl jasně označen nebo opatřen vodoznakem realitydefender.com. Firmy by povinně vkládaly identifikační znak (digitální vodoznak nebo metadata) při tvorbě obrázku, videa, či zvuku AI. V praxi by tak prohlížeče nebo sociální sítě mohly automaticky označovat či filtrovat obsah s těmito značkami. Vodoznakování je slibné, zejména jako odstrašení běžného zneužití. Významní poskytovatelé AI modelů (OpenAI, Google a další) diskutují o dobrovolném označování obrázků nebo textů vytvořených jejich systémy. Současně koalice mediálních a technologických organizací vytváří standardy prověřování původu (např. C2PA, Coalition for Content Provenance and Authenticity) pro kryptografické zaznamenávání původu a historie úprav digitálních médií. Například novinářská fotografie či předvolební reklama by mohly obsahovat zabezpečený certifikát pravosti a umožnit tak ověřit, kdo obsah vytvořil a že nebyl pozměněn cetas.turing.ac.uk. Toto přijímá i americká vláda; Bílý dům zadal úřadům vypracovat směrnice pro “autenticitu přímo při návrhu obsahu”, tedy vkládání metadat o původu do veškerého digitálního obsahu, který vytvoří do roku 2025 cetas.turing.ac.uk. Pokud budou tato opatření široce přijata, bylo by mnohem obtížnější vydávat falešný obsah za skutečný.
  • Omezení štítků: Nástroje transparentnosti jsou důležité, ale nejsou neomylné. Vodoznaky lze odstranit nebo upravit odhodlanými protivníky. Výzkumníci už předvedli metody, jak odstranit nebo skrýt vodoznaky AI realitydefender.com. Samozřejmě, zlý aktér si při stavbě vlastního generativního modelu jednoduše zvolí, že žádné značky nezahrne. Metadata o původu navíc pomáhají pouze tehdy, když jsou široce implementována a když je uživatelé skutečně kontrolují. Tvůrce deepfaku může navíc použít trik tzv. “provenience piggybackingu” – vezme autentickou fotografii či video a překryje falešné prvky, takže výsledný soubor nese digitální podpis originálu. Tyto výzvy znamenají, že se nemůžeme spoléhat pouze na štítky obsahu. Jak poznamenala jedna bezpečnostní firma, vodoznaková a provenienční řešení fungují jen tehdy, když tvůrci obsahu spolupracují při označování výstupů – což nezastaví cílevědomé pachatele realitydefender.com. Proto zůstává zásadní detekce založená na inferenci (analýza obsahu samotného na známky AI manipulace) realitydefender.com. Nejlepší obrana pravděpodobně spojí oba přístupy: robustní automatické detektory prohledávající obsah a systémy pro ověření legitmity média.
  • Detekce v reálném čase pro video/zvukové přenosy: Nově nastupujícím požadavkem jsou nástroje schopné zachytit deepfaky v živém prostředí. Představte si hypotetickou situaci podvodného “živého” videohovoru s kandidátem nebo úředníkem – což se stalo v Hongkongu v roce 2023, kdy zločinci deepfakovali vizáž firemního manažera na Zoomu k autorizaci padělaného převodu 25 milionů dolarů weforum.org. V tomto případě byli účastníci hovoru – včetně “imitátora” finančního ředitele – kompletně generovaní AI. Detekce takových deepfaků v reálném čase je extrémně obtížná. Firmy vyvíjejí doplňky pro videokonference, které mohou uživatele varovat, pokud obraz nebo hlas vypadá uměle upraveně (například analýzou latence zvuku a spektrálních anomálií, nebo kontrolou, zda tvář na obrazovce přesně odpovídá pohybům skutečné tváře zachycené kamerou). Některé startupy tvrdí, že nabízejí API na detekci deepfaků v reálném čase pro integraci do streamingových platforem nebo ověřování řečníků naživo. Zatím reálná detekce zaostává za útočníky a důraz je spíš na preventivní opatření (například používání hesel nebo sdílených “kódových slov” v hovorech k ověření totožnosti, jak doporučuje policie weforum.org).
  • Lidské ověřování faktů a komunitní označování: Technologie sama není všelék. Pozorná lidská vrstva je klíčová. Zpravodajské organizace, skupiny pro ověřování faktů i platformy zřizují speciální týmy monitorující virální deepfaky během voleb. Tyto týmy používají OSINT techniky a forenzní nástroje k analýze podezřelých médií – např. kontrolují časová razítka, hledají nesrovnalosti (jako různé náušnice u politika na videu nebo zvláštní pohyby úst), a rychle publikují vyvrácení. Pomáhá také crowdsourcing: na X/Twitter slouží funkce “Community Notes” k označení příspěvků obsahujících AI obrázky či videa s upřesňujícím kontextem. Během posledních voleb často uživatelé deepfaky odhalili do několika hodin od jejich objevení, přidávali srovnávací obrázky nebo poukazovali na chyby. Taková kolektivní bdělost, podpořená digitální gramotností, je silný nástroj. Platformy se stále více spoléhají na uživatele a nezávislé ověřovače faktů, vzhledem k množství obsahu, který musí automatické filtry prohledávat. Nevýhodou je, že deepfake může zvirálnět dříve, než je vyvrácen. Přesto rychlejší reakce a větší povědomí (aby více uživatelů rozpoznalo padělek sami) omezí škody.

Stručně řečeno, detekce deepfaků je velmi aktivní a vyvíjející se oblast. Dochází k pokroku – například detektory jsou dnes mnohem lepší než v roce 2018 a iniciativy jako Content Authenticity Initiative mají za cíl učinit ověřování standardem. Výzvy však přetrvávají kvůli souboji mezi obránci a útočníky a kvůli nutnosti plošného nasazení nástrojů. V následujících letech pravděpodobně uvidíme integraci detekční technologie do sociálních sítí, redakcí i zařízení (představte si, že telefon při příchozím videu varuje, že by mohlo jít o výtvor AI). Zásadní je, aby detekční a provenienční nástroje byly spojeny s osvětou veřejnosti, aby uživatelé chápali a reagovali na upozornění či označení obsahu. Tato technologická část je pouze jeden pilíř z větší strategie potřebné k potírání hrozeb syntetických médií.

Politické reakce a regulatorní rámce

Politici po celém světě si uvědomili hrozbu deepfaků a začali připravovat zákony a regulace k jejímu řešení. Přestože jde o novou problematiku, začíná se rýsovat mozaika odpovědí v hlavních demokraciích. Níže je přehled legislativních a regulatorních snah, které probíhají:

  • Spojené státy: V USA v současnosti neexistuje žádný jednotný federální zákon zakazující politické deepfaky, ale vzniká sílící tlak tento nedostatek napravit. Bylo předloženo několik návrhů zákonů v Kongresu zaměřených na omezení škodlivých deepfaků. Například na začátku 2024 navrhli zákonodárci No AI FRAUD Act v reakci na medializované incidenty (jako AI-generované explicitní fotografie celebrit) policyoptions.irpp.org. Tento návrh chce zavést federální regulaci kriminalizující určité škodlivé užití AI, například podvodné politické deepfaky nebo klamavé porno padělky policyoptions.irpp.org. Další zvažovanou možností je povinné označování AI-obsažených volebních reklam (aby kampaně musely jasně označit obsah obsahující syntetická média). Mezitím Federální komunikační komise (FCC) podnikla cílený krok zákazem použití hlasových klonů AI v robocallech zamýšlených k podvodu či poškození policyoptions.irpp.org. K tomuto kroku vedly podvody, kdy imitátoři napodobovali hlasy skutečných lidí. Toto opatření činí nelegálním, aby telemarketéři či političtí aktéři používali syntetické hlasové zprávy k oklamání adresátů. Většina regulace deepfaků v USA se odehrává na úrovni jednotlivých států. Od roku 2019 schválily zákony Kalifornie, Texas a další státy. Kalifornie zakazuje během 60 dnů před volbami šířit podstatně klamavá deepfake videa kandidátů (s výjimkami pro satiru/parodii) brennancenter.org. Texas považuje za trestný čin vytvoření či sdílení deepfake videí ke zranění kandidáta nebo ovlivnění voličů brennancenter.org. K polovině roku 2025 zavedlo nebo projednává legislativu týkající se deepfaků při volbách alespoň čtrnáct států USA citizen.org. Tyto snahy získávají překvapivě oboustrannou podporu – zákonodárci obou stran se shodují, že AI-manipulované volební dezinformace jsou hrozbou demokracii citizen.org citizen.org. Zákony se liší: někde postihují publikaci škodlivých deepfaků o kandidátovi, jinde kladou důraz na označování syntetického obsahu v kampaních. Lobbyistická skupina Public Citizen požádala Federální volební komisi o aktualizaci pravidel, aby zakázala federálním kandidátům využívat klamavé deepfaky v kampani brennancenter.org. FEC zatím nevydala nové předpisy, ale téma je zjevně na stole. Američtí politici musí rovněž vyvažovat otázky svobody projevu – příliš široké zákazy upraveného obsahu by mohly narazit na První dodatek ústavy. Satira i parodie (chráněný politický projev) často zahrnují upravené obrázky či videa; zákony se musí zaměřit pouze na zlý podvod. To se odráží v řadě státních zákonů, které výslovně vyjímají parodii, satiru, či žurnalistické užití brennancenter.org brennancenter.org. Převládá stanovisko, že falešný AI-generovaný obsah, který vědomě mate voliče nebo podněcuje narušení, nemá v demokracii legitimní hodnotu a lze jej omezit bez narušení svobody projevu brennancenter.org brennancenter.org.
  • Evropská unie: EU podniká razantní kroky v obecné regulaci AI – včetně opatření cílených přímo na deepfaky. Zásadní AI Act EU, dohodnutý v roce 2024 (plně platný od 2026, některé části dříve), zahrnuje požadavek transparentnosti pro syntetická média. Podle tohoto zákona musí každý AI systém, který umí vytvářet “deepfake” obsah, zajistit, aby byl tento obsah označen jako vytvořený AI (kromě některých výjimek, např. umění či bezpečnostní výzkum) realitydefender.com. V praxi to znamená, že vývojáři generativních obrazových či video modelů v EU budou muset do výstupů vkládat vodoznaky či metadata. Nedodržení povinnosti bude podléhat vysokým pokutám. Dále obnovený Kodex chování proti dezinformacím (dobrovolně podepsaný velkými platformami) konkrétně označuje deepfaky za hrozbu a zavazuje platformy vytvářet “politiky, opatření a nástroje pro řešení manipulovaného obsahu” brennancenter.org brennancenter.org. Platformy se zavázaly zavádět systémy na detekci a označení či odstranění deepfake videí, která by mohla veřejnosti ublížit, a spolupracovat s ověřovateli faktů pro rychlé vyvracení nepravých AI obsahů. Zákon o digitálních službách (DSA) – platný od roku 2023 – ukládá velkým platformám v EU povinnost zhodnotit a zmírňovat “systémová rizika”, včetně šíření AI-dezinformací. Tento regulatorní tlak vedl firmy jako Meta, Google či TikTok k oznámení nových opatření pro evropskou volební sezónu 2024–2025: lepší detekci deepfaků a zvýrazněné označování syntetických médií. Evropa tedy zvolila regulační strategii stavící na transparentnosti: povinné značky u AI výstupů a odpovědnost platforem za potírání deepfake dezinformací. Kritici namítají, že vymáhání bude obtížné (lze chytit všechny neoznačené padělky v záplavě online obsahu?), ale EU dává jasně najevo, že nekontrolované deepfaky jsou nepřípustné a neodpovídají jejím standardům digitální správy realitydefender.com realitydefender.com.
  • Spojené království: Velká Británie zatím nepřijala deepfake-specifické volební zákony, ale věnuje se tématu v rámci širší agendy bezpečnosti online a AI. V roce 2023 vešel v platnost Online Safety Act, obsáhlý zákon zaměřený na regulaci škodlivého obsahu na internetu. Ten kriminalizuje sdílení nevyžádaného deepfake porna – tedy nelegální je vytvořit nebo šířit explicitní syntetické zobrazení někoho bez jeho souhlasu policyoptions.irpp.org. To řeší stránku obtěžování deepfaky. V oblasti volebních dezinformací zákon svěřuje regulátorovi Ofcom pravomoc vydat kodexy jednání zaměřené na dezinformace. Odborníci vyzývají Ofcom k vytvoření Kodexu jednání o dezinformacích, který by obsahoval normy i pro obsah manipulovaný AI cetas.turing.ac.uk. Takový kodex, podobný tomu unijnímu, by mohl podporovat sociální platformy a politické aktéry v Británii, aby se zdrželi šíření deepfaků a jasně označovali syntetický obsah. Zaznívají také požadavky, aby volební komise vydala pokyny pro strany ohledně odpovědného použití AI a stanovila červené linie pro klamavé deepfaky v kampaních cetas.turing.ac.uk. Koncem roku 2024 doporučil parlamentní výbor zpřísnit volební zákony ve vztahu k deepfakovým dezinformacím, ale formální legislativa zatím nebyla předložena. Vláda zkoumá, zda jsou současné zákony (např. o pomluvě, podvodu či volebních deliktech) dostatečné k potírání deepfake podvodů, nebo zda jsou třeba nové předpisy cetas.turing.ac.uk. Británie navíc zřizuje AI Safety Institute a uspořádala v roce 2023 globální summit o bezpečnosti AI, kde se probíralo i téma manipulace s informacemi. Britské úřady kladou důraz na technickou obranu i mediální gramotnost (podrobněji v doporučeních) stejně jako na právní zákazy. Přesto kroky typu zákazu deepfake porna a posilování regulatorních právomocí ukazují, že AI-dezinformace vyžadují politickou odpověď.
  • Kanada: Ke konci roku 2024 neexistoval v Kanadě žádný specifický zákon zakazující deepfaky ve volbách. Zákon o volbách Kanady výslovně nezakazuje AI-generované dezinformace, takže by bylo nutné se spoléhat na obecnější předpisy (například zákony proti podvodu či vydávání se za někoho jiného), které ale nemusejí být plně dostačující cef-cce.ca. Na tuto mezeru upozorňují experti, kteří varují, že je Kanada v této oblasti “krok či dva pozadu” za jinými demokraciemi policyoptions.irpp.org. Na podzim 2023 došlo v Kanadě k menšímu incidentu – falešný audionahrávka napodobující politika – který způsobil sice malý dopad, ale zvýšil povědomí o problémů. Kanadská volební komise považuje AI dezinformace za narůstající hrozbu a zkoumá možné reakce cef-cce.ca. Analytici požadují novou legislativu “již včera” – například posílení pravomocí komisaře pro volby k zásahu proti deepfakeům v kampaních policyoptions.irpp.org. Kanada může čerpat inspiraci u spojenců: například zavést povinné zveřejňování informací o AI-vytvářených volebních reklamách nebo zločiny za šíření vědomě deepfake materiálu určeného k oklamání voličů. K polovině 2025 nebyl zákon předložen, ale tlak na Kanadu, aby se připojila k jurisdikcím řešícím deepfaky, sílí policyoptions.irpp.org.
  • Jiné demokracie: Po celém světě se rozvíjí různá opatření:
    • Austrálie: Australská vláda kvůli obavám z AI “rozpadu pravdy” před nadcházejícími volbami oznámila záměr na “zákon o pravdě v politické reklamě”, který by zakázal klamavá deepfake videa a audionahrávky v předvolebních kampaních innovationaus.com. Návrh vlády Albana z roku 2023 by zakazoval publikaci syntetického obsahu, který napodobuje skutečné kandidáty nebo může oklamat voliče během volebních období innovationaus.com. Legislativní proces je však pomalý – některá deepfake ustanovení možná nevstoupí v platnost do roku 2026 innovationaus.com, což znamená, že federální volby 2025 proběhnou nejspíš ještě bez nich. Zatím australští volební komisaři vydali doporučení a zdůraznili potřebu nadhledu (varovali, že přehnaným soustředěním se na deepfaky se může neúmyslně snížit důvěra ve skutečné informace) ia.acs.org.au. Australská politická reprezentace napříč stranami podporuje snahu potírat AI dezinformace, debatuje se o rovnováze se svobodou projevu theguardian.com sbs.com.au.
    • Tchaj-wan: Po zkušenostech s deepfakovým vměšováním se z Číny upravil Tchaj-wan volební zákony. V roce 2023 tchajwanský parlament novelizoval zákon o volbách a odvolávání, čímž výslovně zakázal šíření upravených zvukových nebo videozáznamů kandidátů s úmyslem falešně ovlivnit výsledek policyoptions.irpp.org. Tento krok poskytl jasný právní nástroj proti deepfakovým pomluvám, které byly zaznamenány v roce 2024. Tchaj-wan také investoval do osvěty veřejnosti a do rychlých reakcí na dezinformace ve spolupráci vlády, občanské společnosti a technologických platforem, což dopad deepfaků omezilo policyoptions.irpp.org policyoptions.irpp.org.
    • Evropské demokracie: Jednotlivé státy Evropy, mimo celoevropské regulace, začínají řešit deepfaky v rámci existujících zákonů. Francouzský zákon proti “falešným informacím” během voleb (z roku 2018) lze aplikovat na deepfaky šířené za účelem ovlivnění hlasování, německé přísné zákony o pomluvě a průběhu voleb mohou sloužit obdobně. Objevují se i návrhy nových opatření: v Německu se diskutuje o povinném zveřejňování použití syntetických médií ve volebních materiálech. Ve Velké Británii, jak už bylo zmíněno, by budoucí úpravy volebního práva (například označování digitální reklamy) mohly obsahovat povinné informace o AI obsahu cetas.turing.ac.uk.
    • Mezinárodní iniciativy: Stále více se uznává, že je potřeba globální spolupráce, neboť dezinformace snadno překračují hranice. Skupina G7 má pracovní skupinu pro “Řízení AI”, která v roce 2024 vydala prohlášení o boji proti škodlivému užití AI v informačním prostoru. Administrativa prezidenta Bidena v USA dosáhla dobrovolných závazků klíčových AI firem (OpenAI, Google, Meta atd.), že budou implementovat vodoznaky pro AI obsah a investovat do prevence zneužití. Ačkoliv nejsou právně závazné, naznačují nastupující mezinárodní normu transparentnosti a odpovědnosti v AI oblasti.

Stručně řečeno, politické reakce na deepfaky nabírají na obrátkách. Legislativa teprve dohání technologii, ale směr je jasný: vlády směřují k tomu, aby kriminalizovaly nejškodlivější použití syntetických médií ve volbách, zavedly povinnou transparentnost (štítky/oznámení) pro AI obsah a posílily regulační úřady či volební komise k zásahu proti digitálním padělkům. Zároveň ale musí chránit svobodu projevu a vyvarovat se drakonických pravidel zneužitelných k cenzuře. Najít správnou rovnováhu je obtížné. Přístupy – od státních zákonů v USA po celoevropské normy – poskytnou v roce 2025 testovací prostředí. Politici tyto nástroje jistě vylepší, jakmile se ukáže, co funguje. Nicnedělání však není možnost: jak to shrnul jeden sledovací portál, “bez regulace budou deepfaky dále mást voliče a podrývat důvěru ve volby.” citizen.org citizen.org V následující části nabízíme strategická doporučení cílící na všechny aktéry demokratického procesu.

Strategická doporučení pro ochranu voleb

Obrana integrity voleb v době umělé inteligence si vyžádá vícestrannou strategii. Žádný jednotlivý nástroj ani zákon nedokáže problém deepfake vyřešit; je nutná koordinovaná snaha vlád, technologických platforem, médií a občanské společnosti. Níže uvádíme strategická doporučení napříč těmito sektory za účelem minimalizace rizik a zajištění toho, aby voliči mohli činit informovaná rozhodnutí v roce 2025 a dále:

Vlády a tvůrci politik

1. Posílit právní ochranu a odstrašení: Vlády by měly přijmout nebo aktualizovat zákony, které výslovně zakazují zlovolné využití syntetických médií ve volbách. To zahrnuje kriminalizaci vytváření nebo šíření deepfake obsahu, který se záměrem oklamat veřejnost nebo sabotovat volby nepravdivě zobrazuje kandidáta či manipuluje s informacemi souvisejícími s volbami (například postupy hlasování). Klíčová je úzká specifikace – zákony by měly cílit na úmyslný klam (dezinformace), s jasnými výjimkami pro satiru, parodii nebo zjevné umělecké vyjádření. Sankce (pokuty či trestní stíhání) budou působit jako odstrašující prostředek pro potenciální šiřitele deepfake obsahu, zvláště pokud budou důsledně vymáhány. Například australský návrh zákazu klamavých deepfake během volebních kampaní a nové klauzule Tchaj-wanu zaměřené proti AI-manipulovanému volebnímu obsahu mohou být vzorem innovationaus.com policyoptions.irpp.org. V USA by federální zákony (např. navrhovaný No AI FRAUD Act) mohly stanovit celostátní základ, který doplní státní legislativu. Vlády by také měly aktualizovat pravidla kampaní a reklam: požadovat, aby byla jakákoli politická reklama (online či vysílaná), která obsahuje syntetická média, jasně označena (např. „Tento obraz/video je vytvořeno umělou inteligencí“), aby diváci nebyli uvedeni v omyl. Pravidla pravdivé reklamy ve volebních kampaních musí zahrnovat i obsah generovaný AI.

2. Zavést protokoly reakce na incidenty během voleb: Volební úřady by měly vytvořit formální protokoly pro pohotovou reakci na závažné deepfake incidenty v reálném čase. Skvělým příkladem je kanadský Critical Election Incident Public Protocol, který sdružuje vysoké úředníky k posouzení a informování veřejnosti o hrozbách zahraničního vměšování či dezinformací během voleb cetas.turing.ac.uk cetas.turing.ac.uk. Ostatní demokracie by měly přijmout podobné mechanismy. Pokud se objeví nebezpečný deepfake (například falešné video kandidáta, který údajně uzná porážku během volebního dne), protokol by se spustil – úředníci, experti na zpravodajství a technologické platformy by rychle ověřili pravdivost a vydali veřejné prohlášení vyvracející podvrh a objasňující fakta cetas.turing.ac.uk. Tato rychlá reakce je klíčová pro zmírnění dopadu „dezinformačního vodopádu“. Vlády by měly tyto reakce nacvičovat předem (simulovat různé deepfake scénáře), aby mohly reagovat rychle a jednotně, když to bude potřeba.

3. Investovat do detekční a autentizační infrastruktury: Veřejné instituce by měly investovat do rozvoje technologií na detekci deepfake obsahu a ověřování autenticity. To zahrnuje financování výzkumu (například programy ve stylu DARPA zaměřené na dezinformace zprostředkované AI), podporu nasazení detekčních nástrojů ve volebním prostředí a přijetí autentizačních standardů v komunikaci státních institucí. Konkrétním krokem je, aby státní média (veřejnoprávní vysílání, oficiální účty na sociálních sítích atd.) začala přidávat prokazatelné metadata o původu ke všem oficiálním fotografiím, videím a zvukům, které zveřejní cetas.turing.ac.uk. Tím vytváří základ „ověřeně pravdivých“ informací. Voliči a novináři pak mohou důvěřovat, že každý záznam s vládní pečetí ve svých metadatech je autentický – a naopak přistupovat skepticky k záznamům, které toto označení postrádají. Vlády mohou jít příkladem touto strategií „autenticity v základu“ cetas.turing.ac.uk, kterou již zkoumají USA i Velká Británie. Dále by policejní a dozorové orgány měly být vybaveny forenzními jednotkami pro analýzu podezřelých médií během volebních kampaní. Vědomí, že úřady mají technické prostředky k odhalení a vystopování deepfake obsahu (a případně k identifikaci pachatelů), by mělo přispívat k odrazení zlých aktérů.

4. Vyjasnit a modernizovat stávající zákony: Mnoho zemí může zjistit, že některé případy deepfake lze postihnout pomocí stávajících zákonů o podvodu, krádeži identity, pomluvě nebo volebním zasahování – ale mohou se objevit mezery. Vlády by měly revidovat svůj právní řád, zda nejsou nutné nové kategorie. Například: máme zákony, které zahrnují AI-generované napodobení veřejných činitelů? Pokud ne, zavést je. Zajistit, aby zákony na ochranu údajů a soukromí zahrnovaly neoprávněné užití něčího vzhledu/hlasu AI jako přestupek. Vyjasnění právního statutu škodlivých deepfake (a osvětová kampaň k tomu) je důležité, aby potenciální pachatelé věděli, že mohou být činěni odpovědnými. Také to umožní obětem (kandidátům či občanům) domáhat se nápravy, pokud budou terčem. Tato revize by měla zahrnovat i volební zákony: například aktualizace definice nezákonné volební reklamy nebo klamavých průzkumů, aby explicitně zahrnovaly manipulace se syntetickými médii cetas.turing.ac.uk. Cílem je odstranit jakékoli nejasnosti – potenciální dezinformátor by neměl být schopen tvrdit „technicky to není nezákonné, protože je to AI“. Pokud jsou zákony explicitní, usnadňuje to vymáhání a trestní stíhání.

5. Posílit mezinárodní spolupráci: Protože dezinformační kampaně často vznikají v zahraničí (či se šíří přes hranice), měly by demokratické vlády na tomto poli spolupracovat. Zpravodajské služby a kyberbezpečnostní složky by měly sdílet informace o nových deepfake taktikách (například pokud jedna země odhalí zahraniční deepfake operaci, měla by varovat ostatní). Fóra jako Alliance for Securing Democracy, G7, EU-US dialogy a další mohou koordinovat společná prohlášení a normy proti deepfake ve volbách. Diplomatický tlak lze vyvíjet na státní aktéry, kteří takové zásahy sponzorují nebo tolerují. Prostor je i pro výzkumnou spolupráci – např. mezinárodní centrum pro detekci deepfake by mohlo sdílením dat zdokonalovat algoritmy. Organizace pro monitoring voleb (jako OBSE či mezinárodní pozorovatelské mise) by měly aktualizovat své metodiky, aby zahrnovaly sledování vlivu syntetických médií, a státy mohou do obranných paktů pro demokratické procesy zahrnout také opatření proti deepfake. Jednotná fronta ztíží zlým aktérům zneužívání slabin jednotlivých zemí.

6. Podporovat povědomí veřejnosti a digitální gramotnost: V konečném důsledku mají vlády roli vzdělávat voliče o deepfake. Mnoho zemí nyní zvažuje nebo zavádí programy digitální gramotnosti ve školách i pro veřejnost cetas.turing.ac.uk. Tyto programy lidi učí ověřovat online informace, rozpoznávat znaky manipulovaných médií a kriticky zhodnotit zdroje. Vzhledem k tomu, jak přesvědčivé jsou dnes AI podvrhy, je zásadní, aby každý volič věděl, že takové podvrhy existují, a byl schopen ověřit šokující obsah (místo slepé důvěry či sdílení). Vlády by měly spolupracovat se školami a neziskovkami na zařazení povědomí o deepfake do výuky a veřejných informačních kampaní. Například vysílat osvětové klipy, které ukazují vedle sebe skutečné a deepfake video politika a vysvětlit rozdíl, může zvýšit povědomí. Důkazy naznačují, že lidé s vyšší mediální gramotností a kritickým myšlením mnohem lépe deepfake odhalí a odolávají dezinformacím cetas.turing.ac.uk. Financování iniciativ mediální gramotnosti je tedy jednou z nejúčinnějších dlouhodobých obran. Pokud se veřejnost promění v aktivní síť „senzorů“, která podvrhy rozpozná a nahlásí, může být dopad deepfake propagandy výrazně snížen.

Technologické platformy a vývojáři AI

1. Posilovat platformní politiky a jejich prosazování: Sociální sítě a online platformy jsou hlavními kanály pro rychlé šíření deepfake obsahu. Tyto společnosti by měly zavést přísné politiky proti manipulovaným médiím, která klamou uživatele, zejména v kontextu voleb. Mnohé platformy s tím začaly: například Facebook a Twitter (X) mají pravidla pro odstraňování nebo označování „manipulovaných médií“, která by mohla škodit. Prosazování však musí být důsledné. Platformy by měly zlepšovat automatickou detekci deepfake (využívat nejnovější dostupné nástroje) a zajistit rychlé vyhodnocení lidským moderátorem při nahlášení podezřelého obsahu uživatelem. V době voleb mohou firmy vytvořit speciální „war roomy“ a koordinační kanály s volebními komisemi pro řešení potenciálních deepfake incidentů v reálném čase. Pokud je podvrh odhalen, měla by platforma označit jej za falešný nebo rychle odstranit a algoritmicky omezit jeho další šíření brennancenter.org brennancenter.org. Důležitá je také transparentnost: platformy mohou zveřejňovat pravidelné zprávy o zjištěných deepfake obsazích a přijatých opatřeních, což posiluje důvěru veřejnosti. Také by měli sdílet vzorky odhalených deepfake s vědeckými pracovníky a přispívat ke kolektivnímu poznání.

2. Zavést označování a sledování deepfaků: Podle vzoru EU by platformy po celém světě měly vyžadovat, aby obsah generovaný AI byl označen a zveřejněn. Například pokud je nahrána politická reklama obsahující AI generovaný obraz nebo hlas, platforma by mohla požadovat, aby nahrávající zaškrtl políčko „tento obsah má syntetické prvky“ – a poté zobrazila divákům upozornění („Toto video bylo upraveno nebo částečně generováno AI“). I mimo formální reklamy mohou platformy použít detekční nástroje k vizuálnímu označení podezřelých deepfake videí (například upozornění, že autenticita videa nebyla ověřena). Sociální sítě a chatovací platformy by taktéž mohly integrovat funkce ověřování autenticity obsahu: pomocí standardů jako C2PA mohou uživatelům ukázat ikonu, pokud je ověřen původ a historie úprav obrázku, nebo naopak označit, pokud tato data chybí. Některé technologické firmy (Adobe, Microsoft, Twitter) už se těchto snah účastní. Tím, že začlení signály o původu do svého uživatelského rozhraní, mohou platformy uživatelům pomoci rozlišit skutečné od falešného. Měly by také pracovat na mechanismech zpětného dohledání – například, pokud se šíří škodlivý deepfake, je možné dohledat, kdo ho původně nahrál, i když byl tisíckrát sdílen dál? Spolupráce s orgány činnými v trestním řízení při větších incidentech (při respektování zákonů o ochraně soukromí) bude klíčová pro dopadení pachatelů.

3. Zákaz škodlivých deepfake uživatelů a sítí: Platformy musí být ostražité vůči organizovaným aktérům, kteří opakovaně šíří deepfaky. To znamená nejen mazání jednotlivého obsahu, ale blokování účtů, stránek či botů zapojených do koordinovaných deepfake kampaní. Pokud důkazy spojují operaci se státem podporovaným úsilím nebo známou trollí farmou, platformy by to měly zveřejnit a eliminovat jejich přítomnost. Mnoho dezinformačních sítí bylo v posledních letech zlikvidováno; stejný rázný přístup musí platit i pro AI poháněné infiltrační operace. Platformy by měly aktualizovat své podmínky používání tak, aby výslovně zakazovaly škodlivé vytváření nebo sdílení syntetických médií za účelem klamání ostatních. Tyto pravidla pak tvoří základ pro blokování porušovatelů. U politické reklamy by pak jakákoli kampaň nebo výbor přistižený při používání klamavých deepfaků měl čelit penalizaci, například ztrátě práv na reklamu. Technologické firmy by rovněž mohly spojit síly a vytvořit společný blacklist notorických deepfake hashů nebo signatur, takže jakmile je falešné video identifikováno na jedné platformě, lze ho rychle zablokovat i na ostatních (podobně jako se sdílejí hashe teroristického obsahu skrze konsorcium). Podstatou je, učinit používání deepfaků na hlavních platformách nevýhodným – buď bude obsah rychle odstraněn, nebo autor přijde o účet.

4. Spolupráce s ověřovateli faktů a úřady: Žádná platforma nemůže obsah kontrolovat dokonale. Spolupráce je zásadní. Sociální sítě by měly prohloubit partnerství s nezávislými ověřovateli faktů kvůli hodnocení virálního obsahu. Když ověřovatelé prokáží, že video je falešné, platformy musí tuto opravu zesílit – například připojit odkaz na fact-check článek při každém sdílení videa, nebo upozornit všechny uživatele, kteří falešné video viděli. Firmy jako Facebook toto už u dezinformací dělají a měly by tak činit i u deepfaků. Platformy by navíc měly spolupracovat s volebními komisemi a bezpečnostními složkami, zejména v období voleb. Mohou zavést přímé kontaktní linky nebo kanály pro úředníky pro hlášení podezřelých deepfaků ovlivňujících hlasování, a stejně tak mohou platformy upozornit vládu, pokud zaznamenají cizí dezinformační kampaně cílené na danou zemi. V některých jurisdikcích už existují formální dohody (například Kodex praxe EU podporuje sdílení informací s vládami o hrozbách dezinformací brennancenter.org). Dokonce i v USA jednotka kyberbezpečnosti Ministerstva vnitřní bezpečnosti spolupracuje s platformami na monitorování volební dezinformace. Tyto spolupráce samozřejmě musí respektovat svobodu projevu a nesmějí sklouznout k cenzuře legitimní řeči. Ale u jednoznačně smyšleného, škodlivého materiálu může rychlá, koordinovaná reakce mezi platformami a veřejnými institucemi zastavit šíření falešného obsahu. To může zahrnovat společná tisková prohlášení vyvracející virální deepfake nebo algoritmy posilující důvěryhodné zdroje k omezení šíření.

5. Zlepšovat ochranu AI modelů: Firmy, které budují generativní AI modely (OpenAI, Google, Meta aj.) mají odpovědnost už na samém počátku. Měly by zavést opatření, jak zabránit zneužití AI při ovlivňování voleb. To může zahrnovat watermarking AI výstupů, jak už bylo zmíněno (tedy každé obrázky generované např. DALL-E nebo Midjourney obsahují zabudovanou „podpisovou“ informaci). Dále by se to mohlo týkat kvality trénovacích dat – například aby model odmítl požadavky na škodlivé napodobení skutečných osob. Některé AI nástroje již neumožní vytvářet deepfake obrázky reálných politiků díky zabudovaným filtrům. Tyto pojistky je třeba průběžně zlepšovat (i když u open-source modelů existuje výzva, neboť je mohou útočníci doladit bez těchto omezení). Vývojáři AI by taktéž měli investovat do výzkumu technik detekce deepfaků a sdílet je s komunitou. Je pozitivní, že řada velkých AI firem dobrovolně slíbila podporu watermarkingu a ověřování obsahu. Do budoucna mohou spolupracovat na standardním API, které každému videu či zvukovému souboru rychle umožní zjistit, zda byl vygenerován jejich modelem. Ti, kdo tvoří „problém“ (generativní technologie), by jednoduše měli pomáhat tvořit také „řešení“ (cesty ke spolehlivé detekci).

6. Transparentnost v politické inzerci: Platformy, které hostí politickou reklamu, by měly prosazovat přísnou transparentnost ohledně využití AI. Pokud je na Facebooku nebo Googlu propagována reklama s AI generovanými prvky, knihovna reklam platformy by to měla jasně uvádět. Platformy by mohly také vyžadovat po politických inzerentech, aby předložili i neupravené, surové záběry pro porovnání. Ještě ambiciózněji by sociální sítě mohly zvážit dočasný zákaz veškerých politických reklam obsahujících syntetická média během citlivých posledních dnů kampaně – podobně jako některé už zakazují nové reklamy těsně před volbami. Tím by se eliminovalo riziko hromadného deepfake útoku na poslední chvíli. Ačkoliv je prosazení náročné, důležité je, že placená propagace klamavého obsahu je zvlášť nebezpečná a platformy mají v reklamní oblasti větší pravomoci než u běžných příspěvků. Zajištění vysoké transparentnosti a rychlého stahování problematických reklam je klíčové, protože deepfake šířený formou placených reklam by mohl zasáhnout miliony lidí skrze algoritmické cílení a nespravedlivě narušit informační prostředí.

Média a novinářské organizace

1. Přísné ověřovací protokoly: Zpravodajská média musí přizpůsobit své ověřovací postupy éře deepfaků. Každá redakce – od národních televizí po místní deníky a fact-checkingové portály – by si měla nastavit formální postupy pro autentizaci audiovizuálního materiálu před jeho zveřejněním nebo vysíláním. To zahrnuje školení novinářů v práci s forenzními nástroji (například kontrola metadat videa, analýzy obrázků) a konzultaci odborníků v případě potřeby. U každého senzačního nebo skandálního klipu, který se objeví během voleb, by jej editoři měli brát s zdravou skepsí a neuspěchat jeho odvysílání bez potvrzení. Média by měla dvojitě ověřovat veškerý uživatelsky generovaný obsah: pokud se například objeví video kandidáta při něčem šokujícím, měla by redakce hledat další důkazy (svědky, oficiální prohlášení atd.) nebo si nechat provést snímek po snímku analýzu pro vyloučení deepfaku. Cílem je zabránit tomu, aby se média nevědomky stala šiřiteli dezinformací. Některé redakce už zřídily vlastní deepfake týmy. V jednom případě novináři v Arizoně vytvořili (s povolením) vlastní deepfake, aby divákům ukázali, jak snadno lze video zmanipulovat knightcolumbia.org – šikovný způsob, jak zvýšit povědomí. Každá redakce by měla zvážit mít „deepfake experta“ na telefonu (nebo partnerství s technologickou laboratoří) pro rychlou analýzu podezřelých záběrů. Pokud se ověřování stane stejně běžné jako factchecking, média dokáží falešný obsah zachytit včas – nebo alespoň varovat publikum, pokud se něco ověřit nepodařilo.

2. Odpovědné informování o deepfaku: Při informování o výskytu syntetických médií by novináři měli postupovat opatrně a s kontextem. Když deepfake zamířený na nějakého kandidáta zviralizuje, zpráva není samotné falešné tvrzení, ale fakt, že jde o podvrh. Média by se měla zdržet detailního opakování klamných obvinění nebo bezmyšlenkovitého přehrávání falešného videa, jelikož to může nechtěně napomoci dalšímu šíření dezinformace. Namísto toho jej mohou popsat obecně a zaměřit se na odezvu (například: „Na internetu bylo zveřejněno zmanipulované video nepravdivě zobrazující X při Y, což experti vyvrátili“). Redakce se také mohou rozhodnout rozmazat nebo přímo neodkazovat na deepfake obsah ve svých on-line článcích cetas.turing.ac.uk, aby neposilovaly návštěvnost škodlivému zdroji ani nesnázily jeho další stažení a šíření. Zarámování reportáže je klíčové: zdůraznit pokus oklamat a samotný fakt deepfaku více než obsah falešné narace cetas.turing.ac.uk. Média by měla také zdůraznit opravy nebo pravdivou informaci (například: „Ne, politik Z toto neřekl – jedná se o AI podvrh; zde je, co opravdu na dané téma řekl.“). Pokud to budou dělat důsledně, důvěryhodná média mohou pomoct ‚očkovat‘ veřejnost proti šíření a přijímání takových fejků. Je to citlivá rovnováha mezi referováním o dezinformaci (protože ignorovat ji problém neřeší) a jejím neúmyslným posilováním. Lze vytvořit pokyny podobné těm, které existují pro informování o hoaxech nebo masových střelbách (kde jsou určité detaily záměrně upozaděny, aby se předešlo kopiím), a aktualizovat mediální etické kodexy – např. Britská Independent Press Standards Organisation je vyzývána, aby do nich tyto situace zahrnula cetas.turing.ac.uk.

3. Využití technologie autenticity v redakcích: Samy zpravodajské organizace mohou využívat rozvíjející se infrastrukturu pro ověřování autenticity. Například, mediální dům by mohl zavést nástroje iniciativy Content Authenticity Initiative k připojení kryptografických obsahových údajů ke všem původním fotografiím a videím pořízeným svými novináři. To znamená, že jakýkoliv záběr zachycený například kameramanem Reuters nebo AP by mohl nést bezpečnostní pečeť potvrzující jeho původ a jakékoliv úpravy. Dále, když diváci uvidí video se zdrojem Reuters, mohli by si ověřit, že nebylo upraveno. Taková opatření pomáhají potvrdit, co je skutečné, a poskytují veřejnosti zdroj pravdy. Média by také měla spolupracovat při budování databází známých deepfakeů (a ověřeně pravého obsahu), které mohou pomoci ověřovatelům faktů. Například vedení archivu oficiálních projevů a rozhovorů může pomoci rychle odhalit upravený klip porovnáním. Hlavní tiskové agentury by mohly koordinovat rychlé upozornění všech svých odběratelů na nebezpečný deepfake – podobně, jako vydávají mimořádné zprávy. Interně by si redaktoři také měli být vědomi, že politici se mohou snažit podstrčit novinářům falešná média (např. tip s „uniklým“ audiem, které je ve skutečnosti generováno AI). Je proto rozumné udržovat zdravý skepticismus k jakémukoliv digitálnímu materiálu získanému z anonymních zdrojů.

4. Vzdělávání publika: Média mohou sehrát významnou roli v informování voličů o syntetických médiích. Zpravodajství a novináři by měli připravovat vysvětlující články, rozhovory s experty a reportáže, které veřejnosti ukáží, jak deepfaky vznikají a jak je rozpoznat. Demystifikací technologie se snižuje její vliv. V některých televizních reportážích v roce 2024 například předvedli naživo klony hlasů vytvářené AI, aby ukázali, jak by podvodný hovor mohl napodobit hlas vašeho příbuzného. Podobně může zpravodajství během voleb zahrnovat upozornění: „Pokud uvidíte na poslední chvíli senzační video o kandidátovi, buďte opatrní – může být falešné. Zde je postup, jak ověřovat…“. Mediální osvěta (případně ve spolupráci s vládou nebo neziskovkami) může významně zvýšit digitální gramotnost. Novináři by také měli důsledně používat přesná označení: místo „upravené video“ říkat „deepfake“ nebo „AI-generované falešné video“, aby bylo jasné, že vzniká nová kategorie obsahu. Dobře informovaná veřejnost časem méně podlehne podvodům a bude častěji požadovat důkazy. Média, jako prostředník mezi informacemi a veřejností, mají povinnost tuto odolnost společnosti posilovat.

5. Odpovědnost a odhalování: Nakonec by novináři měli vyšetřovat a zveřejňovat kdo stojí za velkými deepfake operacemi. Přivedení viníků k odpovědnosti v očích veřejnosti může odradit od budoucího zneužití. Pokud je identifikován například konkurenční volební tým, zahraniční trollí farma nebo konkrétní internetová skupina jako zdroj nebezpečného deepfaku, důrazné zveřejnění této informace připojí ke strategii stigma i riziko. Odhalení pozadí tvorby a financování dezinformačních kampaní může snížit jejich účinnost. Dále, pokud sám politik nebo veřejně činná osoba začne šířit deepfake s vědomím, že je nepravý (například kandidát sdílí falešné video svého soupeře), média by to měla důrazně odsoudit jako vážné pochybení. Hrozba negativní publicity a poškození pověsti může odradit politiky od „špinavých triků“ s deepfaky. Stručně řečeno, role médií jako hlídacího psa platí i v digitálním věku: vyšetřovat, přisuzovat původ a odhalovat zlovolné operace se syntetickými médii, stejně jako jakýkoliv jiný podvod nebo korupci v politice.

Iniciativy občanské společnosti a voličů

1. Digitální gramotnost a komunitní vzdělávání: Organizace občanské společnosti – včetně neziskovek, knihoven, univerzit a místních iniciativ – mohou sehrát klíčovou roli v vzdělávání občanů pro orientaci v éře deepfake. Měly by být nabízeny široce dostupné programy, které komunitám ukáží, jak ověřovat pravost médií. Například neziskové organizace mohou pořádat workshopy, kde se lidé naučí jednoduché triky, jako je reverzní vyhledávání obrázků (ke zjištění, zda je fotka generovaná AI nebo upravená), ověřování dalších zpravodajských zdrojů a používání webů pro ověřování faktů. Existují již velmi dobré sady nástrojů a učební plány od ověřovatelských skupin (např. First Draft, Media Literacy Now), které se zaměřují na rozpoznání dezinformací a deepfakeů; tyto materiály by měly být široce šířeny. Toto vzdělávání by nemělo být určeno pouze studentům, ale i starším lidem, kteří jsou často náchylnější k online podvodům. Celonárodní kampaně digitální gramotnosti mohou být spuštěny s případným vládním financováním, ale prováděny komunitními organizacemi kvůli důvěře veřejnosti. Cílem je zvýšit „stádní imunitu“ společnosti: pokud kritická masa lidí dokáže rozpoznat podvod, nebo alespoň počká s úsudkem do ověření, dezinformátoři tím ztrácí moc. Průzkumy ukazují, že veřejnost chce tyto znalosti – mnoho lidí je znepokojeno tím, že nedokáže rozeznat pravdu od lži brennancenter.org brennancenter.org. Občanská společnost tento deficit může naplnit posilováním občanů skrze vzdělávání a praktické dovednosti.

2. Iniciativy ověřování faktů a vyvracení: Nezávislí ověřovatelé faktů a hlídací psi občanské společnosti zůstávají klíčoví. Zejména během voleb by měli zavádět speciální centra pro ověřování deepfake. Koalice ověřovatelských organizací by například mohla během voleb spravovat veřejný panel sledující fámy a nově vznikající podezření na deepfaky a poskytující rychlá vyvrácení. Projekt News Literacy udělal něco podobného pro volby v USA v roce 2024, kdy zaznamenával případy dezinformací a uváděl, jak málo jich skutečně vzniklo pomocí AI knightcolumbia.org knightcolumbia.org. Takové transparentní sledování pomáhá veřejnosti i novinářům pochopit situaci v kontextu a nepřehánět hrozbu, ale zároveň řešit pravé případy. Občanské organizace mohou také šířit opravy na sociálních sítích – reagovat na virální příspěvky přesnými informacemi, využívat komunitní poznámky a jiné nástroje. Měl by se podporovat i „prebunking“: varování veřejnosti předem, že může vzniknout podvrh. Když např. zpravodajské služby nebo zkušenosti naznačují, že kandidát by mohl být terčem fiktivního skandálu, občanské iniciativy (ve spolupráci s volebními úřady) mohou připravit voliče: „Buďte obezřetní, pokud se najednou objeví šokující video s X, je zde možnost deepfaku.“ Výzkumy ukazují, že prebunking může výrazně snížit důvěřivost a šíření lživých tvrzení cetas.turing.ac.uk cetas.turing.ac.uk. Proaktivní přístup občanské společnosti tedy může včasným očekáváním deepfake kampaní přinést významné výsledky.

3. Občanské technologie a detekce pomocí davu: Technicky zdatná komunita může být mobilizována do boje proti deepfake. Již dnes existují dobrovolní „lovci deepfake“, kteří analyzují podezřelá média online. Občanské organizace mohou tento proces koordinovat pomocí platforem – například zvláštního portálu nebo aplikace, kde lidé mohou nahrát podezřelá videa či audio k analýze a síť expertů nebo AI nástrojů poskytne zprávu o autenticitě. Toto sdílené zpravodajství může podpořit oficiální postupy. Občanské technologické skupiny by mohly také vytvářet pluginy do prohlížečů či mobilní aplikace, které uživateli pomohou rozpoznat syntetická média. Například aplikace by umožnila uživateli vybrat video na obrazovce a získat okamžitou analýzu z více detekčních algoritmů (podobně jako antivirový software pro deepfaky). I když nejsou dokonalé, mohou včas upozornit na problém. Open-source projekty k vytváření takových nástrojů by měly být finančně podpořeny granty. Další nápad jsou občanské horké linky – podobně jako existují na volební den pro volební obtíže, mohla by být i linka pro hlášení podezřelé dezinformace či deepfake, která by informace předávala volebním úřadům nebo ověřovatelům faktů. Přizváním občanů k aktivní účasti na odhalování a nahlášení podezřelého obsahu se výrazně rozšíří rozsah monitorování. Takto rozdělený přístup reflektuje, že ve společnosti s miliony online zapojených lidí někdo často zaznamená problém včas – klíčem je tyto poznatky rychle předat těm, kdo mohou ověřit a šířit pravdu.

4. Advokacie odpovědnosti platforem: Občanská společnost by měla i nadále tlačit na technologické platformy a AI firmy, aby jednaly odpovědně. Veřejně prospěšné skupiny a think-tanky výrazně přispěly k osvětlování hrozeb deepfakeů a prosazování reforem (například Access Now, EFF a další publikovaly doporučení). Tento tlak musí pokračovat – naléhat na platformy, aby zavedly již zmíněné zásady (lepší označování, mazání apod.), a tlačit na AI společnosti, aby používaly etiku už při návrhu technologií. Kampaň organizace Public Citizen na sledování legislativy ohledně deepfake a podání petice federální volební komisi je jedna z ukázek citizen.org citizen.org. Podobně mohou koalice žádat po platformách transparentnost: požadovat, aby zveřejňovaly údaje o množství AI obsahu na svých stránkách nebo účinnosti své detekce. Hlasy občanské společnosti také pomáhají zajistit, aby nová legislativa správně chránila občanská práva (například odmítat příliš široká pravidla, která by mohla potlačit svobodu projevu pod záminkou boje s deepfaky). Najít správnou rovnováhu vyžaduje diskuse s veřejností a advokační skupiny zde zastupují občany. V příštích letech se mohou objevit nová regulační rámce pro AI a online obsah – je zásadní, aby byly demokratické hodnoty a lidská práva při tom zachovány a občanská společnost hrála klíčovou hlídací roli.

5. Podpora obětí a terčů: Pokud je kandidát nebo soukromá osoba očerněna deepfakem, může občanská společnost poskytnout podporu. Neziskové organizace mohou nabídnout právní pomoc nebo rady, jak odstranit pomlouvačné deepfaky a hnát pachatele k odpovědnosti. Mohly by existovat linky pomoci pro oběti deepfake pornografie nebo útoků na charakter, které by je spojily s policií a zdroji pro duševní zdraví. U kandidátů zasažených pomlouvačnou kampaní mohou občanská sdružení (jako Liga žen voliček nebo skupiny pro integritu voleb) pomoci zesílit jejich popření a vyvrácení, aby minimalizovala škodu. Rychlé semknutí při obraně někoho, kdo byl neprávem označen – a zajištění, že pravda bude hlasitější než lež – je něco, co mohou komunitní a advokační skupiny koordinovat, tak jak to často dělají v boji proti pomluvám nebo nenávistným projevům. V širším měřítku může občanská společnost usnadnit mezistranické závazky, že pokud se objeví jakýkoli deepfake, všechny strany jej odsoudí. Představte si závazek, který podepíší všechny hlavní strany v zemi a ve kterém se zavážou nepoužívat deepfaky a okamžitě odsoudit jakékoli škodlivé padělky, které se objeví. Takové normy, podporované skupinami jako mezistranické volební komise nebo etická nezisková sdružení, by snížily pravděpodobnost „závodu ke dnu“, kde by strany cítily potřebu odpovědět stejnou mincí. Vytváří to jednotnou frontu, která dává najevo, že útoky na pravdu nebudou tolerovány, bez ohledu na to, koho zasáhnou.

Na závěr, řešení výzvy deepfake vyžaduje využití všech obranných mechanismů společnosti – technologických, právních, institucionálních i lidských. Realizací výše popsaných kroků mohou vlády posílit volební systém proti falšování pomocí umělé inteligence, technologické platformy mohou omezit šíření nepravdivého obsahu, média mohou zajistit, že pravda zvítězí v reportování, a občané se mohou stát znalými ochránci reality. Není čas nazbyt: s tím, jak generativní AI dále postupuje, budou volby 2025 zkouškou odolnosti demokracií vůči syntetickým lžím. Povzbudivé je, že nejsme bezbranní. Díky přípravě, transparentnosti a spolupráci můžeme přelstít a přeorganizovat deepfake kampaně a ochránit integritu našich voleb. Jak uzavírá výzkumná zpráva CETaS o AI a volbách, „uspokojení by se nemělo dostat do rozhodovacího procesu“ – místo toho bychom měli využít současný okamžik k budování odolnosti cetas.turing.ac.uk cetas.turing.ac.uk. Tímto způsobem zachováme princip, že i když se technologie vyvíjí, naše demokratické hodnoty pravdy a důvěry přetrvají.

Zdroje

  1. Stockwell, Sam et al. „AI podporované ovlivňovací operace: Ochrana budoucích voleb.“ Výzkumná zpráva CETaS (Alan Turing Institute), 13. 11. 2024. cetas.turing.ac.uk cetas.turing.ac.uk
  2. Stockwell, Sam et al. Tamže. (CETaS Report, 2024), sekce 2.1 o deepfakech v amerických volbách. cetas.turing.ac.uk cetas.turing.ac.uk
  3. Beaumont, Hilary. „’Nedostatek důvěry’: Jak deepfaky a AI mohou otřást americkými volbami.“ Al Jazeera, 19. 6. 2024. aljazeera.com aljazeera.com
  4. Sze-Fung Lee. „Kanada potřebuje legislativu o deepfake už včera.“ Policy Options, 18. 3. 2024. policyoptions.irpp.org policyoptions.irpp.org
  5. Goldstein, Josh A. & Andrew Lohn. „Deepfaky, volby a eliminace výhody lhářů.“ Brennan Center for Justice, 23. 1. 2024. brennancenter.org
  6. „Syntetická média.“ Wikipedie (přístup 2025). en.wikipedia.org en.wikipedia.org
  7. „Deepfake.“ Kaspersky IT Encyclopedia (2023). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
  8. Hamiel, Nathan. „Deepfaky představují jinou hrozbu, než jsme čekali. Tady je, jak se bránit.“ World Economic Forum, 10. 1. 2025. weforum.org weforum.org
  9. „Regulace AI deepfaků a syntetických médií v politické sféře.“ Brennan Center for Justice, 4. 10. 2023. brennancenter.org brennancenter.org
  10. Colman, Ben. „Zákon EU o AI a rostoucí naléhavost detekce deepfaků.“ Reality Defender Blog, 11. 2. 2025. realitydefender.com realitydefender.com
  11. „Přehled: zákony států o deepfake ve volbách.“ Public Citizen, 2025. citizen.org citizen.org
  12. Partnership on AI. „Syntetická média a deepfaky – případová studie: Slovensko 2023.“ (Citováno v analýze Knight Columbia). brennancenter.org brennancenter.org
  13. Kapoor, Sayash & Arvind Narayanan. „Prozkoumali jsme 78 deepfaků z voleb. Politická dezinformace není problémem AI.“ Knight First Amendment Institute, 13. 12. 2024. knightcolumbia.org knightcolumbia.org
  14. Zpráva CETaS (2024), doporučení politické (UK). cetas.turing.ac.uk cetas.turing.ac.uk
  15. Zpráva CETaS (2024), doporučení ohledně detekce a provenience. cetas.turing.ac.uk cetas.turing.ac.uk
  16. Public Safety Canada. „Ochrana před dezinformacemi podporovanými AI“ (stručný materiál 2023). policyoptions.irpp.org policyoptions.irpp.org
  17. InnovationAus. „Vládní zákaz deepfaků ve volbách bude ‚uvíznutý‘ do roku 2026.“ (Austrálie) 2023. innovationaus.com
  18. Další odkazy: Citace článků Reuters, Wired a CNN ve výše uvedených zdrojích pro konkrétní incidenty (např. deepfake Zelenského, hongkongský podvod přes Zoom deepfake za 25M $ weforum.org), a výstrahy FTC pro spotřebitele ohledně podvodů s klonováním hlasu weforum.org. Tyto jsou zahrnuty v analýze a dostupné skrze uvedené odkazy.

Napsat komentář

Your email address will not be published.

Don't Miss

Real Estate Market in Poland – Comprehensive Report

Trh s nemovitostmi v Polsku – komplexní zpráva

Úvod a přehled trhu Polsko je největším trhem s nemovitostmi
Generative AI Market Outlook and Competitive Analysis

Výhled trhu generativní AI a konkurenční analýza

Přehled trhu Generativní AI označuje strojově-učící modely (často velké předtrénované