Pokroky v oblasti umelej inteligencie umožnili vytvárať syntetické médiá – obsah generovaný alebo upravovaný AI – v bezprecedentnom rozsahu. Keď sa demokratické krajiny blížia k volebnému cyklu 2025, úradníci a odborníci bijú na poplach kvôli dezinformáciám šíreným umelou inteligenciou. V nedávnom prieskume vyjadrilo 85 % Američanov obavy z „zavádzajúcich video a audio deepfake-ov“ ovplyvňujúcich voľby brennancenter.org. Novinové titulky varujú, že AI-generované „deepfake-y“ môžu spôsobiť chaos v kampaniach a podkopať dôveru voličov brennancenter.org, čo zdôrazňuje naliehavosť ochrany integrity volieb. Táto správa skúma, čo sú syntetické médiá a deepfake-y, ako ohrozujú demokraciu a aké opatrenia – od technologických riešení až po politiky – je možné podniknúť na ochranu volieb v roku 2025 a neskôr.
Čo sú syntetické médiá a deepfake-y?
Syntetické médiá je široký pojem pre digitálny obsah (obrázky, video, audio, text), ktorý je umelo vytvorený alebo upravený automatizovanými prostriedkami, najmä algoritmami AI en.wikipedia.org. Súčasné generatívne AI systémy dokážu vytvárať realistický výstup podobný človeku v každom médiu – od verne vyzerajúcich fotografií ľudí, ktorí nikdy neexistovali, cez klonované hlasy až po AI-generované články. Deepfake-y sú konkrétnou podskupinou syntetických médií: veľmi realistické falošné obrázky, videá alebo zvuk vytvorené pomocou AI (teda „deep“ learning + „fake“), ktoré imitujú skutočných ľudí encyclopedia.kaspersky.com. V praxi môže deepfake byť napríklad video, kde je tvár politika presvedčivo vymenená na telo iného človeka, alebo zvuková nahrávka imitujúca hlas kandidáta, ktorý hovorí niečo, čo v skutočnosti nikdy nepovedal.
Ako sa deepfake-y vytvárajú? Väčšina z nich vzniká pomocou pokročilých techník hlbokého učenia. Bežný prístup využíva generatívne antagonistické siete (GANs) – dve neurónové siete, ktoré sa navzájom trénujú icct.nl. Jedna sieť (generátor) vytvára falošné médiá (napr. obrázok tváre osoby) a druhá (diskriminátor) sa snaží zistiť, či sú falošné. Po tisícoch iterácií sa generátor naučí vytvárať čoraz realistickejšie výstupy, až kým diskriminátor už nerozozná rozdiel icct.nl. Spočiatku vytvorenie dokonalého deepfaku vyžadovalo rozsiahle tréningové dáta a výkonný hardvér – napríklad experiment na deepfake herca Toma Cruisa trval dva mesiace tréningu na špičkových GPU icct.nl. Avšak nástroje sa rýchlo vyvíjajú. Sofistikovaný softvér na deepfake je dnes široko dostupný a rýchlejší, niekedy dokonca pôsobí v reálnom čase (napríklad mení živé video alebo hlasový hovor za pochodu) encyclopedia.kaspersky.com. Okrem GAN-ov zohrávajú úlohu aj iné AI architektúry: transformer modely vedia generovať deepfake text alebo pomáhať pri klonovaní hlasu encyclopedia.kaspersky.com. Zhrnuté, nedávne AI objavy umožnili jednoduché a lacné vytváranie klamlivého audio-vizuálneho obsahu takmer komukoľvek – čo dramaticky znižuje bariéru pre dezinformačné operácie.
Je dôležité poznamenať, že nie všetky syntetické médiá sú škodlivé. AI-generovaný obsah možno využiť na neškodné a kreatívne účely – personalizované avatary, dabing rozprávača do iných jazykov, satira a zábava atď. V skutočnosti počas globálnych volieb v roku 2024 bola približne polovica zdokumentovaného použitia AI v politických materiáloch nezavádzajúca (napr. kandidát otvorene používal AI hlas kvôli strate vlastného hlasu, alebo novinári využívali AI avatara na ochranu identity) knightcolumbia.org knightcolumbia.org. Táto správa sa však zameriava na škodlivú stránku syntetických médií – deepfake-ov vytvorených s cieľom klamať, manipulovať alebo zavádzať voličov a verejnú mienku.
Riziká pre demokratické procesy
Syntetické médiá a deepfake-y predstavujú významné riziká pre demokraciu, najmä počas volieb, kedy je informovaný elektorát a dôvera v informácie kľúčová. Hlavné hrozby zahŕňajú:
- Dezinformácie a manipulácia voličov: AI-generované falošné videá, obrázky alebo audio môžu byť použité na šírenie nepravdivých informácií o kandidátoch alebo otázkach a zavádzať voličov. Napríklad deepfake môže zobrazovať kandidáta, ako vyslovuje poburujúce výroky, ktoré v skutočnosti nikdy nepovedal. Takýto vymyslený obsah môže vnášať toxické lži do verejnej diskusie. Odborníci varujú, že deepfake-y „predstavujú vysoké riziko“ pre voličov, lebo vnášajú klamlivý obsah do kampaní a narušujú verejnú dôveru aljazeera.com. Ak by takéto presvedčivo upravené video vyšlo tesne pred dňom volieb – bez dostatočného času na overenie faktov – mohlo by to ovplyvniť nerozhodnutých voličov alebo potlačiť ich účasť, čím by mohlo zmeniť výsledok citizen.org. Táto hrozba nie je iba teoretická: ako podrobnejšie uvádzame neskôr, v roku 2024 deepfake audio imitovalo prezidenta USA a vyzývalo podporovateľov, aby nešli voliť, zrejme s cieľom odradiť ich aljazeera.com aljazeera.com.
- Erozie dôvery („Dividenda klamára“): Už samotná existencia deepfake-ov môže podkopať dôveru verejnosti v skutočné informácie. Voliči môžu začať spochybňovať aj autentické dôkazy, nie sú si istí, či je virálne video skutočné alebo ide o AI podvrh. Ešte horšie je, že skorumpovaní aktéri môžu túto pochybnosť zneužiť: skutočné škandály alebo autentické nahrávky možno ľahko označiť za „len deepfake“ a uniknúť tak zodpovednosti. Vedci túto dynamiku nazvali „dividendou klamára“, pri ktorej väčšie povedomie o deepfake-och uľahčuje klamárom tvrdiť, že pravé zábery sú falošné brennancenter.org. Zvýšené povedomie spoločnosti o sile AI znamená, že politik pristihnutý pri skutočných prešľapoch dokáže ľahšie oklamať verejnosť tým, že usvedčujúci audio alebo video materiál označí za AI podvrh brennancenter.org. Táto dynamika ohrozuje základnú dôveru, na ktorej je demokratická diskusia postavená. Pozorovatelia volieb v roku 2024 zaznamenali, že niektorí kandidáti a ich prívrženci vopred vyhlásili nepríjemné správy za „AI podvrh“ brennancenter.org brennancenter.org. Ak by ľudia dlhodobo nadobudli pocit, že „nič, čo vidíš alebo počuješ, nemožno veriť“, rozkladá to spoločnú realitu potrebnú pre slobodné a spravodlivé voľby cetas.turing.ac.uk cetas.turing.ac.uk.
- Prehlbovanie polarizácie a konfliktov: Doteraz dôkazy naznačujú, že deepfake propaganda skôr posilňuje existujúce predsudky ľudí než by presviedčala naprieč tábormi cetas.turing.ac.uk. Škodlivý AI obsah najčastejšie prijímajú a šíria tí, ktorí už zastávajú radikálne názory, čo posilňuje ozvenové komory. Počas prezidentskej kampane v USA 2024 vedci zistili, že AI-generované lži najmä vyhrocovali stranícky naratív a priostrovali diskusie, namiesto získavania nových priaznivcov cetas.turing.ac.uk. Napríklad falošné videá útočiace na prezidenta Bidena alebo viceprezidentku Harrisovú získali online milióny videní a šírili ich najmä ľudia, ktorí boli voči nim už vopred nepriateľskí cetas.turing.ac.uk cetas.turing.ac.uk. Tým, že konzolidujú ideologické tábory dramatickými falošnými „dôkazmi“ o zločinnosti protivníka, deepfake-y môžu spoločenstvá od seba oddeľovať ešte viac a otráviť predvolebnú atmosféru. Navyše zmätok a nedôvera spôsobená deepfake-mi vytvárajú úrodnú pôdu pre rozkvet konšpiračných teórií cetas.turing.ac.uk, keďže občania môžu ľahšie odmietnuť akúkoľvek nepohodlnú realitu ako výtvor AI.
- Podkopávanie správy volieb: Riziko sa netýka len zavádzania voličov o kandidátoch – deepfake-y môžu narušiť aj samotný volebný proces. Úradníci si predstavili scenáre, kde AI klonovaný hlas alebo falošné správy údajne pochádzajú od volebných orgánov a nariaďujú pracovníkom uzavrieť volebné miestnosti predčasne alebo dávajú voličom nesprávne inštrukcie (napr. „voľby sú odložené“) aljazeera.com. Sofistikovaný útočník môže napodobniť pokyn od volebnej komisie alebo hlas dôveryhodného miestneho úradníka a sabotovať hlasovanie. Takéto taktiky môžu potlačiť účasť alebo vyvolať chaos v deň volieb. Brennanovo centrum v USA upozorňuje, že manipulované médiá môžu klamať nielen verejnosť, ale aj volebných pracovníkov a úradníkov, preto je potrebné nové školenie a protokoly aljazeera.com.
- Obťažovanie a očierňovanie osôb: Deepfake-y sú tiež silnou zbraňou na osobné útoky na kandidátov, aktivistov alebo novinárov. Zvlášť škodlivou kategóriou je neprístojná syntetická pornografia bez súhlasu – keď sa tvár osoby dosadí do explicitného sexuálneho obsahu. Táto taktika sa už používa na obťažovanie novinárok a političiek po celom svete. Najextrémnejšou formou deepfake obťažovania sú falošné intímne zábery na dehonestáciu alebo vydieranie weforum.org. Vo volebnom kontexte môžu operatívci tesne pred hlasovaním publikovať falošné kompromitujúce video kandidáta (napr. deepfake sex-tape alebo nahrávku s ilegálnym správaním). Aj keď sa rýchlo vyvráti, škoda na reputácii môže byť nenávratná. Ženy a menšiny sú terčom týchto „syntetických špinavých kampaní“ neúmerne často, čo môže odradiť diverzifikovaných kandidátov od kandidatúry policyoptions.irpp.org policyoptions.irpp.org. Deepfake-y teda pridávajú nové palivo k starým špinavostiam – od falošných škandálov po vymyslené citáty – a zosilňujú pokusy o očierňovanie v predvolebných bojoch.
Na záver treba dodať, že doteraz sme nezaznamenali volebnú katastrofu spôsobenú deepfake-ami. Empirické analýzy volieb v roku 2024 po celom svete ukázali málo dôkazov o tom, že AI-generované dezinformácie zmenili výsledok akýchkoľvek volieb cetas.turing.ac.uk weforum.org. Tradičné dezinformácie (lacné „cheapfake-y“, fámy, stranícka propaganda) boli oveľa väčším faktorom šírenia nepravdivostí než technologicky vyspelé deepfake-y knightcolumbia.org knightcolumbia.org. Odborníci však varujú, že absencia katastrofy nie je dôvodom na uspokojenie cetas.turing.ac.uk weforum.org. Technológia napreduje rýchlo a nepriateľské subjekty sa učia. Aj keď deepfake-y neovplyvnili významné voľby v roku 2024, výrazne formovali verejnú diskusiu – napríklad virálne AI lži o kandidátoch sa stali predmetom mainstreamových debát cetas.turing.ac.uk. Navyše už aj vnímaná hrozba deepfake-ov samotná zvyšovala úzkosť a nedôveru voči voľbám cetas.turing.ac.uk cetas.turing.ac.uk. Potenciál na vážnejší incident pretrváva, obzvlášť keď sa približujeme k vysoko napätým voľbám v roku 2025. Demokratické spoločnosti preto musia vnímať deepfake-y ako vážny problém bezpečnosti a integrity volieb a riešiť nielen priamo sfalšované médiá, ale aj celkové rozpadanie pravdy v elektorálnej sfére.
Nedávne incidenty: Deepfaky narúšajú politiku
Skutočné prípady z posledných rokov ukazujú, ako už boli syntetické médiá zneužité v politických kontextoch. Nižšie prehodnocujeme niekoľko významných incidentov a prípadových štúdií deepfakov a AI-generovaných dezinformácií, ktoré ovplyvnili voľby alebo verejnú diskusiu:
- Ukrajina (marec 2022) – Video “Kapitulujte”: V počiatočných dňoch ruskej vojny proti Ukrajine sa objavilo video, na ktorom sa zdalo, že ukrajinský prezident Volodymyr Zelenskyj vyzýva svoje jednotky, aby zložili zbrane a vzdali sa. Video bol deepfake, pričom Zelenského obraz i hlas boli synteticky upravené icct.nl. Odhalili ho typické znaky (rozmazané okraje, nesúlad farby krku) a ukrajinské médiá rýchlo odhalili podvod. Tento incident – prvé známe použitie deepfaku v ozbrojenom konflikte – predznamenal, ako môže byť AI propaganda využitá na oslabenie lídrov počas krízy icct.nl. Hoci nepravé video Zelenského neuspelo v demoralizovaní ukrajinského odporu, ukázalo úmysel a schopnosť škodlivých aktérov (v tomto prípade podozrivých ruských operatívcov) využiť deepfaky na informačnú vojnu.
- Slovensko (september 2023) – Volebné dezinformácie: Len pár dní pred parlamentnými voľbami na Slovensku sa rozšírili deepfake audio nahrávky, na ktorých mal Michal Šimečka, líder Progresívneho Slovenska, priznávať volebný podvod a dokonca navrhovať zdvojnásobenie ceny piva brennancenter.org. Niektoré verzie obsahovali slabé upozornenie, že ide o AI-generovaný obsah, ale to sa objavilo až na konci klipu – pravdepodobne zámerná taktika na oklamanie poslucháčov brennancenter.org. Načasovanie bolo očividne strategické, teda tesne pred hlasovaním. Prozápadná strana Šimečku tesne prehrala s prokremeľským rivalom a niektorí komentátori špekulovali, že last minute deepfake útok mohol ovplyvniť výsledok brennancenter.org. Tento prípad ukazuje, ako môžu zahraniční či domáci aktéri nasadiť deepfaky na ovplyvnenie tesného súboja a aké ťažké je v závere kampane čeliť falošným naratívom.
- Taiwan (január 2024) – Zahraničné ovplyvňovanie volieb: Pred prezidentskými voľbami na Taiwane v roku 2024 pozorovatelia zdokumentovali čínske dezinformačné kampane s využitím deepfakov na oslabenie kandidáta Lai Čching-tea. Po internete kolovali nepravé videá ukazujúce Lai-a (vládnuca, pro-nezávistlá strana), ako sa vyjadruje spôsobom, ktorý mal naznačovať jeho podporu programu súperov policyoptions.irpp.org. V jednom prípade bola zverejnená AI-generovaná audionahrávka Lai-a, ktorá navodzovala dojem, že kritizuje vlastnú stranu policyoptions.irpp.org v snahe rozštiepiť jeho podporu. Tieto syntetické mediálne útoky, stopy ktorých vedú do Číny, mali za cieľ ovplyvniť verejnú mienku a vyvolať zmätok v taiwanskej demokracii policyoptions.irpp.org. Nakoniec Lai voľby vyhral a analytici zhodnotili, že čínska deepfake kampaň výsledok významne nezmenila policyoptions.irpp.org. Napriek tomu to bol učebnicový príklad použitia AI propagandy nepriateľskou veľmocou proti demokratickým voľbám policyoptions.irpp.org policyoptions.irpp.org. Pretrváva však obava, že v tesnejších voľbách inde by podobné taktiky mohli mať väčší vplyv.
- Spojené štáty americké (2024) – Deepfaky v kampani: Volebný cyklus v USA v roku 2024 zaznamenal nárast AI-generovaného politického obsahu, ktorý síce voľby nezmenil, no vyvolal poplach. Začiatkom roka 2024 dostali voliči v New Hampshire záhadný robocall: hlas pripomínajúci prezidenta Joea Bidena vyzývajúceho demokratov, aby “si ušetrili hlas a v týchto voľbách ho nepoužili.” Hlas znel pre niektorých autenticky, ale posolstvo bolo podozrivé – Biden by nikdy neodporúčal svojim priaznivcom nevoliť. V skutočnosti išlo o deepfake hlasovú kópiu Bidena, rozoslanú tisícom voličov v zrejmej snahe ozmariť ich aljazeera.com aljazeera.com. Incident, ktorý zasiahol približne 5 000 telefónnych čísel v New Hampshire, ukázal, ako ľahko a lacno sa dá takýto “špinavý trik” vykonať – konzultant, ktorý vytvoril deepfake hlas Bidena, uviedol, že to trvalo len 20 minút a stálo asi 1 dolár na výpočtových prostriedkoch policyoptions.irpp.org policyoptions.irpp.org. Medzitým sa na sociálnych sieťach AI-generované obrázky objavili aj v oficiálnej kampani. Tím guvernéra Floridy Rona DeSantisa napríklad zverejnil útokový spot s falošnými obrázkami Donalda Trumpa objímajúceho Dr. Anthonyho Fauciho – naznačujúc, že Trump je príliš spriaznený s bývalým COVID poradcom neobľúbeným medzi republikánmi. Ukázalo sa, že snímky Trumpa objímajúceho Fauciho boli AI-vygenerované falzifikáty vložené do videa tímom kampane brennancenter.org, čo po odhalení viedlo k verejnej kritike. V ďalšom prípade sa na internete šíril AI-vyrobený videozáznam prezidenta Bidena, ako “oslovuje” verejnosť nezrozumiteľnou, nezreteľnou rečou, no bol rýchlo vyvrátený. Niektoré falošné videá Bidena a viceprezidentky Harrisovej dosiahli milióny pozretí na sociálnych sieťach cetas.turing.ac.uk, čo dokazuje, ako rýchlo sa tento obsah šíri. Pridal sa aj technologický magnát Elon Musk, ktorý zdieľal krivo upravené video viceprezidentky Harrisovej (označené za “satiru”), kde splietala nezmysly – čím sa stierala hranica medzi humorom a dezinformáciou cetas.turing.ac.uk cetas.turing.ac.uk. Hoci žiaden z týchto deepfakov nezmenil priebeh volieb, posilnili falošné naratívy (napríklad o Bidenovej mentálnej kondícii alebo Trumpových lojalitách) a ešte viac otrávili informačné prostredie. Americkí predstavitelia sa tiež obávajú deepfakov zameraných na volebnú infraštruktúru – napr. falošné hovory voličom od pracovníkov volebných komisií aljazeera.com – hoci v roku 2024 žiadny veľký podobný incident verejne nepotvrdili.
Tieto príklady poukazujú na globálny rozsah tejto hrozby. Deepfaky využívajú štátni aktéri v geopolitických konfliktoch, provokatéri v domácich voľbách od Európy po Áziu, tiež politické kampane a ich podporovatelia v USA. Majú podobu falošných prejavov, obrázkov, telefonátov i videí – cielených na voličov aj volebné autority. Doterajšie udalosti ukazujú aj isté ponaučenia: mnohé deepfaky sa podarilo aj včas odhaliť (často vďaka novinárom či fact-checkerom) a v niekoľkých prípadoch backlash za použitie deepfaku (napríklad DeSantisova reklama) spôsobil páchateľom zlú publicitu. To naznačuje, že transparentnosť a ostražitosť môžu ich škodlivosť zmierniť. No trend je jasný – takéto syntetické klamstvá sú častejšie a čoraz ťažšie rozpoznateľné od reality. Každé voľby prinášajú nové “prvenstvá” (v roku 2024 prvé AI “robocall” podvody na ovplyvnenie hlasovania, prvé využitie deepfake reklám v kampaniach atď.) a riziko škodlivejšieho deepfake incidentu rastie s blížiacim sa rokom 2025.
Detekcia a potláčanie deepfake: Nástroje a technológie
Kritickou súčasťou ochrany volieb je vývoj spoľahlivých nástrojov na detekciu a zmiernenie deepfake obsahu. Výskumníci, technologické firmy a vlády sa predbiehajú vo vývoji technológií, ktoré dokážu odhaliť falzifikáty vytvorené umelou inteligenciou a overiť pravosť obsahu. Tu ponúkame prehľad aktuálnej situácie v oblasti detekcie deepfake a súvisiacich protiopatrení:
- Automatizované detektory deepfake: Prvou líniou obrany je AI bojujúca proti AI – algoritmy trénované na analýzu médií a identifikáciu typických znakov manipulácie. Tieto detekčné systémy hľadajú jemné artefakty alebo nekonzistencie, ktoré zostávajú po generatívnych modeloch. Napríklad skoré deepfaky často vykazovali nepravidelné žmurkanie očí alebo nedokonalú synchronizáciu pier. Dnešné detektory využívajú hlboké neurónové siete na skúmanie vecí ako je osvetlenie a tiene na tvárach, vzorce audio frekvencií alebo biologické signály (napr. pulz vo videu), ktoré AI nemusí dokázať replikať. Technologické firmy vyvinuli interné nástroje – napríklad Microsoft v roku 2020 predstavil „Video Authenticator“, ktorý dokázal označiť falošné videá na základe analýzy jednotlivých snímok. Platformy ako Facebook a X (Twitter) investovali do výskumu detekcie a zaviedli niektoré filtre, ktoré zachytávajú známe falošné médiá. Akademické iniciatívy a súťaže (ako je Facebook Deepfake Detection Challenge či IEEE konferencie) podporili pokrok a startupy ako Sensity a Reality Defender ponúkajú komerčné služby detekcie deepfake pre klientov. Ide však o klasické preteky v zbrojení: keď sa detekcia zlepší, tvorcovia deepfake sa prispôsobujú a produkujú plynulejšie falzifikáty, ktoré unikajú automatizovaným kontrolám. Pozoruhodné je, že správa Meta z roku 2023 uvádza, že zo všetkých dezinformácií označených počas volebného cyklu 2024 bolo „menej ako 1 %“ identifikovaných ako AI-generovaný obsah weforum.org, čo naznačuje buď relatívnu zriedkavosť deepfake, alebo že mnohé unikli detekcii bez povšimnutia.
- Watermarking a pôvod obsahu: Ďalšou stratégiou je označovať AI-generovaný obsah už pri jeho vzniku, aby ho neskorší používatelia ľahko rozpoznali ako syntetický. EÚ tento prístup výrazne podporuje – nový zákon EÚ o AI výslovne prikazuje, že každý AI-generovaný alebo AI-manipulovaný obsah musí byť jasne označený alebo vodoznakovaný realitydefender.com. Firmy budú povinné vložiť indikátor (digitálny vodoznak alebo metadátový marker) do obrazu, videa či zvuku vytvoreného AI. V teórii by potom prehliadače alebo sociálne siete mohli automaticky označiť alebo filtrovať obsah s týmito značkami. Watermarking má potenciál, najmä ako odstrašujúci prostriedok voči bežnému zneužívaniu. Hlavní poskytovatelia AI modelov (ako OpenAI, Google a ďalší) diskutujú o dobrovoľnom označovaní obrázkov alebo textov, ktoré ich systémy generujú. Navyše, koalícia mediálnych a technologických organizácií vyvíja štandardy pôvodu (napr. C2PA, Coalition for Content Provenance and Authenticity) na kryptografické zaznamenávanie pôvodu a histórie úprav digitálnych médií. Napríklad novinová fotografia či volebná reklama môže obsahovať bezpečnostný certifikát pravosti, ktorý umožní každému overiť, kto ju vytvoril a či nebola pozmenená cetas.turing.ac.uk. Vláda USA tento prístup prijíma; Biely dom nariadil federálnym agentúram vypracovať usmernenia pre „autenticitu už pri navrhovaní“ a vkladať metadáta pôvodu do všetkých digitálnych materiálov, ktoré do roku 2025 vyprodukujú cetas.turing.ac.uk. Ak by sa tento prístup široko používal, bolo by pre falošný obsah oveľa ťažšie vydávať sa za pravý.
- Limity označovania: Hoci nástroje transparentnosti sú kľúčové, nie sú neomylné. Vodoznaky možno odstrániť alebo zmeniť odhodlanými protivníkmi. Vedci už preukázali metódy na odstránenie alebo zakrytie AI vodoznakov realitydefender.com, a samozrejme zlomyseľný aktér, ktorý si zostrojí vlastný generatívny model, jednoducho žiadne značky nemá. Metadáta o pôvode tiež pomáhajú iba vtedy, ak sú široko implementované a ak ich používatelia skutočne kontrolujú. Tvorca deepfake môže tiež využiť trik „provenance piggybacking“ – vziať pravú fotografiu alebo video a prekryť naň falošné prvky, takže výsledný súbor má pôvodný digitálny podpis. Tieto výzvy znamenajú, že sa nemôžeme spoliehať výlučne na označenia obsahu. Ako uviedla jedna firma zaoberajúca sa bezpečnosťou AI, riešenia založené na vodoznakoch a pôvode fungujú len vtedy, ak tvorcovia obsahu spolupracujú na označovaní svojho výstupu – čo však nezastaví odhodlaných zlomyseľných aktérov realitydefender.com. Preto je stále zásadná detekcia založená na rozbore obsahu (analyzovaní samotného obsahu na znaky manipulácie AI) realitydefender.com. Najlepšou obranou bude zrejme kombinácia oboch prístupov: robustné automatizované detektory na vyhľadávanie falzifikátov a systémy autentifikácie na overovanie pravosti médií.
- Detekcia v reálnom čase pre video/audio streamy: Stúpajúcou požiadavkou sú nástroje, ktoré dokážu zachytiť deepfake v živom vysielaní. Predstavte si hypotetickú situáciu falošného „živého“ videohovoru s kandidátom alebo úradníkom – ako sa to stalo v Hongkongu v roku 2023, keď zločinci deepfakovali podobu firemného manažéra cez Zoom, aby autorizovali podvodný prevod 25 miliónov dolárov weforum.org. V tomto prípade boli viacerí účastníci hovoru – vrátane imitátora finančného riaditeľa – všetci generovaní AI. Detekcia takýchto deepfake v reálnom čase je extrémne náročná. Firmy pracujú na riešeniach vo forme pluginov do videokonferenčných systémov, ktoré môžu upozorniť používateľov, ak sa obraz alebo hlas javí ako synteticky upravený (napr. analýzou latencie zvuku a spektrálnych anomálií alebo kontrolou, či tvár na obrazovke presne zodpovedá pohybom reálnej osoby pred kamerou). Niektoré startupy tvrdia, že ponúkajú API na detekciu deepfake v reálnom čase, ktoré by sa dali integrovať do streamovacích platforiem alebo dokonca autentifikovať rečníkov na živých akciách. Zatiaľ však detekcia v reálnom čase spravidla zaostáva za útočníkmi a dôraz sa kladie skôr na preventívne opatrenia (napríklad používanie hesiel alebo dohodnutých „kódových výrazov“ v telefonátoch na overenie identity, ako odporúča polícia weforum.org).
- Manuálne overovanie a komunita: Samotná technológia nie je všeliekom. Služby ľudskej bdelosti zostávajú kľúčové. Spravodajské organizácie, fact-checkerské skupiny a platformy zriadili špeciálne tímy na monitorovanie virálnych deepfake počas volebných období. Tímy využívajú OSINT (open source intelligence) a forenzné nástroje na analýzu podozrivých médií – kontrolujú napríklad časové pečiatky, hľadajú nezrovnalosti (napríklad nezladené náušnice na politikovi vo videu či podivné pohyby úst) a rýchlo zverejňujú vyvrátenia. Pomáhajú aj snahy zamerané na komunitu: na X/Twitter sa funkcia „Community Notes“ používala na označenie príspevkov obsahujúcich AI-generované obrázky alebo videá s vysvetľujúcim kontextom. Počas nedávnych volieb používatelia často odhalili deepfake už v priebehu niekoľkých hodín, zverejňovali porovnania stránku po stránke alebo upozorňovali na chyby. Tento typ kolektívnej bdelosti podporenej digitálnou gramotnosťou je mocným nástrojom. Platformy sa čoraz viac spoliehajú na používateľov a nezávislých fact-checkerov pri identifikácii pochybných obsahov, vzhľadom na objem, ktorý musia automatizované filtre skenovať. Nevýhodou je, že deepfake môže získať virálnosť skôr, než je vyvrátený. Napriek tomu rýchlejšia reakcia a šírenie povedomia (aby viac používateľov vedelo rozpoznať podvod samostatne) zmierni škody.
Na záver možno povedať, že detekcia deepfake je aktívnou a vyvíjajúcou sa oblasťou. Dochádza k pokroku – dnešné detektory sú napríklad oveľa lepšie ako v roku 2018 a iniciatívy ako Content Authenticity Initiative sa snažia štandardizovať overovanie pravosti. Výzvy však pretrvávajú kvôli šachu medzi tvorcami a detektormi a potrebu širokého prijatia nástrojov. V najbližších rokoch je pravdepodobné, že detekčné technológie sa budú viac integrovať do sociálnych sietí, mediálnych pracovných postupov či samotných zariadení (predstavte si smartfón, ktorý vás upozorní, že prichádzajúce video môže byť AI-generované). Kľúčové však je, že detekčné či overovacie nástroje musia byť doplnené o verejné vzdelávanie, aby keď sa objaví výstraha alebo označenie, používatelia rozumeli a primerane reagovali. Táto technologická časť je len jedným pilierom širšej stratégie potrebnej na boj proti hrozbám syntetických médií.
Reakcie politiky a regulačné rámce
Tvorcovia politík po celom svete si uvedomili hrozbu deepfake a začali pripravovať zákony a predpisy na jej riešenie. Kým problematika je nová, v hlavných demokraciách sa objavuje mozaika reakcií. Nižšie je prehľad legislatívnych a regulačných opatrení, ktoré sa pripravujú:
- Spojené štáty: V USA zatiaľ neexistuje komplexný federálny zákon proti politickým deepfake, no rastie úsilie túto medzeru zaplniť. V Kongrese bolo predložených viacero návrhov zákonov s cieľom obmedziť škodlivé deepfake. Napríklad začiatkom roku 2024 navrhli zákonodarcovia No AI FRAUD Act ako reakciu na medializované prípady (napr. AI-generované explicitné obrázky celebrít) policyoptions.irpp.org. Tento zákon sa snaží vytvoriť federálny rámec kriminalizujúci určité škodlivé použitia AI, napríklad podvodné politické deepfake a klamlivé pornografické falzifikáty policyoptions.irpp.org. Ďalšou diskutovanou legislatívnou myšlienkou je povinnosť zverejniť AI-generovaný obsah v predvolebných reklamách (aby kampane museli jasne označovať, ak je reklama syntetická). Medzitým Federal Communications Commission (FCC) urobila cielený krok a zakázala používanie hlasových klonov AI v robocalloch určených na podvodné konanie alebo škodu policyoptions.irpp.org. Podnetom boli podvody, kde podvodníci napodobňovali hlasy skutočných ľudí. Tento krok agentúry robí nezákonným, aby telemarketéri alebo politickí operative používali syntetické hlasové správy na klamanie príjemcov. Veľa regulácie deepfake prebieha v USA na štátnej úrovni. Od roku 2019 prijali zákony štáty ako Kalifornia, Texas a ďalšie týkajúce sa deepfake voľby. Kalifornia zakazuje šírenie materiálne klamlivých deepfake videí kandidátov 60 dní pred voľbami (s výnimkami pre satiru/paródiu) brennancenter.org. Texas stanovil za vytvorenie alebo šírenie deepfake videí zameraných na poškodenie kandidáta alebo ovplyvnenie voličov trest odňatia slobody brennancenter.org. Ku koncu roku 2025 má minimálne štrnásť štátov USA prijaté alebo diskutované zákony na reguláciu deepfake vo volebnom kontexte citizen.org. Tieto snahy majú pozoruhodnú podporu naprieč politickým spektrom – politici z oboch strán sa zhodujú, že dezinformácie voľby manipulované AI sú hrozbou pre demokraciu citizen.org citizen.org. Štátne zákony sa líšia: niektoré uvaľujú tresty za zverejňovanie škodlivých deepfake o kandidátoch, iné sa sústreďujú na požiadavky varovných označení v syntetických reklamách. Navyše organizácia Public Citizen požiadala Federálnu volebnú komisiu (FEC) o aktualizáciu pravidiel s cieľom zakázať federálnym kandidátom šírenie klamlivých deepfake počas kampaní brennancenter.org. FEC ešte nové predpisy nevydala, no téma je významná. Zákonodarcovia v USA zároveň musia vyvažovať otázky slobody prejavu – príliš široké zákazy manipulovaných médií by mohli narážať na prvý dodatok ústavy. Satira a paródia (chránený politický prejav) často obsahuje upravené obrázky či videá; zákony musia cieliť iba na zámernú klamlivosť. Toto reflektuje množstvo štátnych zákonov, ktoré výslovne udávajú výnimky pre paródiu, satiru alebo novinárske využitie brennancenter.org brennancenter.org. Všeobecný konsenzus však znie, že nepravdivý AI-generovaný obsah, ktorý má za cieľ úmyselne klamať voličov alebo vyvolať rozvrat, nemá v demokracii žiadnu legitímnu hodnotu a možno ho obmedziť bez zásahu do slobodného prejavu brennancenter.org brennancenter.org.
- Európska únia: EÚ ide zásadnejšie cestou regulácie AI, vrátane opatrení priamo súvisiacich s deepfake. Kľúčový zákon EÚ o AI (EU AI Act) prijatý v roku 2024 (plne účinný bude v roku 2026, niektoré ustanovenia skôr) obsahuje požiadavku transparentnosti pre syntetické médiá. Podľa AI Act musí každé AI, ktoré dokáže generovať „deepfake“ obsah, zabezpečiť, aby bol jasne označený ako AI-generovaný (s výnimkami pre umenie či bezpečnostný výskum) realitydefender.com. V praxi to znamená, že vývojári generatívnych modelov v EÚ budú povinní vkladať vodoznaky alebo metadáta signalizujúce, že výstup je syntetický. Za opomenutie hrozia vysoké pokuty podľa zákona. EÚ tiež aktualizovala Kódex postupov proti dezinformáciám (dobrovoľný kódex, ktorý podpísali hlavné online platformy) a výslovne označuje deepfake za hrozbu, pričom sa zaväzuje vyvíjať „politiky, opatrenia a nástroje na riešenie manipulovaného obsahu“ brennancenter.org brennancenter.org. Platformy sa dohodli, že implementujú systémy na detekciu a buď označenie alebo odstránenie deepfake videí, ktoré by mohli spôsobiť verejnú škodu a budú spolupracovať s fact-checkermi na rýchlom vyvracaní falošného AI obsahu. Podľa Digital Services Act (DSA) – platného od 2023 – musia veľmi veľké online platformy v EÚ hodnotiť a zmierňovať „systémové riziká“ na svojich službách, vrátane šírenia AI-generovanej dezinformácie. Táto regulačná požiadavka viedla firmy ako Meta, Google a TikTok k oznámeniu nových zabezpečení pre volebné obdobie 2024–2025: od lepšej detekcie deepfake po viditeľnejšie označovanie syntetických médií. Európa teda zaujíma regulačný prístup založený na transparentnosti: požaduje sa označenie výstupov AI a platformy sú zodpovedné za brzdenie dezinformácií poháňaných deepfake. Kritici upozorňujú na náročnosť vymáhania (ako zachytiť všetky neoznačené falzifikáty v záplave online obsahu?), no EÚ jasne deklaruje, že neobmedzené deepfake nie sú akceptovateľné a nezodpovedajú jej štandardom digitálnej správy realitydefender.com realitydefender.com.
- Veľká Británia: Spojené kráľovstvo zatiaľ neprijalo volebné zákony špecificky zamerané na deepfake, no venuje sa téme cez širšie iniciatívy na ochranu online priestoru a AI. V roku 2023 schválilo zákon o online bezpečnosti (Online Safety Act), ktorý rieši škodlivý online obsah. Tento zákon kriminalizoval zdieľanie deepfake pornografie bez súhlasu – teda je nezákonné vytvárať alebo šíriť explicitný syntetický obraz niekoho bez jeho súhlasu policyoptions.irpp.org. To sa týka súkromného obťažovania pomocou deepfake. Pokiaľ ide o volebné dezinformácie, zákon dáva regulačnému úradu Ofcom (telekomunikačný regulátor) právomoc vydávať kódexy postupov proti dezinformáciám. Experti vyzývajú Ofcom, aby vypracoval Kódex správania pre dezinformácie, ktorý by stanovil štandardy pre prístup k AI-manipulovanému obsahu cetas.turing.ac.uk. Takýto kódex, možno podľa vzoru EÚ, by mohol tlačiť na platformy a politických aktérov, aby sa zdržali šírenia deepfake a jasne označovali akékoľvek syntetické médiá. Objavujú sa tiež výzvy, aby volebná komisia UK poskytla usmernenie politickým stranám ohľadom zodpovedného využívania AI, čím by sa stanovili červené línie proti klamlivým deepfake v kampaniach cetas.turing.ac.uk. Koncom roku 2024 odporučil výbor parlamentu sprísniť volebné zákony na postihovanie deepfake dezinformácií, hoci formálny zákon nebol predložený. Vláda uviedla, že skúma, či sú aktuálne zákony (napr. o ohováraní, podvode a volebných deliktoch) dostatočné na stíhanie zlomyseľných deepfake, alebo sú potrebné nové predpisy cetas.turing.ac.uk. Spojené kráľovstvo zároveň zakladá AI Safety Institute a organizovalo globálny AI Safety Summit v roku 2023, kde bola na programe aj manipulácia s informáciami. Britské úrady sa zdanlivo zameriavajú na zlepšovanie technických obranných opatrení a mediálnej gramotnosti (analyzované nižšie v odporúčaniach) rovnako ako na právne zákazy. Zákazy deepfake pornografie a posilnenie regulátorov však dokazujú, že AI-poháňaný falošný obsah si vyžaduje politickú reakciu.
- Kanada: K roku 2024 nemala Kanada žiadny špecifický zákon proti deepfake vo voľbách. Zákon o voľbách Kanady (Canada Elections Act) výslovne nezakazuje AI-generovanú dezinformáciu či deepfake, čo znamená, že by sa musela postihovať podľa všeobecných ustanovení (napr. zákony o podvode alebo vydávaní sa za inú osobu), ktoré však nemusia podľa expertov stačiť cef-cce.ca. Odborníci upozorňujú, že Kanada je v tejto téme „krok alebo dva pozadu“ oproti iným demokraciám policyoptions.irpp.org. Na jeseň 2023 zažila Kanada menší incident s deepfake, keď sa šíril falošný zvuk pripomínajúci politika. Hoci mal malý dopad, zvýšil povedomie. Kanadská volebná komisia pi uvedomuje AI dezinformácie ako nastupujúcu hrozbu a študuje potenciálne reakcie cef-cce.ca. Analytici požadujú novú legislatívu „najlepšie už včera“ – nebolo by vylúčené splnomocniť komisára pre voľby na tvrdo proti syntetickým médiám v kampaniach policyoptions.irpp.org. Kanada sa môže inšpirovať spojencami: napríklad prijať pravidlá o zverejňovaní AI-generovaných volebných reklám alebo zaviesť postih za šírenie materiálov, o ktorých je známe, že sú deepfake s cieľom klamania voličov. K polovici roku 2025 žiadny návrh zákona predložený nebol, no tlak na Kanadu, aby sa aktívne zapojila do riešenia deepfake vo voľbách, rastie policyoptions.irpp.org.
- Iné demokracie: Po celom svete už viaceré demokracie začali implementovať opatrenia:
- Austrália: Austrálska vláda, znepokojená „úpadkom pravdy“ vďaka AI pred voľbami, oznámila plány na zákon o „pravdivosti v politickej reklame“, ktorý by zakazoval klamlivé deepfake videá a zvukové nahrávky v kampaniach innovationaus.com. Návrh, predložený vládou Albanese v roku 2023, by zakazoval zverejňovanie syntetických médií, ktoré zosobňujú skutočných kandidátov alebo by mohli zavádzať voličov počas volebných období innovationaus.com. Legislatívny proces je však pomalý – podľa správ sa tieto deepfake opatrenia nestanú účinnými pred rokom 2026 innovationaus.com, takže voľby v roku 2025 budú pravdepodobne bez ich plného vplyvu. Medzitým austrálska volebná komisia vydala usmernenia a zdôraznila potrebu nadhľadu (komisia poznamenala, že prílišný dôraz na deepfake by mohol paradoxne znížiť dôveru k reálnym informáciám) ia.acs.org.au. Podporu obmedzovaniu AI dezinformácie deklarujú politici naprieč spektrum a debata pokračuje, ako to zladiť so slobodou politického prejavu theguardian.com sbs.com.au.
- Taiwan: Po skúsenostiach s deepfake zasahovaním z Číny Taiwan aktualizoval svoje volebné zákony. V roku 2023 jeho parlament upravil Zákon o voľbách a odvolaní tak, aby výslovne zakázal šírenie upraveného zvuku alebo videa kandidátov s cieľom falošne ovplyvniť výsledok policyoptions.irpp.org. To poskytlo jasný právny nástroj proti typu deepfake útokov zaznamenaných v roku 2024. Taiwan tiež investoval do verejného vzdelávania a systému rýchlej reakcie (zapájajúceho štát, občiansku spoločnosť a technologické platformy) na vyvracanie nepravdivých informácií, čo prispelo k ich zmiereniu policyoptions.irpp.org policyoptions.irpp.org.
- Európske demokracie: Jednotlivé krajiny Európy, okrem regulácie EÚ, začali riešiť deepfake podľa existujúcich zákonov. Napríklad francúzsky zákon proti „falošným informáciám“ počas volieb (prijatý v roku 2018) by sa dal uplatniť aj na deepfake videá s cieľom ovplyvniť voľby a nemecké prísne zákony o urážke na cti a voľbách môžu tiež poslúžiť. Vidíme však aj návrhy nových opatrení: v Nemecku sa diskutuje o povinnosti politických strán deklarovať použitie syntetických médií vo volebnom marketingu. V Británii, ako už bolo uvedené, sa budúce úpravy zákonov o voľbách (napr. imprint požiadavky na digitálne reklamy) môžu týkať povinných zverejnení AI obsahu cetas.turing.ac.uk.
- Medzinárodné iniciatívy: Stúpa povedomie, že je potrebná globálna spolupráca, keďže dezinformácie nepoznajú hranice. G7 má pracovnú skupinu „AI Governance“, ktorá v roku 2024 vydala vyhlásenie o boji proti škodlivému využívaniu AI v informačnom priestore. Bidenova administratíva v USA dosiahla dobrovoľné záväzky od veľkých AI vývojárov (OpenAI, Google, Meta atď.), že zavedú vodoznakovanie AI obsahu a budú investovať do opatrení proti zneužitiu. Hoci tieto kroky nie sú záväzné, ukazujú vznikajúcu medzinárodnú normu v prospech transparentnosti a zodpovednosti pri využívaní AI.
Zhrnuté, politické reakcie na deepfake naberajú na obrátkach. Legislatíva zatiaľ len dobieha technológie, ale trend je zjavný: vlády smerujú k kriminalizácii najškodlivejších použití syntetických médií vo voľbách, zavádzaniu povinnej transparentnosti (označovania/zverejňovania) AI-generovaného obsahu a splnomocňovaniu regulačných a volebných orgánov konať proti digitálnym falzifikátom. Súčasne však musia chrániť legitímny prejav ako satira a vyhnúť sa drakonickým pravidlám, ktoré by sa dali zneužiť na cenzúru. Nájsť túto rovnováhu je náročné. Prístupy – od štátnych zákonov v USA po celoeurópske nariadenia – budú v roku 2025 slúžiť ako testovacie pole. Politici budú tieto nástroje isto vylepšovať, ako sa budú objavovať nové poznatky o ich účinnosti. Ignorovať však problematiku nemožno: ako poznamenal jeden prehľad politík, „Bez regulácie deepfake pravdepodobne ešte viac pomýlia voličov a podkopú dôveru vo voľby.“ citizen.org citizen.org Ďalšia sekcia obsahuje strategické odporúčania, ktoré nadväzujú na tieto snahy a sú cielené na všetkých aktérov demokratického procesu.
Strategické odporúčania na ochranu volieb
Obrana integrity volieb v ére umelej inteligencie si vyžiada viacúrovňovú stratégiu. Žiadny jediný nástroj alebo zákon nevyrieši problém deepfake; je potrebné koordinované úsilie vlád, technologických platforiem, médií a občianskej spoločnosti. Nižšie uvádzame strategické odporúčania pre jednotlivé sektory, ako zmierniť riziká a zabezpečiť, aby voliči mohli v roku 2025 a neskôr rozhodovať informovane:
Vlády a tvorcovia politík
1. Posilniť právnu ochranu a odstrašovanie: Vlády by mali prijať alebo aktualizovať zákony, ktoré výslovne zakazujú škodlivé použitie syntetických médií vo voľbách. To zahŕňa zavedenie nelegálnosti tvorby alebo šírenia deepfake materiálu, ktorý s úmyslom oklamať verejnosť alebo sabotovať voľby falošne zobrazuje kandidáta alebo manipuluje s informáciami súvisiacimi s voľbami (napríklad s postupmi hlasovania). Zásadná je úzka špecializácia – zákony by sa mali zamerať na úmyselné klamanie (dezinformácie), s jasnými výnimkami pre satiru, paródiu či zjavný umelecký prejav. Tresty (pokuty alebo trestné stíhanie) budú odstrašujúce pre potenciálnych šíriteľov deepfake, najmä ak budú uplatňované promptne. Príkladom môže byť navrhovaný austrálsky zákaz zavádzajúcich deepfake počas kampaní a nové taiwanské klauzuly proti AI-manipulovanému volebnému obsahu innovationaus.com policyoptions.irpp.org. V USA by mohli federálne opatrenia (ako navrhovaný No AI FRAUD Act) stanoviť celoštátne minimálne štandardy a doplniť zákony jednotlivých štátov. Okrem toho by vlády mali aktualizovať pravidlá pre financovanie kampaní a reklamu: požadovať, aby každá politická reklama (online alebo vysielaná), ktorá obsahuje syntetické médiá, obsahovala jasné upozornenie (napr. „Tento obraz/video je vygenerovaný AI“), aby diváci neboli uvedení do omylu. Normy pravdivosti v reklame musia byť rozšírené aj na AI obsah vo volebnom procese.
2. Zaviesť protokoly pre incidenty počas volieb: Volebné orgány by mali vytvoriť formálne protokoly na rýchlu reakciu na vážne deepfake incidenty v reálnom čase. Skvelým príkladom je kanadský Protokol pre kritické volebné incidenty, ktorý spája vysokých úradníkov na posúdenie a informovanie verejnosti o hrozbách zahraničného zasahovania alebo dezinformácií počas volieb cetas.turing.ac.uk cetas.turing.ac.uk. Ostatné demokracie by mali prijať podobné mechanizmy. Ak by sa objavil nebezpečný deepfake (napríklad falošné video, kde kandidát údajne priznáva porážku v deň volieb), protokol by sa aktivoval – predstavitelia, spravodajcovia a technologické platformy by rýchlo overili pravdivosť a vydali verejné vyhlásenie vyvracajúce falzifikát a objasňujúce fakty cetas.turing.ac.uk. Táto rýchla reakcia je rozhodujúca pre zmiernenie dopadu „požiaru“ dezinformácií. Vlády by si tieto reakcie mali nacvičiť v predstihu (prejsť rôzne deepfake scenáre), aby v prípade potreby konali rýchlo a jednotne.
3. Investovať do infraštruktúry detekcie a autentifikácie: Orgány verejného sektora by mali investovať do pokroku v detekcii deepfake a autentifikácie obsahu. To zahŕňa financovanie výskumu a vývoja (napríklad programy typu DARPA zamerané na AI sprostredkované dezinformácie), podporu zavádzania detekčných nástrojov pre voľby a prijatie štandardov autentifikácie v štátnej komunikácii. Konkrétnym krokom je, že štátne médiá (štátni vysielatelia, oficiálne účty na sociálnych sieťach atď.) začnú pridávať preukázateľné metaúdaje o pôvode ku všetkým oficiálnym fotkám, videám a zvukom, ktoré vydajú cetas.turing.ac.uk. Tak vytvoria základňu „overených pravých“ informácií. Voliči a novinári môžu tak dôverovať, že každé video s pečaťou vlády v metadátach je autentické – a naopak byť podozrievavejší voči podobnému obsahu bez týchto prvkov. Vlády môžu ísť vzorom v tomto prístupe „autenticita už od návrhu“ cetas.turing.ac.uk, ktorý už skúmajú USA a UK. Policajné a volebné dozorné orgány by navyše mali disponovať forenznými analytickými jednotkami na overovanie podozrivých médií počas kampaní. Vedomie, že úrady technicky dokážu trasovať a určiť pôvod deepfake (a možno identifikovať páchateľov), bude odkláňať potenciálnych zlomyseľníkov.
4. Vyjasniť a modernizovať existujúce zákony: V mnohých krajinách môžu byť na niektoré prípady deepfake aplikovateľné existujúce zákony o podvode, krádeži identity, ohováraní či zasahovaní do volieb – no môžu existovať medzery. Vlády by mali preskúmať svoje právne kódy, či nie sú potrebné nové kategórie. Napríklad: Máme paragrafy, ktoré sa vzťahujú na AI-generované zosobnenie verejného činiteľa? Ak nie, zaviesť ich. Zabezpečiť, aby zákony o ochrane údajov a súkromia zahŕňali aj neautorizované použitie podobizne/hlasu AI ako porušenie. Vyjasnenie legálneho postavenia škodlivých deepfake (a informovanie verejnosti) je kľúčové, aby potenciálni páchatelia vedeli, že môžu byť postavení pred zodpovednosť. Posilní to aj postavenie obetí (kandidátov alebo občanov), ktorí sa potom môžu domáhať nápravy. Toto preskúmanie by malo zahŕňať aj volebnú legislatívu: aktualizovať definície nelegálnej volebnej reklamy či klamlivých informácií o hlasovaní tak, aby výslovne zahŕňali aj manipuláciu so syntetickými médiami cetas.turing.ac.uk. Cieľom je odstrániť akúkoľvek nejasnosť – šíriteľ dezinformácií by nemal môcť tvrdiť: „Technicky to nie je nelegálne, lebo je to AI.“ Ak sú zákony jasné, uľahčí to ich presadzovanie a stíhanie.
5. Posilniť medzinárodnú spoluprácu: Keďže dezinformačné kampane často vznikajú v zahraničí (alebo sa šíria cez hranice), demokratické vlády by mali v tejto oblasti spolupracovať. Spravodajské služby a kyberbezpečnostné tímy by si mali vymieňať informácie o nových taktikách deepfake (napríklad ak jedna krajina zachytí cudzí deepfake útok, mala by varovať ostatných). Fóra ako Alliance for Securing Democracy, G7, dialógy EÚ-USA a ďalšie môžu koordinovať spoločné vyhlásenia a normy proti deepfake vo voľbách. Diplomatický tlak možno vyvíjať na štáty, ktoré takéto zasahovanie podporujú alebo tolerujú. Priestor je aj na spoločný výskum – napr. medzinárodné centrum pre detekciu deepfake by mohlo združovať dáta na zlepšenie algoritmov. Organizácie monitorujúce voľby (ako OBSE alebo medzinárodné pozorovateľské misie) by mali aktualizovať svoje metodiky na odhaľovanie vplyvu syntetických médií a krajiny môžu zaradiť počítanie s deepfake aj do obranných paktov na ochranu demokratických procesov. Jednotný prístup sťaží zlomyseľným aktérom využitie slabých miest jednej krajiny.
6. Podporovať verejné povedomie a digitálnu gramotnosť: Nakoniec má vláda úlohu aj vzdelávať voličov o deepfakoch. Mnohé krajiny dnes zvažujú alebo zavádzajú programy digitálnej gramotnosti v školách aj pre verejnosť cetas.turing.ac.uk. Tieto programy učia, ako si overovať online informácie, rozpoznať príznaky zmanipulovaných médií a kriticky premýšľať o zdrojoch. Keďže AI falzifikáty sú čoraz presvedčivejšie, je kľúčové, aby každý volič vedel, že takéto falzifikáty existujú, a cítil sa kompetentný si šokujúce obsahy overiť (namiesto toho, aby im slepo veril alebo ich zdieľal). Vlády by mali spolupracovať so školami a mimovládnymi organizáciami, aby začlenili povedomie o deepfakoch do vzdelávacích programov a verejných kampaní. Napríklad púšťať spoty, kde vedľa seba ukážu reálny a deepfake klip politika so stručným vysvetlením rozdielov, zvýši povedomie. Dôkazy ukazujú, že jedinci s vyššou mediálnou gramotnosťou a kritickým myslením sú omnoho zdatnejší v odhalení deepfake a odolnejší voči dezinformáciám cetas.turing.ac.uk. Financovanie iniciatív mediálnej gramotnosti je preto jednou z najefektívnejších dlhodobých obrán. Keď sa verejnosť stane aktívnou sieťou „senzorov“ – odhaľuje a upozorňuje na falzifikáty – dopad deepfake propagandy sa výrazne zníži.
Technologické platformy a vývojári umelej inteligencie
1. Posilniť platformové politiky a ich dodržiavanie: Sociálne siete a online platformy sú hlavnými distribučnými kanálmi pre virálne deepfake. Tieto spoločnosti by mali prijať prísne pravidlá proti zmanipulovaným médiám, ktoré klamú používateľov, hlavne v súvise s voľbami. Mnohé platformy už začali: napríklad Facebook a Twitter (X) majú politiky na odstraňovanie alebo označovanie „zmanipulovaných médií“, ktoré by mohli poškodiť. No aplikácia musí byť dôsledná. Platformy by mali zlepšiť automatizovanú detekciu deepfake (použitím najnovších nástrojov) a rýchlo zabezpečiť kontrolu podozrivého obsahu ľudskými moderátormi, ak naň používatelia upozornia. V období volieb môžu spoločnosti zriadiť špeciálne „volebné miestnosti“ a kanály na spoluprácu s volebnými komisiami na riešenie deepfake incidentov v reálnom čase. Keď je falzifikát identifikovaný, platformy by ho mali jasne označiť ako falošný alebo ho okamžite odstrániť a znížiť jeho dosah v algoritmoch, aby sa ďalej nešíril brennancenter.org brennancenter.org. Dôležitá je aj transparentnosť: platformy môžu zverejňovať pravidelné správy o zistených deepfake a prijatých opatreniach, čo zvyšuje dôveru verejnosti. Tiež by mali zdieľať vzorky zachytených deepfake s výskumníkmi na zlepšenie kolektívneho chápania problému.
2. Zaviesť označovanie a vysledovateľnosť deepfake obsahu: Po vzore EÚ by platformy na celom svete mali vyžadovať, aby AI-generovaný obsah bol jasne označený a priznaný. Napríklad, ak je nahraná politická reklama, ktorá obsahuje AI-generovaný obrázok alebo hlas, platforma by mohla vyžadovať, aby nahrávateľ zaškrtol možnosť „tento obsah obsahuje syntetické prvky“ – a potom zobrazila divákom upozornenie („Toto video bolo upravené alebo čiastočne vytvorené AI“). Aj mimo formálnych reklám môžu platformy využívať detekčné nástroje na vizuálne označenie podozrivých deepfake videí (napr. prekrytie s varovaním, že autenticita videa nebola overená). Navyše sociálne siete a messagingové služby by mohli integrovať funkcie autenticity obsahu: ak používajú štandardy ako C2PA, môžu zobrazovať ikonu, ak je zdroj a história úprav obrázka overená, alebo naopak upozorniť, ak tieto údaje chýbajú. Niektoré technologické firmy (Adobe, Microsoft, Twitter) sa už na týchto snahách podieľajú. Začlenením signálov o pôvode priamo do rozhraní môžu platformy pomôcť používateľom rozlíšiť skutočný obsah od falošného. Mali by tiež pracovať na mechanizmoch spätného vysledovania – napríklad, ak sa škodlivý deepfake rýchlo šíri, dokážu vystopovať pôvodného nahrávateľa, aj keď bol obsah medzičasom tisíckrát zdieľaný? Dôležitá bude spolupráca s orgánmi činnými v trestnom konaní pri závažných incidentoch (pri rešpektovaní zákonov o ochrane súkromia) na dolapeniu páchateľov.
3. Zakázať škodlivých používateľov a siete s deepfake obsahom: Platformy musia byť ostražité voči organizovaným aktérom, ktorí opakovane nasadzujú deepfaky. To znamená nielen odstraňovať jednotlivé obsahové položky, ale zatvoriť účty, stránky alebo boty zapojené do koordinovaných deepfake kampaní. Ak dôkazy preukazujú, že operácia je prepojená so štátom sponzorovanými snahami alebo známymi troll farmami, platformy by mali na to upozorniť a eliminovať ich prítomnosť. V uplynulých rokoch bolo odstránených mnoho dezinformačných sietí; rovnako razantný prístup je nutný aj voči AI-riadeným vplyvovým kampaniam. Platformy by mali svoje podmienky používania výslovne upraviť tak, aby zakazovali škodlivú tvorbu či zdieľanie syntetických médií s cieľom oklamať ostatných. Tieto pravidlá dávajú základ na vylúčenie porušovateľov. V politickej reklame by každá kampaň alebo PAC prichytené pri použití klamlivých deepfake-ov mali čeliť trestom, ako je zákaz inzercie. Technologické spoločnosti by tiež mohli spojiť sily a vytvoriť spoločný čierny zoznam známych hashov alebo podpisov deepfake obsahu, aby po odhalení jedného deepfake na jednej platforme mohol byť blokovaný aj na ostatných (podobne ako sa to robí s hashmi teroristického obsahu prostredníctvom združení). Zásadne platí: urobiť deepfake na veľkých platformách nevýhodným – obsah bude rýchlo odstránený alebo jeho autor príde o účet.
4. Spolupracujte s overovateľmi faktov a úradmi: Žiadna platforma nedokáže dokonale kontrolovať obsah sama. Spolupráca je nevyhnutná. Spoločnosti prevádzkujúce sociálne médiá by mali prehĺbiť partnerstvá s nezávislými overovateľmi faktov pri hodnotení virálneho obsahu. Keď fact-checkeri vyvrátia video ako podvod, platformy musia túto opravu zosilniť – napr. pripojením odkazu na článok s fakt-checkom vždy, keď je video zdieľané, alebo upozornením všetkých používateľov, ktorí fake videli ako prví. Tento postup už Facebook zaviedol v boji proti dezinformáciám a mal by ho rozšíriť aj na deepfaky. Platformy by sa navyše mali koordinovať s volebnými komisiami a bezpečnostnými orgánmi, najmä počas volieb. Môžu zriadiť priame linky alebo komunikačné kanály, cez ktoré úradníci nahlásia podozrivé deepfaky ovplyvňujúce voľby; rovnako platformy môžu varovať štátne orgány, ak zistia, že krajinu cieli zahraničná dezinformačná kampaň. V niektorých jurisdikciách sú podobné dohody už zavedené (napríklad kódex správania EÚ podporuje zdieľanie informácií s vládami o hrozbách z dezinformačného prostredia brennancenter.org). Dokonca aj v USA kyberbezpečnostná jednotka ministerstva vnútornej bezpečnosti spolupracuje s platformami na monitorovaní volebných dezinformácií. Tieto spolupráce musia samozrejme rešpektovať slobodu prejavu a nesmú prerásť do cenzúry legitímneho obsahu. Avšak pri jasne vykonštruovanom a škodlivom materiáli môže rýchla koordinácia medzi platformami a inštitúciami zabrániť jeho šíreniu. Môže to zahŕňať napríklad spoločné tlačové vyhlásenia vyvracajúce virálny fake alebo algoritmy uprednostňujúce dôveryhodné zdroje ako protiváhu šírenia dezinformácie.
5. Zlepšovať bezpečnostné opatrenia pre AI modely: Spoločnosti vytvárajúce generatívne modely AI (OpenAI, Google, Meta atď.) majú zodpovednosť už na zdroji. Mali by zaviesť opatrenia na zamedzenie zneužitia AI na zasahovanie do volieb. To môže zahŕňať vodotlač výstupov AI, ako už bolo diskutované (teda že každý obrázok vytvorený napr. DALL-E alebo Midjourney bude mať vložený digitálny podpis). Zahŕňať to môže aj kurátorstvo trénovacích dát – napríklad zabezpečiť, aby modely boli vyškolené na odmietnutie požiadaviek na škodlivé napodobňovanie skutočných osôb. Už dnes niektoré AI nástroje odmietajú generovať deepfake obrázky reálnych politických osobností vďaka vstavaným filtrom. Tieto bezpečnostné opatrenia treba pravidelne vylepšovať (aj keď open-source modely predstavujú výzvu, lebo ich môžu zneužívať aj zlí aktéri bez týchto zábran). Vývojári AI by mali tiež investovať do výskumu detekcie deepfake obsahu a výsledky zdieľať s komunitou. Je pozitívne, že viaceré popredné AI firmy už dobrovoľne sľúbili podporu pre vodotlač a overovanie obsahu. Do budúcna by mohli spolupracovať na štandardizovanom API, ktoré umožní rýchlo skontrolovať, či je nejaký video alebo audio súbor generovaný ich modelom. V podstate tí, ktorí vytvárajú „problém“ (generatívnu technológiu), by mali pomôcť vytvoriť aj „riešenie“ (nástroje na identifikáciu výstupu).
6. Transparentnosť v politickej reklame: Platformy, ktoré hosťujú politické reklamy, by mali uplatňovať prísnu transparentnosť pri využívaní AI. Ak je napríklad cez Facebook alebo Google propagovaná politická reklama s AI-generovanými prvkami, v knižnici reklám platformy by to malo byť jasne uvedené. Platformy by dokonca mohli požadovať od politických inzerentov predloženie pôvodného, needitovaného záznamu na porovnanie. Ešte ambicióznejšie – sociálne platformy by mohli zvážiť dočasný zákaz všetkých politických reklám obsahujúcich syntetické médiá počas citlivého záveru kampane – podobne, ako niektoré platformy tesne pred voľbami zakazujú nové politické reklamy. Tým by sa eliminovalo riziko masívnej záverečnej deepfake kampane. Hoci je vymáhanie tohto opatrenia náročné, princíp je jasný: platená propagácia klamlivého obsahu je obzvlášť nebezpečná a platformy majú pri regulovaní reklám väčší manévrovací priestor ako pri bežných príspevkoch. Zabezpečenie vysokej transparentnosti a rýchleho odstraňovania v oblasti reklamy je kritické, pretože deepfake distribuovaný cez platenú inzerciu môže algoritmicky zasiahnuť milióny ľudí a značne zdeformovať informačné prostredie.
Mediálne a novinárske organizácie
1. Dôsledné overovacie protokoly: Spravodajské médiá musia adaptovať svoje verifikačné procesy na dobu deepfake. Každá redakcia – od národných televízií cez lokálne noviny až po fact-checkingové weby – by si mala nastaviť formálne postupy na autentifikáciu audiovizuálneho materiálu pred jeho zverejnením či odvysielaním. Zahŕňa to školenie žurnalistov v používaní forenzných nástrojov (napr. kontrola metadát videí, analýzy obrázkov) a konzultácie s expertmi v prípade potreby. Každý senzačný alebo škandalózny klip objavený počas predvolebnej kampane by mal byť hodnotený s primeranou mierou skepticizmu a redakcie by nemali s jeho zverejnením uponáhľať bez potvrdenia. Médiá majú zdvojovať zdroje každého používateľského obsahu: ak sa napríklad objaví video, kde kandidát robí niečo šokujúce, redakcia by mala žiadať podporné dôkazy (svedkov, oficiálne vyjadrenia atď.) alebo aspoň vyžiadať snímkovú analýzu na potvrdenie, že nejde o deepfake. Cieľom je nepropagovať dezinformácie nevedomky ďalej. Niektoré médiá už pozoruhodne vytvorili interné deepfake tímy – napríklad, žurnalisti v Arizone dokonca s povolením vytvorili vlastný deepfake, aby ukázali divákom, aké jednoduché je video zmanipulovať knightcolumbia.org – čo je výborný spôsob na zvýšenie povedomia. Všetky redakcie by mali mať „deepfake experta“ na telefóne (alebo aspoň partnerstvo so špecializovaným technologickým laboratóriom) pre rýchlu analýzu podozrivého záznamu. Ak sa overovanie stane rovnako bežné ako bežný fact-checking, médiá odhalia falošné videá včas alebo minimálne upozornia publikum, ak sa niečo zatiaľ nepodarilo overiť.
2. Zodpovedné informovanie o deepfake obsahu: Pri pokrývaní prípadov syntetických médií by mali novinári postupovať opatrne a s kontextom. Ak sa deepfake namierený proti kandidátovi stane virálnym, príbehom nemajú byť samotné falošné tvrdenia, ale fakt, že ide o podvodnú manipuláciu. Spravodajské články by sa mali vyhýbať detailnému rozpisovaniu falošných obvinení alebo nekritickému prehrávaniu deepfake videa, lebo tým by sa falošné informácie nevedome šírili ďalej. Namiesto toho ich možno všeobecne opísať a sústrediť sa na reakciu (napr. „Na internete bolo zverejnené zmanipulované video, ktoré nepravdivo zobrazuje X pri čine Y – odborníci ho vyvrátili“). Redakcie môžu rozmazávať alebo neuvádzať priamy odkaz na deepfake obsah vo svojich online článkoch cetas.turing.ac.uk, aby nepriťahovali zbytočnú pozornosť alebo neumožnili škodlivým aktérom stiahnuť obsah na ďalšie šírenie. Zarámcovanie skúmaných tém je veľmi dôležité: zvýrazniť pokus o oklamanie a fakt, že ide o deepfake, viac ako samotný obsah falošného príbehu cetas.turing.ac.uk. Médiá majú tiež zdôrazňovať opravy a pravdu (napríklad: „Nie, politik Z to nepovedal – video je výtvorom AI; tu je, čo v skutočnosti povedal na danú tému“). Opakovaním takéhoto postupu môžu renomované médiá účinne znižovať pravdepodobnosť, že verejnosť uverí alebo bude šíriť podvodné videá. Je to citlivá rovnováha medzi neignorovaním dezinformácie (ignorancia jej nezabráni) a jej nechceným šírením. Mali by sa pripraviť odporúčania podobné tým, ktoré platia pri informovaní o hoaxoch alebo masových útokoch (kde sa určité detaily minimalizujú, aby nenavádzali ďalších nasledovníkov), aj pri reportovaní o deepfake. Nezávislá organizácia pre štandardy tlače v UK bola vyzvaná, aby aktualizovala svoj kódex práve pre tieto situácie cetas.turing.ac.uk.
3. Využívanie technológií na overovanie pravosti v redakciách: Samotné spravodajské organizácie môžu využiť vznikajúcu infraštruktúru na overovanie pravosti. Napríklad médiá môžu prijať nástroje Content Authenticity Initiative a pripojiť kryptografické poverenia o obsahu ku všetkým originálnym fotografiám a videám, ktoré vytvoria ich novinári. To znamená, že akékoľvek zábery zachytené napríklad kameramanom Reuters alebo AP môžu niesť bezpečnostnú pečať potvrdzujúcu ich pôvod a všetky úpravy. Pri ďalšom zdieľaní môže každý skontrolovať, či je video zo zdroja Reuters nezmenené. Takéto opatrenia pomáhajú potvrdzovať, čo je skutočné a verejnosti ponúkajú zdroj pravdy. Médiá by tiež mali spolupracovať na tvorbe databáz známych deepfakov (aj známych pravých materiálov), ktoré môžu pomôcť overovateľom faktov. Napríklad udržiavanie archívu oficiálnych prejavov a rozhovorov môže rýchlo pomôcť vyvrátiť zmanipulovaný klip porovnaním. Hlavné tlačové agentúry môžu koordinovať rýchle upozornenie svojich odberateľov, ak sa objaví nebezpečný deepfake – podobne ako vydávajú správy typu breaking news. Vnútri médií by si mali redaktori uvedomovať, že politickí hráči sa môžu pokúsiť podstrčiť novinárom falošné materiály (napr. tip s údajne „uniknutou” nahrávkou, ktorá je v skutočnosti vytvorená AI). Je rozumné zachovávať zdravú skepsu voči akémukoľvek anonymnému digitálnemu obsahu.
4. Vzdelávanie publika: Médiá môžu mať veľkú úlohu pri vzdelávaní voličov o syntetických médiách. Redakcie a novinári by mali vytvárať vysvetľujúce články, rozhovory s odborníkmi a relácie, ktoré ukazujú verejnosti, ako deepfaky vznikajú a ako ich rozpoznať. Tým, že technológiu demystifikujú, znižujú jej moc. Niektoré televízne relácie v roku 2024 napríklad naživo predviedli AI klonovanie hlasu, aby ukázali, ako môže podvodný hovor napodobniť hlas vášho príbuzného. Rovnako aj spravodajstvo počas volebnej sezóny môže obsahovať pripomienky: „Ak uvidíte na poslednú chvíľu šokujúce video o kandidátovi, buďte opatrní – môže byť falošné. Tu je spôsob, ako si to overiť…“. Verejné vzdelávacie kampane vedené médiami (možno v partnerstve s vládou alebo mimovládkami) môžu výrazne zvýšiť digitálnu gramotnosť. Novinári by tiež mali dôsledne používať presnú terminológiu: nazývať niečo „deepfakeom” alebo „umelo vytvoreným falošným videom” namiesto len „upraveného videa” pomáha zdôrazniť, že táto nová kategória existuje. Dlhodobo bude dobre informovaná verejnosť menej náchylná naletieť na podvod a pravdepodobnejšie si vyžiada dôkazy. Médiá ako sprostredkovateľ medzi informáciou a verejnosťou majú povinnosť túto odolnosť budovať.
5. Zodpovednosť a odhaľovanie: Novinári by sa tiež mali venovať vyšetrovaním a odhaľovaním toho, kto stojí za prominentnými deepfake operáciami. Privedenie páchateľov na svetlo verejnej mienky môže odradiť od budúceho zneužitia. Ak je identifikované, že zdrojom škodlivého deepfaku je konkurenčná kampaň, zahraničný trollí ranč, alebo konkrétna skupina na internete, výrazné informovanie o tom priloží takýmto praktikám stigmu a riziko. Odhaľovanie produkcie a financovania dezinformačných kampaní môže znefunkčniť ich účinok. Okrem toho, ak politik alebo verejne známa osoba zdieľa deepfake s vedomím, že je falošný (napríklad kandidát zverejní tweet s falošným videom svojho súpera), médiá by na to mali jasne upozorniť – a brať to ako vážne pochybenie. Hrozba negatívneho obrazu v tlači a poškodenia reputácie môže politikov odradiť od „špinavých trikov” typu použitia deepfakov. Stručne, strážna funkcia žurnalistiky platí aj v digitálnom prostredí: vyšetrovať, priraďovať a odhaľovať škodlivé syntetické mediálne operácie tak, ako by to robili pri podvodoch alebo korupcii v politike.
Iniciatívy občianskej spoločnosti a voličov
1. Digitálna gramotnosť a komunitné vzdelávanie: Organizácie občianskej spoločnosti – vrátane neziskoviek, knižníc, univerzít a zdola organizovaných skupín – môžu viesť iniciatívy na vzdelávanie občanov v ére deepfakov. Komunite by mali byť ponúkané škálovateľné programy, ako overovať médiá. Napríklad mimovládne organizácie môžu viesť workshopy, kde ľudí naučia jednoduché triky typu spätné vyhľadávanie obrázkov (či je fotografia AI-generovaná alebo upravená), hľadanie sprievodných správ alebo používanie overovacích stránok. Už existujú výborne vypracované súpravy nástrojov a kurikulum od skupín venujúcich sa overovaniu faktov (napr. First Draft, Media Literacy Now), ktoré pokrývajú rozoznávanie dezinformácií a deepfakov – tie by sa mali masívne šíriť. Takéto vzdelávanie by malo byť zacielené nielen na žiakov základných a stredných škôl, ale aj na starších dospelých, ktorí sú často ešte zraniteľnejší online. Celonárodné kampane digitálnej gramotnosti môžu byť realizované s finančnou pomocou štátu, ale vykonávané komunitnými organizáciami vo vierehodnejšom režime. Cieľom je zvýšiť „kolektívnu imunitu“ spoločnosti: ak dostatočný podiel ľudí rozpozná podvod alebo si minimálne počká na overenie, dezinformátori strácajú veľkú časť svojej sily. Prieskumy ukazujú, že verejnosť chce tieto vedomosti – mnohí majú úzkosť z toho, že nevedia rozoznať pravdu od klamstva brennancenter.org brennancenter.org. Občianska spoločnosť môže túto medzeru vyplniť tým, že občanov vyzbrojí vzdelaním a praktickými schopnosťami.
2. Overovanie faktov a iniciatívy zamerané na vyvracanie mýtov: Nezávislí overovatelia faktov a občianski strážcovia zostanú kľúčoví. Mali by sa špeciálne pripraviť na volebné obdobia prostredníctvom iniciatív ako samostatné deepfake fact-check centrá. Napríklad koalície overovateľských organizácií môžu počas volieb prevádzkovať verejný panel, ktorý sleduje fámy a nové tvrdenia o deepfake, a poskytuje rýchle vyvracanie. News Literacy Project robil niečo podobné pre americké voľby v roku 2024 – evidoval prípady dezinformácií a upozorňoval, koľko z nich reálne využilo AI knightcolumbia.org knightcolumbia.org. Tento transparentný monitoring pomáha verejnosti a novinárom vidieť situáciu v celku a nepreceňovať hrozbu, pričom adresuje skutočné prípady. Organizácie občianskej spoločnosti môžu rýchlo šíriť pravdivé opravy na sociálnych sieťach – napríklad odpovedať na virálne príspevky presnými informáciami, podporené komunitnými poznámkami alebo inými nástrojmi. Je potrebné podporovať aj koncept „prebunkingu”: vopred upozorniť verejnosť, že môže vzniknúť falošný obsah. Napríklad ak spravodajské služby alebo minulé skúsenosti naznačujú, že kandidát môže byť terčom falošného škandálu, občianske združenia (v koordinácii s volebnými úradmi) môžu varovať voličov: „Buďte skeptickí, ak náhle uvidíte šokujúce video kandidáta X, existuje možnosť deepfaku.” Výskumy ukazujú, že prebunking dokáže výrazne znížiť dôverčivosť a šírenie falošných tvrdení cetas.turing.ac.uk cetas.turing.ac.uk. Proaktívny prístup občianskej spoločnosti, ktorý predvída a predchádza deepfake kampaniam, sa tak môže vyplatiť.
3. Civic Tech a detekcia pomocou davu: Technologicky zdatní občania môžu byť zmobilizovaní na boj proti deepfakom. Už teraz existujú dobrovoľní „lovci deepfakov”, ktorí analyzujú podozrivý obsah na internete. Občianska spoločnosť môže tieto aktivity organizovať cez špecializované platformy – napríklad špeciálny portál alebo aplikáciu, kde ľudia môžu anonymne nahrať podozrivý video alebo audio súbor na analýzu, a sieť expertov či AI nástrojov poskytne správu o pravosti. Táto davová inteligencia môže doplniť oficiálne snahy. Skupiny civic tech môžu taktiež vyvinúť rozšírenia do prehliadačov alebo mobilné aplikácie, ktoré používateľom pomôžu rozpoznať syntetické médiá. Napríklad aplikácia môže vytvoriť analýzu vybraného videa na obrazovke pomocou viacerých detekčných algoritmov (niečo ako antivírus na deepfaky). Nie je to stopercentné, ale dokáže zvýšiť povedomie o riziku. Otvorené iniciatívy na tvorbu takýchto nástrojov by mali byť podporované grantmi. Ďalším nápadom sú občianske linky na nahlasovanie – podobne ako vo voľbách sú linky na volebné problémy, mohla by fungovať linka na nahlasovanie podozrivých dezinformácií či deepfakov, ktoré potom putujú k volebným úradom alebo overovateľom, ktorí môžu zakročiť. Zapojením občanov ako aktívnych účastníkov sledovania a nahlasovania podozrivého obsahu sa podstatne zvyšuje rozsah monitorovania. Tento distribuovaný prístup vychádza z reality digitálnej doby: zo spoločnosti miliónov ľudí si niekto často všimne problém včas – kľúčom je tieto pozorovania rýchlo posunúť tým, ktorí ich overia a šíria pravdu ďalej.
4. Advokácia platformovej zodpovednosti: Občianska spoločnosť by mala aj naďalej tlačiť na technologické platformy a AI firmy, aby konali zodpovedne. Organizácie verejného záujmu a think tanky zohrali kľúčovú úlohu v upozorňovaní na riziká deepfakov a presadzovaní reforiem (napr. Access Now, EFF a ďalšie publikovali výzvy a odporúčania). Táto advokácia musí pokračovať – vyvíjať tlak na platformy, aby zavádzali už spomínané opatrenia (lepšie označovanie, odstraňovanie obsahu atď.), a tiež aby vývojári AI stavali na etických princípoch. Kampaň Public Citizen sledujúca stav legislatívy ohľadom deepfakov a petície FEC je jedným z príkladov citizen.org citizen.org. Rovnako môžu koalície žiadať väčšiu transparentnosť od platforiem: publikovanie údajov o podiele AI obsahu na ich stránkach či o úspešnosti detekčných opatrení. Občianske hlasy môžu tiež dohliadať, aby nové zákony alebo regulácie strategicky chránili občianske práva (napr. zabrániť príliš širokým zákonom, ktoré by mohli byť zneužité na potlačenie slobody prejavu pod zámienkou boja proti deepfakom). Nájsť túto rovnováhu si vyžaduje verejnú diskusiu a advokačné skupiny sú zástupcami občanov v týchto debatách. Najbližšie roky prinesú nové právne rámce pre AI a online obsah – je kľúčové, aby demokratické hodnoty a princípy ľudských práv v nich boli zachované – a občianska spoločnosť je nositeľom tejto strážnej úlohy.
5. Podpora pre obete a ciele: Ak je kandidát alebo súkromná osoba očiernená deepfakeom, občianska spoločnosť môže poskytnúť podporu. Neziskové organizácie môžu ponúknuť právnu pomoc alebo poradenstvo, ako dosiahnuť stiahnutie hanlivého deepfaku a pohnúť páchateľov k zodpovednosti. Môžu existovať linky pomoci pre obete deepfake pornografie alebo očierňujúcich útokov na charakter, ktoré ich spoja s orgánmi činnými v trestnom konaní a zdrojmi duševného zdravia. Pre kandidátov, ktorých zasiahla diskreditačná kampaň, občianske organizácie (ako liga voličiek či skupiny pre integritu volieb) môžu pomôcť zosilniť ich popretie a vyvrátenie, aby minimalizovali škody. Rýchla obrana niekoho nespravodlivo označeného – zabezpečenie, že pravda bude hlasnejšia než lož – je niečo, čo môžu komunitné a advokačné skupiny koordinovať, tak ako to často robia pri boji s ohováraním alebo nenávistnými prejavmi. Na širšej úrovni môže občianska spoločnosť podporovať medzistranícke záväzky, že ak sa objaví akýkoľvek deepfake, všetky strany ho odsúdia. Predstavte si záväzok podpísaný všetkými hlavnými stranami v krajine, ktorý sľubuje, že nebudú používať deepfaky a rýchlo odsúdia akékoľvek škodlivé falzifikáty, ktoré sa objavia. Takéto normy, podporované skupinami ako medzistranícke volebné výbory alebo etické mimovládky, by znížili pravdepodobnosť „pretekov ku dnu“, kedy by sa strany cítili nútené reagovať podobne. Vytvára to jednotný front, že útoky na pravdu sa nebudú tolerovať, bez ohľadu na to, koho zasiahnu.
Na záver, zvládnutie výzvy deepfakov si vyžaduje využitie všetkých spoločenských obranných mechanizmov – technologických, právnych, inštitucionálnych aj ľudských. Realizáciou vyššie uvedených krokov môžu vlády posilniť volebný systém proti AI falšovaniam, technologické platformy môžu obmedziť šírenie nepravdivého obsahu, médiá môžu zaručiť prevahu pravdy v spravodajstve a občania sa môžu stať bystrými strážcami reality. Nie je čas strácať: ako sa generatívna umelá inteligencia vyvíja, volebný cyklus v roku 2025 preverí odolnosť demokracií voči syntetickým lžiam. Dobrou správou je, že nie sme bezbranní. S prípravou, transparentnosťou a spoluprácou dokážeme prekonať a preorganizovať deepfake kampane, a tým zachovať integritu našich volieb. Ako uzavrela výskumná správa CETaS o AI a voľbách, „uspokojenie nesmie preniknúť do rozhodovania“ – naopak, mali by sme využiť súčasný moment na budovanie odolnosti cetas.turing.ac.uk cetas.turing.ac.uk. Takto budeme obhajovať zásadu, že zatiaľ čo technológie sa vyvíjajú, naše demokratické hodnoty pravdy a dôvery pretrvajú.
Zdroje
- Stockwell, Sam et al. “AI-Enabled Influence Operations: Safeguarding Future Elections.” Výskumná správa CETaS (Alan Turing Institute), 13. november 2024. cetas.turing.ac.uk cetas.turing.ac.uk
- Stockwell, Sam et al. Ibid. (CETaS Správa, 2024), Sekcia 2.1 o deepfakoch v amerických voľbách. cetas.turing.ac.uk cetas.turing.ac.uk
- Beaumont, Hilary. „’Nedostatok dôvery’: Ako deepfaky a AI môžu otriasť americkými voľbami.” Al Jazeera, 19. jún 2024. aljazeera.com aljazeera.com
- Sze-Fung Lee. „Kanada potrebuje legislatívu k deepfakom, a to hneď.” Policy Options, 18. marec 2024. policyoptions.irpp.org policyoptions.irpp.org
- Goldstein, Josh A. & Andrew Lohn. „Deepfaky, voľby a zmenšovanie tzv. ‚Liar’s Dividend‘.” Brennan Center for Justice, 23. január 2024. brennancenter.org
- „Syntetické médiá.” Wikipedia (prístup 2025). en.wikipedia.org en.wikipedia.org
- „Deepfake.” Kaspersky IT Encyclopedia (2023). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
- Hamiel, Nathan. „Deepfaky sa ukázali ako iný typ hrozby, než sa očakávalo. Tu je, ako sa proti nim brániť.” World Economic Forum, 10. január 2025. weforum.org weforum.org
- „Regulácia AI deepfakov a syntetických médií v politickej oblasti.” Brennan Center for Justice, 4. október 2023. brennancenter.org brennancenter.org
- Colman, Ben. „EU AI Act a rastúca urgentnosť detekcie deepfakov.” Reality Defender Blog, 11. február 2025. realitydefender.com realitydefender.com
- „Sledovač: Štátna legislatíva o deepfakoch vo voľbách.” Public Citizen, 2025. citizen.org citizen.org
- Partnership on AI. „Syntetické médiá a deepfaky – Prípadová štúdia: Slovensko 2023.” (Spomínané v analýze Knight Columbia). brennancenter.org brennancenter.org
- Kapoor, Sayash & Arvind Narayanan. „Preskúmali sme 78 volebných deepfakov. Politická dezinformácia nie je problém AI.” Knight First Amendment Institute, 13. december 2024. knightcolumbia.org knightcolumbia.org
- Správa CETaS (2024), Politické odporúčania (so zameraním na UK). cetas.turing.ac.uk cetas.turing.ac.uk
- Správa CETaS (2024), Odporúčania na detekciu a pôvod obsahu. cetas.turing.ac.uk cetas.turing.ac.uk
- Public Safety Canada. „Ochrana proti AI-podporovanej dezinformácii” (stručný dokument 2023). policyoptions.irpp.org policyoptions.irpp.org
- InnovationAus. „Vládny zákaz volebných deepfakov bude ‘u ledu’ do roku 2026.” (Austrália), 2023. innovationaus.com
- Ďalšie odkazy: Články Reuters, Wired a CNN citované v zdrojoch vyššie pre konkrétne incidenty (napr. deepfake Zelenského, podvod za 25 mil. USD cez deepfake cez Zoom v Hong Kongu weforum.org), a varovania FTC pre spotrebiteľov pred hlasovými podvodmi weforum.org. Tieto sú zahrnuté v analýze a dostupné cez uvedené odkazy na zdroje.