Szintetikus média és deepfake-ek: A 2025-ös választási ciklus védelme

június 30, 2025
Synthetic Media and Deepfakes: Safeguarding the 2025 Election Cycle

Az mesterséges intelligencia fejlődése lehetővé tette a szintetikus média – mesterséges intelligencia által generált vagy manipulált tartalom – példátlan méretű előállítását. Ahogy a demokratikus országok közelednek a 2025-ös választási ciklushoz, a tisztviselők és szakértők riasztó jeleket adnak ki az MI-alapú dezinformáció kapcsán. Egy friss felmérés szerint az amerikaiak 85%-a aggódik amiatt, hogy a „félrevezető videó- és hang-dípfékek” befolyásolhatják a választásokat brennancenter.org. A hírek címoldalai figyelmeztetnek, hogy az MI által generált „deepfake-ek” komoly károkat okozhatnak a kampányokban és a választók bizalmában brennancenter.org, ami aláhúzza a választási integritás védelmének sürgősségét. Ez a jelentés megvizsgálja, mik azok a szintetikus média és a deepfake-ek, hogyan fenyegetik a demokráciát, valamint milyen technológiai és szabályozási megoldásokkal lehet megvédeni a választásokat 2025-ben és azon túl.

Mik azok a szintetikus média és a deepfake-ek?

A szintetikus média egy összefoglaló kifejezés mindenféle digitális tartalomra (képek, videók, hangok, szöveg), amelyet mesterségesen állítottak elő vagy módosítottak automatizált módon, főként MI-algoritmusokkal en.wikipedia.org. A mai generatív MI-rendszerek élethű, emberihez hasonló tartalom előállítására képesek minden médiumban – a sosem létezett emberek realisztikus fotóitól a klónozott hangokon át a MI által írt cikkekig. A deepfake-ek a szintetikus médiák egy különösen veszélyes alfaját jelentik: kimagaslóan élethű hamis képek, videók vagy hangfelvételek, amelyeket MI-vel mesterségesen készítenek el, hogy valós embereket utánozzanak (encyclopedia.kaspersky.com). Gyakorlatban egy deepfake lehet például olyan videó, ahol egy politikus arcát valaki más testére illesztik, vagy hangfelvétel, amelyben megtévesztő módon úgy szólal meg egy jelölt hangja, ahogy azt ő valójában soha nem mondta.

Hogyan készülnek a deepfake-ek? Ezek többsége fejlett deep learning technikákkal jön létre. Az egyik leggyakoribb eljárás a generatív adverszárius hálózatokat (GAN) használja – két neurális hálózat verseng egymással icct.nl. Az egyik (a generátor) hamis médiát állít elő (például egy emberi arcot), míg a másik (a diszkriminátor) megpróbálja eldönteni, hogy valós vagy hamis a tartalom. Több ezer iteráción keresztül a generátor egyre valósághűbb hamisítványokat készít, míg végül a diszkriminátor már nem tudja megkülönböztetni az igazit a hamistól icct.nl. Korábban egy jól sikerült deepfake-hez rengeteg tanítóadat és erős hardver kellett – például egy Tom Cruise-ról készült deepfake-kísérlethez két hónapig tartott a tréning csúcskategóriás GPU-kon icct.nl. Ám napjainkban a deepfake-eszközök rohamosan fejlődtek. A kifinomult deepfake-szoftverek széles körben elérhetők és gyorsabbak, sokszor akár valós időben is működnek (például egy élő videó vagy hanghívás közbeni manipulációval) encyclopedia.kaspersky.com. A GAN-ek mellett más MI-architektúrák, például transformer modellek is hasznosak deepfake-szövegek vagy hangklónozás létrehozásában encyclopedia.kaspersky.com. Összefoglalva: a legújabb MI-fejlesztések olcsóvá és könnyen elérhetővé tették a megtévesztő audiovizuális tartalmak létrehozását, ezzel jelentősen leszállítva a dezinformációs kampányok belépési küszöbét.

Fontos hangsúlyozni, hogy a szintetikus média nem mindig rosszindulatú. Az MI-vel generált tartalom felhasználható ártalmatlan és kreatív célokra is – például személyre szabott avatárok, egy előadó hangjának más nyelvre szinkronizálása, szatíra vagy szórakoztatás céljából. 2024 során a világ választásainál a politikai célú MI-tartalmak nagyjából fele nem megtévesztő volt (például, amikor egy jelölt transzparensen MI-hangot használt, mert elvesztette a saját hangját, vagy újságíró MI-avatarral védi személyazonosságát) knightcolumbia.org knightcolumbia.org. Jelen jelentés azonban a szintetikus média rosszindulatú oldalára koncentrál – a választókat és a közvéleményt megtévesztő, félrevezető, manipuláló deepfake-ekre.

Kockázatok a demokratikus folyamatokra nézve

A szintetikus média és a deepfake-ek jelentős kockázatot jelentenek a demokráciára, különösen a választási időszakban, amikor a tájékozott választópolgárság és az információkba vetett bizalom kiemelten fontos. A főbb fenyegetések a következők:

  • Dezinformáció és választói manipuláció: MI által generált hamis videók, képek vagy hangfelvételek hamis információkat terjeszthetnek a jelöltekről vagy témákról, megtévesztve a választókat. Egy deepfake például bemutathat egy jelöltet, amint soha el nem hangzott, gyalázkodó kijelentést tesz. Az ilyen tartalom mérgező hazugságokat fecskendezhet a közéletbe. A szakértők figyelmeztetnek, hogy a deepfake-ek „nagy kockázatot” jelentenek a választókra nézve, mert hamis tartalmat juttathatnak be a kampányokba és aláássák a közbizalmat aljazeera.com. Ha valaki közvetlenül a választás napja előtt jelentet meg egy hihetően manipulált videót – amikor már nincs idő a tényellenőrzésre – az eldöntheti bizonytalan szavazók véleményét vagy visszatarthatja őket a részvételtől; ez akár meg is változtathatja a választás kimenetelét citizen.org. Ez a veszély nem csak elméleti: amint később részletezzük, 2024-ben egy deepfake-hangfelvételen a leképezett amerikai elnök arra szólította híveit, hogy ne szavazzanak, vélhetően a részvétel elrettentése érdekében aljazeera.com aljazeera.com.
  • A bizalom eróziója („hazugok bónusza”): Egyetlen konkrét hamisítványon túl már a deepfake-ek létének ténye is alááshatja a közbizalmat a valódi információkban. A választók kételkedni kezdhetnek a valódi bizonyítékokban, nem lehetnek biztosak abban, hogy egy terjedő videó valós-e, vagy MI-hamisítvány. Még rosszabb, hogy a korrupt szereplők ezt a kételyt kihasználhatják: egy valós botrány vagy igaz felvétel is letagadható azzal az ürüggyel, hogy „csupán deepfake”, így a bűnösök elkerülhetik a felelősséget. A tudósok ezt nevezték el „hazugok bónuszának”: minél többen tudnak a deepfake-ekről, annál könnyebb egy valódi bizonyítékra rásütni, hogy hamis brennancenter.org. Az MI erejével kapcsolatos megnövekedett közvéleményi tudatosság révén egy politikus könnyebben ráveheti a közönséget, hogy hazudik, ha az őt leleplező hang- vagy videófelvételt AI-hamisítványnak minősíti brennancenter.org. Ez a dinamika fenyegeti az alapvető bizalmat, amire a demokratikus diskurzus épül. Választási megfigyelők feljegyezték, hogy 2024-ben néhány jelölt vagy támogatójuk előre kijelentette: „AI-hamisítványról” van szó, hogy elutasítsák a kellemetlen történeteket brennancenter.org brennancenter.org. Hosszú távon, ha a polgárok úgy érzik, hogy „semmit sem lehet elhinni, amit látsz vagy hallasz”, az aláássa a közös valóságot, ami nélkül nincs szabad és tisztességes választás cetas.turing.ac.uk cetas.turing.ac.uk.
  • Pólusosodás és konfliktus kiélezése: Eddigi tapasztalatok alapján a deepfake-propaganda jellemzően megerősíti az emberek meglévő előítéleteit, ahelyett hogy határvonalakon átívelő meggyőző ereje lenne cetas.turing.ac.uk. A rosszindulatú MI-alapú tartalmakat leginkább azok osztják és terjesztik, akik már extrém nézeteket vallanak, ez pedig felerősíti a visszhangkamrákat. A 2024-es amerikai elnökválasztás során a kutatók azt találták, hogy az MI által generált hazugságok főleg a pártos narratívákat élesítették és szították vitákat, ahelyett, hogy új híveket szereztek volna cetas.turing.ac.uk. Például Biden elnököt vagy Harris alelnököt célzó hamis videók milliós nézettséget értek el az interneten, ám főleg azok terjesztették, akik eleve ellenségesek voltak velük szemben cetas.turing.ac.uk cetas.turing.ac.uk. Az ideológiai táborokat konszolidáló, a másik oldal aljasságát dramatizáló hamis „bizonyítékokkal” a deepfake-ek tovább szakítják a társadalmat, mérgezőbbé teszik a kampányklímát. Emellett a deepfake-ek keltette zavar és kétely ideális táptalajt teremt az összeesküvés-elméletekhez cetas.turing.ac.uk, hiszen minden kényelmetlen valóság könnyebben elutasítható MI-hamisítványnak címkézve.
  • A választás lebonyolításának veszélyeztetése: A kockázat nem áll meg a jelöltekről szóló félrevezetésnél – deepfake-ek képesek lehetnek magát a választási folyamatot is megzavarni. A tisztviselők például olyan forgatókönyveket is elképzeltek, amikor MI-hangklónok vagy hamis üzenetek látszólag választási hatóságoktól érkeznek, azt üzenve a szavazatszámlálóknak, hogy zárják korábban a szavazóköröket, vagy a választóknak adnak hamis információkat (például: „a választást elhalasztották”) aljazeera.com. Egy ügyes támadó akár egy választási bizottsági elnök vagy helyi illetékes hangját is megszólaltathatja, hogy szabotálja a voksolást. Az ilyen trükkök elriaszthatják a szavazókat vagy káoszt okozhatnak a választás napján. Az amerikai Brennan Center szerint a manipulált médiumokat nem csak a közvélemény, hanem maguk a szavazatszámlálók és választási tisztviselők is megtéveszthetik, így új képzésekre és eljárásokra van szükség aljazeera.com.
  • Zsarolás és karaktergyilkosság: A deepfake-ek hatásos fegyvert jelentenek a jelöltek, aktivisták vagy újságírók elleni személyes támadásokhoz is. Kiemelten veszedelmes kategória a nem beleegyezésen alapuló szintetikus pornográfia – amikor valaki arcát explicit szexuális tartalomba montírozzák. Ezzel a módszerrel már világszerte újságírónőket és politikusnőket zaklattak. A deepfake-zaklatás legextrémebb formája a hamis intim ábrázolás, amelyet megalázásra vagy zsarolásra használnak weforum.org. Választási helyzetben operatív emberek kompromittáló – például deepfake szexvideót vagy hamis illegális tevékenységet bemutató – felvételeket jelentethetnek meg egy jelöltről közvetlenül a szavazás előtt. Akkor is, ha ezeket gyorsan leleplezik, a jelölt hírnevében már kárt tehetnek. A „szintetikus rágalmazási” kampányok leggyakrabban nőket és kisebbségeket céloznak, akik emiatt akár vissza is léphetnek a politikai szerepvállalástól policyoptions.irpp.org policyoptions.irpp.org. Összefoglalva: a deepfake-ek régi piszkos trükköknek adnak új lendületet – a kreált botrányoktól a hamis idézeteken át – és felpörgetik a karaktergyilkosság kísérleteit a választások alatt.

Végül fontos kiemelni, hogy eddig nem volt deepfake okozta választási katasztrófa. A 2024-es választásokat vizsgáló empirikus elemzések világszerte kevés bizonyítékot találtak arra, hogy az MI által generált dezinformáció ténylegesen megváltoztatott volna bármilyen választási eredményt cetas.turing.ac.uk weforum.org. A hagyományos dezinformáció (olcsón szerkesztett „cheapfake”-ek, pletykák, pártos csúsztatások) sokkal nagyobb szerepet játszott a félretájékoztatásban, mint a magas technológiájú deepfake-ek knightcolumbia.org knightcolumbia.org. Ám a szakértők óvatosságra intenek: az eddigi elmaradt katasztrófa nem ad okot a nyugalomra cetas.turing.ac.uk weforum.org. A technológia gyorsan fejlődik, az ellenséges szereplők tanulnak. Még ha a deepfake-ek nem is döntöttek el nagy választásokat 2024-ben, a közbeszédet már formálták – például az MI által generált, jelöltekről szóló hazugságok a főáramú viták témájává váltak cetas.turing.ac.uk. Emellett már maga a deepfake-ekkel kapcsolatos fenyegetés érzete is fokozta a választások körüli feszültséget és bizalmatlanságot cetas.turing.ac.uk cetas.turing.ac.uk. A veszélye egy súlyosabb incidensnek továbbra is fennáll, különösen a 2025-ös nagy tétű választások közeledtével. A demokratikus társadalmaknak tehát komoly biztonsági és integritási kockázatként kell kezelniük a deepfake-eket, egyszerre fellépve a hamis médiumok konkrét veszélye és az igazság általános eróziója ellen a választási térben.

Legutóbbi események: deepfake-ek zavarják meg a politikát

A való életből vett példák az elmúlt néhány évből jól mutatják, hogy a szintetikus média már most is fegyverként szolgál politikai környezetekben. Az alábbiakban áttekintünk néhány jelentős incidenst és esettanulmányt, ahol deepfake-ek és mesterséges intelligenciával generált félretájékoztatás befolyásolta a választásokat vagy a közbeszédet:

  • Ukrajna (2022. március) – „Megadás” videó: Az orosz-ukrán háború kezdeti napjaiban megjelent egy videó, amelyben úgy tűnt, mintha Volodimir Zelenszkij ukrán elnök felszólítaná katonáit a fegyverletételre és a megadásra. A videó deepfake volt, Zelenszkij képmásával és hangjával manipuláltak icct.nl. Árulkodó hibák (elmosódott szélek, eltérő nyakszín) árulták el, és az ukrán média gyorsan leleplezte a csalást. Ez az eset – az első ismert deepfake-felvétel fegyveres konfliktusban – előrevetítette, hogy a MI-alapú propaganda válsághelyzetekben is alkalmas lehet vezetők hiteltelenítésére icct.nl. Bár a hamis Zelenszkij-videó nem tudta megtörni az ukrán ellenállást, világossá tette: a rosszindulatú szereplők (jelen esetben orosz operátorok) szándékában és képességeiben is megvan a deepfake-ek információs hadviselés célú felhasználása.
  • Szlovákia (2023. szeptember) – Választási dezinformáció: Csak néhány nappal a szlovák parlamenti választások előtt deepfake hangfelvételek terjedtek el, amelyekben úgy tűnt, Michal Šimečka, a Progresszív Szlovákia párt vezetője bevallja a választási csalást, sőt azt is javasolja, hogy duplázzák meg a sör árát brennancenter.org. Néhány verziónál halványan, a felvétel végén jelezték ugyan, hogy azt MI generálta – ez azonban valószínűleg szándékos félrevezetésül szolgált brennancenter.org. Az időzítés stratégiai volt, hiszen közvetlenül a szavazás előtt történt. Šimečka nyugatbarát pártja szoros versenyben vesztett a Kreml-barát riválissal szemben, és egyes elemzők feltételezték, hogy a deepfake rágalomkampány befolyásolhatta a végeredményt brennancenter.org. Ez az eset rámutat, hogy belföldi vagy külföldi szereplők is képesek deepfake-ekkel befolyásolni szoros választásokat, és mennyire nehéz az utolsó pillanatban hamis narratívákkal szembeszállni.
  • Tajvan (2024. január) – Külföldi befolyásolási műveletek: Tajvan 2024-es elnökválasztása előtt megfigyelők kínai dezinformációs kampányt azonosítottak, amely deepfake-eket vetett be Lai Ching-te jelölt lejáratására. Hamis videók terjedtek a neten, melyekben úgy tűnt, mintha (a kormányzó, függetlenségpárti párthoz tartozó) Lai olyan nyilatkozatokat tett volna, melyekkel valójában az ellenzék programját támogatja policyoptions.irpp.org. Egy másik esetben MI által generált hanganyag adott hangot Lai-nak, amint saját pártját kritizálja policyoptions.irpp.org, így próbálták gyengíteni a támogatottságát. Ezeket a Kínához köthető szintetikus támadásokat azért indították, hogy befolyásolják a közvéleményt és zűrzavart keltsenek Tajvan demokráciájában policyoptions.irpp.org. Végül Lai megnyerte a választást, és elemzők szerint a kínai deepfake-kampány nem okozott jelentős változást az eredményben policyoptions.irpp.org. Ugyanakkor tankönyvi példát szolgáltatott arról, hogyan használ egy ellenséges külföldi hatalom MI-alapú propagandát egy demokratikus választás ellen policyoptions.irpp.org policyoptions.irpp.org. Emellett továbbra is aggályos, hogy egy szorosabb választásokon máshol ezek a taktikák nagyobb hatást érhetnek el.
  • Egyesült Államok (2024) – Deepfake-ek a kampányban: A 2024-es amerikai választási ciklusban robbanásszerűen megnőtt az MI-alapú politikai tartalmak száma, amelyek, bár nem döntötték el a választást, riasztó folyamatot jeleztek. 2024 elején New Hampshire állam választói zavarba ejtő robothívást kaptak: egy hang, amely Joe Biden elnökre hasonlított, arra kérte a demokratákat: „mentsék meg szavazatukat, ne szavazzanak ezen a választáson.” Sokak fülében hitelesen szólt, de az üzenet gyanús volt – Biden soha nem buzdítaná híveit arra, hogy ne adjanak le szavazatot. Valójában ez egy deepfake hangmásolat volt Bidenről, amelyet több ezer választónak küldtek ki nyílt szavazat-visszatartási szándékkal aljazeera.com aljazeera.com. A becslések szerint mintegy 5000 New Hampshire-i telefonszámra jutott el az eset, ami jól szemléltette, mennyire olcsón és egyszerűen lehet ilyen „piszkos trükköket” kivitelezni – a Biden-hang deepfake-et készítő tanácsadó szerint mindössze 20 percbe telt, és 1 dollár számítási költséget igényelt policyoptions.irpp.org policyoptions.irpp.org. Eközben a közösségi médiában MI-generált képek is hivatalos kampányanyagokban tűntek fel. Különösen szembetűnő volt, amikor Ron DeSantis floridai kormányzó csapata olyan támadó reklámot tett közzé, amelyen photoshopolt képeken Donald Trump öleli Anthony Faucit – sugallva, hogy Trump túlságosan baráti kapcsolatot ápol a jobboldalon népszerűtlen COVID-tanácsadóval. Mint utóbb kiderült, Trump és Fauci ölelkezésének képei MI-generált hamisítványok voltak, amelyeket maga a kampány illesztett a videóba brennancenter.org, amit leleplezés után széleskörű kritika követett. Egy másik esetben egy MI által előállított videó jelent meg az interneten, amelyen Biden elnök „elhúzódóan és érthetetlenül” beszélt a nemzethez, de ezt gyorsan megcáfolták. Néhány Bidenről és Kamala Harris alelnökről készült hamis videó több milliós megtekintést ért el a közösségi médiában cetas.turing.ac.uk, bemutatva, milyen gyorsan terjedhet az ilyen tartalom. Még a tech-óriások is beszálltak: Elon Musk hírhedten megosztott egy durván manipulált videót Harris alelnökről („szatíraként” megjelölve), amelyben ő értelmetlen zagyvaságokat mondott – eltüntetve a humor és az álhír közötti határvonalat cetas.turing.ac.uk cetas.turing.ac.uk. Bár egyik deepfake-ügy sem fordította meg a választás menetét, hamis narratívákat erősítettek meg (pl. Biden szellemi képességeiről vagy Trump lojalitásáról) és tovább mérgezték az információs környezetet. Az amerikai tisztviselők attól is tartanak, hogy deepfake-ek célba vehetik a választási infrastruktúrát – pl. hamis hangfelvétel, amelyben választási felügyelők utasítják a dolgozókat szabálytalan lépésekre aljazeera.com – bár 2024-ben ilyen nagy horderejű esetet nem hoztak nyilvánosságra.

Ezek a példák jól mutatják a fenyegetés globális jellegét. Deepfake-eket vetettek már be állami szereplők geopolitikai konfliktusokban, provokátorok hazai választásokon Európától Ázsiáig, illetve kampánystábok és hívek az Egyesült Államokban. Megjelentek hamis beszédek, képek, telefonhívások és videók – választók és választási tisztségviselők ellen egyaránt. Az eddigi esetekből néhány tanulság is levonható: sok deepfake-et gyorsan felismertek és lelepleztek (gyakran éber újságírók vagy tényellenőrök); több esetben pedig a deepfake-ek alkalmazása (például a DeSantis-féle reklám) visszaütött, és negatív sajtóvisszhangot szült az elkövetőknek. Ez azt mutatja, hogy az átláthatóság és a figyelem tompíthatja a kárt. Azonban a trend egyértelmű – ezek a szintetikus hamisítások egyre gyakoribbak, és egyre nehezebben különböztethetők meg a valóságtól. Minden választás új „elsőket” hoz (2024-ben például az első MI robot-hívásos szavazatbefolyásolás, első deepfake-kampányhirdetés stb.), és egyre nagyobb a kockázata egy komolyabb deepfake-esetnek, ahogy közeledünk 2025-höz.

Mélyhamisítások felismerése és ellensúlyozása: Eszközök és technológiák

Az választások védelmének egyik kritikus eleme a megbízható felismerési és mérséklési eszközök fejlesztése a mélyhamisítások ellen. Kutatók, technológiai cégek és kormányok versengenek olyan technológiák létrehozásáért, amelyek képesek felfedezni a mesterséges intelligencia által alkotott hamisítványokat, és hitelesítik a valós tartalmakat. Itt áttekintjük a mélyhamisítás-felismerés és kapcsolódó ellenintézkedések jelenlegi helyzetét:

  • Automatizált mélyhamisítás-felismerők: Az első védelmi vonal az MI elleni MI – algoritmusok, amelyeket médiaelemzésre és a manipuláció árulkodó jeleinek azonosítására képeznek ki. Ezek a felismerő rendszerek a generatív modellek által hagyott finom műtermékeket vagy következetlenségeket keresik. A korai mélyhamisítások például gyakran szabálytalan pislogást vagy tökéletlen szinkront mutattak a szájon. A mai felismerők mély neurális hálózatokat használnak arcokon belüli fény- és árnyékviszonyok, audiófrekvenciaminták vagy biológiai jelek (pl. pulzus videón) elemzésére, amelyeket az MI talán nem tud pontosan utánozni. Tech cégek belső eszközöket fejlesztettek – például a Microsoft 2020-ban kiadta a “Video Authenticator” eszközét, amely képkockánként képes volt hamis videókat jelölni. Az olyan platformok, mint a Facebook és az X (Twitter), kutatásba fektetnek, és néhány szűrőt már most alkalmaznak az ismert hamis médiára. Tudományos kezdeményezések és versenyek (például a Facebook Deepfake Detection Challenge és IEEE konferenciák) ösztönzik a fejlődést, startupok, mint a Sensity vagy a Reality Defender pedig kereskedelmi mélyhamisítás-felismerést kínálnak ügyfeleknek. Ez azonban igazi fegyverkezési verseny: ahogy a felismerés javul, a mélyhamisítás-készítők alkalmazkodnak, hogy egyre élethűbb, az automatizált ellenőrzéseket kijátszó hamisítványokat hozzanak létre. Egy 2023-as Meta-jelentés kiemelte, hogy a 2024-es választási ciklus során megjelölt összes dezinformációból “kevesebb mint 1%” volt bizonyítottan MI által generált tartalom weforum.org, ami arra utal, hogy vagy ritkák voltak a mélyhamisítások vagy sok észrevétlenül átcsúszott a szűrőkön.
  • Vízjelezés és tartalmi eredet igazolása: Egy másik stratégia, hogy az MI által generált tartalmakat már létrehozásukkor megjelöljük, így a végfelhasználók könnyen felismerhetik a szintetikus eredetet. Az EU ezt az irányt erőteljesen támogatja – az új EU MI Törvény kifejezetten előírja, hogy minden MI által generált vagy manipulált tartalmat egyértelműen fel kell címkézni vagy vízjelezni kell realitydefender.com. A vállalatoknak kötelező lesz digitális vízjelet vagy metaadatot beágyazni, amikor kép, videó vagy hanganyagot MI-vel hoznak létre. Elméletileg a böngészők vagy közösségimédia-oldalak automatikusan megjelölhetnék vagy szűrhetnék az ilyen tartalmakat. A vízjelezés ígéretes, főleg az alkalmi visszaélés visszaszorítására. Nagy MI-modell szolgáltatók (mint az OpenAI, Google stb.) már jelezték, hogy önkéntes vízjelezést vezethetnek be generált tartalmaikhoz. Emellett médiaszervezetek és tech cégek közös szabványt dolgoznak ki eredethitelesítési rendszerhez (pl. C2PA, Coalition for Content Provenance and Authenticity), amely kriptográfiailag naplózza a digitális média eredetét és szerkesztési előzményeit. Például egy sajtófotóhoz vagy kampányhirdetéshez biztonságos hitelességi tanúsítvány csatolható, így bárki ellenőrizheti, ki készítette, és módosították-e cetas.turing.ac.uk. Az USA is ebbe az irányba halad; a Fehér Ház utasította a szövetségi hivatalokat, hogy 2025-ig minden általuk gyártott digitális tartalomba alapértelmezetten építsenek be eredet-hitelesítési metainformációt cetas.turing.ac.uk. Ha ezeket széles körben bevezetik, sokkal nehezebb lesz a hamis tartalmaknak valódinak tűnniük.
  • Címkék korlátai: Bár az átláthatósági eszközök fontosak, nem tévedhetetlenek. Kitartó támadók el tudják távolítani vagy módosítani a vízjeleket. A kutatók már feltártak módszereket az MI-vízjelek eltüntetésére vagy elrejtésére realitydefender.com, és természetesen egy saját generatív modellel dolgozó káros szereplő dönthet úgy, hogy egyáltalán nem helyez el semmilyen jelölést. Az eredetmetadaták csak akkor segítenek, ha széles körben alkalmazzák őket, és a fogyasztók valóban ellenőrzik is. Egy hamisító alkalmazhat “eredetlehívó trükköt” – egy eredeti fotóra vagy videóra hamis elemeket helyez, így a végleges fájl megőrzi az eredeti digitális aláírását. Ezek a kihívások azt jelentik, hogy nem támaszkodhatunk kizárólag a tartalomcímkékre. Egy MI-biztonsági cég úgy fogalmazott: a vízjel- és eredetmegoldások csak akkor működnek, ha a tartalomkészítők együttműködnek kimenetük címkézésénél – ez azonban nem állítja meg az elkötelezett rosszindulatú szereplőket realitydefender.com. Ezért a tartalomelemzésen alapuló, következtetéses felismerés (maga a tartalom elemzése MI-manipuláció jeleire) továbbra is elengedhetetlen realitydefender.com. A leghatásosabb védelem valószínűleg mindkét megközelítés ötvözésével születik meg: robusztus automatizált szűrők keresik a hamisítványokat, hitelesítő rendszerek igazolják a legális médiát.
  • Valós idejű felismerés videó/ hangsugárzásban: Egyre sürgetőbb az olyan eszközök fejlesztése, amelyek élő közvetítésben is képesek a mélyhamisításokat felismerni. Gondoljunk egy hipotetikus esetre, amikor egy csaló “élőben” hív egy jelöltet vagy tisztségviselőt – ahogy 2023-ban is történt, amikor hongkongi bűnözők egy cégvezető hasonmását hamisították Zoom-on, hogy 25 millió dolláros csalást engedélyezzenek weforum.org. Ebben az esetben a híváson résztvevő több személy – köztük hamisított pénzügyi igazgató – mind MI által generált volt. Az élő hamisítások azonosítása rendkívül kihívást jelent. Cégek dolgoznak olyan videokonferencia-bővítményeken, amelyek figyelmeztethetnek, ha egy kép vagy hang szintetikus módosítás jeleit viseli magán (például hang késleltetés, spektrális eltérés elemzése vagy az arcmimika és a kamera által rögzített arcmozgás egyeztetése). Néhány startup valós idejű mélyhamisítás-felismerő API-kat kínál, amelyeket streaming-platformokba vagy akár élő események hangszóróinak hitelesítéséhez is lehet integrálni. Jelenleg azonban a valós idejű felismerés még mindig le van maradva a támadókhoz képest, ezért hangsúly a megelőző intézkedéseken van (például jelszavak vagy megosztott “kódszavak” használata telefonos azonosításnál, ahogy a rendőrség javasolja weforum.org).
  • Emberi tényellenőrzés és közösségi megjelölések: A technológia önmagában nem jelent mindenre megoldást. Az éber emberi réteg továbbra is kulcsfontosságú. Hírügynökségek, tényellenőrző csoportok és platformok speciális csapatokat hoztak létre a választási időszakban felkapott mélyhamisítások figyelésére. Ezek a csapatok OSINT (open source intelligence) technológiákkal és igazságügyi eszközökkel elemzik a gyanús médiát – például az időbélyegeket ellenőrzik, ellentmondásokat keresnek (mint egy politikus fülbevalóinak eltérése egy videón, vagy furcsa ajakmozgás), és gyorsan publikálják a leleplezéseket. A közösségi részvétel is segít: az X/Twitter “Community Notes” funkciója például lehetővé tette az MI által generált képeket vagy videókat tartalmazó posztok megjelölését magyarázó kontextussal. A közelmúlt választásain a felhasználók gyakran órák alatt lebuktatták a mélyhamisításokat oldalról-oldalra tett összehasonlításokkal vagy hibákra hívva fel a figyelmet. Az ilyen kollektív éberség, amelyet digitális műveltség támogat, nagyon hatékony eszköz. A platformok egyre inkább támaszkodnak a felhasználókra és független tényellenőrzőkre, tekintettel az automata szűrők hatalmas mennyiségű vizsgálandó anyagára. Hátrány, hogy egy mélyhamisítás már azelőtt elterjedhet, hogy cáfolnák. Mindazonáltal, a gyorsabb reagálás és szélesebb tudatosság (hogy minél többen maguk is felismerjék a hamisítást) csökkentheti a károkat.

Összefoglalva, a mélyhamisítás-felismerés aktív és gyorsan fejlődő terület. Történtek előrelépések – például a mai felismerők lényegesen jobbak, mint 2018-ban, és olyan kezdeményezések, mint a Content Authenticity Initiative a hitelesítés szabványosításán dolgoznak. De továbbra is kihívást jelent a “macska-egér játék” a rosszindulatú szereplőkkel, és az eszközök széles körű elfogadottságának a szükségessége. A következő években várhatóan egyre több felismerési technológia épül majd be a közösségi média platformokba, hírfolyamokba és akár készülékekbe is (képzeljünk el egy okostelefont, amely figyelmeztet, ha a bejövő videó valószínűleg MI által generált). Lényeges, hogy a felismerő és eredet-hitelesítő eszközöknek nyilvános edukációval kell együtt járniuk, hogy amikor megjelenik egy riasztás vagy címke, a felhasználók értsék és aszerint cselekedjenek. Ez a technológiai pillér csak egy része egy átfogóbb stratégiának, amely a szintetikus médiával szembeni fenyegetések kezeléséhez szükséges.

Politikai válaszok és szabályozási keretek

A világ törvényhozói felismerték a mélyhamisítás jelentette veszélyt, és megkezdték a jogszabályok és szabályozások kialakítását. Bár a probléma újkeletű, a jelentősebb demokráciákban már kialakulóban van egyfajta szabályozói mozaik. Az alábbiakban áttekintést adunk a folyamatban lévő törvényhozási és szabályozási erőfeszítésekről:

  • Egyesült Államok: Az USA-ban jelenleg nincs országos szintű szövetségi törvény a politikai mélyhamisítások ellen, de egyre nagyobb a lendület a joghézag betömködésére. Több törvényjavaslatot is beterjesztettek a Kongresszusban a rosszindulatú mélyhamisítások visszaszorítására. Például 2024 elején a törvényhozók benyújtották a No AI FRAUD Act-et (No AI FRAUD Törvényt), válaszul nagy port kavart incindensekre (mint MI által generált hírességi meztelen képek) policyoptions.irpp.org. Ez a törvényjavaslat szövetségi keretet hozna létre, amely kriminalizálja az MI káros használatát, például a csalárd politikai mélyhamisításokat vagy megtévesztő pornográf hamisítványokat policyoptions.irpp.org. További ötlet a választási hirdetésekben kötelezően előírni az MI által generált tartalom feltüntetését (tehát hogy a kampányoknak egyértelműen jelezniük kell, ha szintetikus média szerepel egy reklámban). Eközben a Szövetségi Kommunikációs Bizottság (FCC) konkrét lépést tett, amikor betiltotta az MI által generált hangklónokat telefonos hívásokban, ha azok csalásra vagy más károkozásra irányulnak policyoptions.irpp.org. Minderre azok a csalások adtak okot, ahol csalók valódi személyek hangját utánozták. Az ügynökség lépése illegálissá teszi telefonszolgáltatóknak vagy politikai kampányoknak a mesterséges hangüzenetek félrevezető használatát. Az USA-ban sok szabályozás állami szinten jelenik meg. 2019 óta olyan államok, mint Kalifornia, Texas stb. fogadtak el törvényeket választási mélyhamisítások ellen. Kalifornia tiltja jelentősen megtévesztő mélyhamisításos videók terjesztését a választás előtt 60 nappal (szatíra/paródia kivételével) brennancenter.org. Texasban büntetőjogi kategóriává minősítették a választó vagy jelölt ellen használt mélyhamisításos videók létrehozását vagy terjesztését brennancenter.org. 2025 közepére legalább tizennégy amerikai állam fogadott el vagy tárgyal mélyhamisításokra vonatkozó szabályozást választási összefüggésben citizen.org. Ezek jellemzően pártoktól független támogatottságot élveznek – mindkét oldal törvényhozói egyetértenek abban, hogy az MI által manipulált választási dezinformáció fenyegetést jelent a demokráciára citizen.org citizen.org. Az egyes államok eltérő megközelítést alkalmaznak: van, ahol büntetőjogi szankciókat írnak elő azoknak, akik politikust sértő hamisítványt tesznek közzé, máshol inkább figyelmeztető címke elhelyezését írják elő kampányhirdetésekhez. Emellett a Public Citizen civil szervezet petíciót nyújtott be a Szövetségi Választási Bizottsághoz, sürgetve az FEC-t, hogy tiltsa be szövetségi választásokon a félrevezető mélyhamisítások terjesztését jelöltek által brennancenter.org. Bár az FEC még nem hozott új szabályokat, a téma napirenden van. Az amerikai törvényhozóknak figyelemmel kell lenniük a szólásszabadságra is – a túl általános tiltások ütközhetnek az első alkotmánymódosítással. Például a szatíra és paródia (ami védett politikai vélemény) gyakran hamisított képet, videót is tartalmaz, ezért a törvényeknek kizárólag a rosszindulatú megtévesztést kell célozniuk. Ezt tükrözi sok állami törvény is, ahol külön kivételt biztosítanak szatírára, paródiára vagy újságírói felhasználásra brennancenter.org brennancenter.org. Az általános konszenzus azonban az, hogy az olyan mesterségesen előállított hamis tartalom, amely szándékosan megtévesztené a szavazókat vagy zavart keltene, nem része a demokratikus nyilvánosságnak, ezért az ilyen gyakorlatok korlátozhatók anélkül, hogy az a szólásszabadságot ne sértené brennancenter.org brennancenter.org.
  • Európai Unió: Az EU gyors ütemben halad átfogó MI-szabályozás irányába, beleértve a mélyhamisításokhoz közvetlenül kapcsolódó intézkedéseket is. A mérföldkőnek számító EU MI Törvény, melyben 2024-ben állapodtak meg (teljes hatályba lépés 2026-tól, egyes részek korábban), átláthatósági követelményt ír elő a szintetikus médiára. Az MI Törvény szerint minden olyan MI-rendszernek, amely “mélyhamisítás” tartalmat generálhat, biztosítania kell a kimenet egyértelmű megjelölését MI által készítettként (kivéve néhány mentesített területet, mint művészet vagy biztonsági kutatás) realitydefender.com. Ez a gyakorlatban azt jelenti, hogy az EU-ban generatív képet vagy videót készítő fejlesztőknek kötelező lesz beépíteniük vízjelet vagy metaadatot a szintetikus tartalom megjelölésére. Ennek elmulasztása súlyos bírsággal járhat. Az EU frissített Dezinformációs Magatartási Kódexe (önkéntes kódex, amelyhez nagyobb online platformok is csatlakoztak) kifejezetten megemlíti a mélyhamisításokat, és arra kötelezi a platformokat, hogy dolgozzanak ki “politikákat, intézkedéseket és eszközöket a manipulált tartalom kezelésére” brennancenter.org brennancenter.org. Például azt vállalták a platformok, hogy rendszereket vezetnek be mélyhamisított videók felismerésére, megjelölésére vagy eltávolítására, ha azok jelentős közveszélyt okoznak, illetve együttműködnek tényellenőrzőkkel a hamis MI-tartalmak gyors cáfolatára. A Digitális Szolgáltatások Törvénye (DSA) – amely 2023-ban lépett hatályba – kötelezi az EU-ban nagy online platformokat, hogy mérjék és mérsékeljék a “rendszerszintű kockázatokat”, ideértve az MI által generált dezinformáció terjedését. Ez a szigorú szabályozás arra késztette a Metát, Google-t, TikTokot és másokat, hogy újabb védelmi intézkedéseket, felismerő rendszereket, illetve hangsúlyosabb szintetikus tartalom-megjelöléseket vezessenek be a 2024–2025-ös választási szezonra. Összességében Európa átláthatóságot helyező szabályozási hozzáállást képvisel: MI-kimenetek címkézése, a platformok felelősségének növelése a mélyhamisításalapú dezinformáció visszaszorításában. A kritikusok szerint a végrehajtás (az összes meg nem jelölt hamisítás kiszűrése az online özönben) nehéz lesz, de az EU jelezte: a korlátozás nélküli mélyhamisítások elfogadhatatlanok és nem összeegyeztethetőek a digitális irányítási normákkal realitydefender.com realitydefender.com.
  • Egyesült Királyság: Az Egyesült Királyság még nem fogadott el kifejezetten választási mélyhamisítás-ellenes törvényt, de szélesebb online biztonsági és MI-intézkedéseken keresztül közelít a kérdéshez. 2023-ban életbe lépett az Online Safety Act (Online Biztonsági Törvény), amely az ártalmas online tartalom szabályozását célozza. Ez a törvény kiemelten bűncselekménnyé nyilvánította a beleegyezés nélküli mélyhamisított pornográfia terjesztését – vagyis illegális lett mások szándéka ellenére explicit szintetikus képet gyártani vagy megosztani policyoptions.irpp.org. Ez a mélyhamisítások zaklatási oldalát kezelte. A választási dezinformációk ügyében a törvény felhatalmazta az Ofcomot (kommunikációs hatóságot), hogy útmutatást dolgozzon ki dezinformáció ügyében. Szakértők sürgetik az Ofcomot, hogy alkosson kódexet a dezinformáció kezelésére, amely az MI-manipulált tartalmak kezelésére vonatkozó szabványokat is tartalmazna cetas.turing.ac.uk. Egy ilyen kódex, akár az EU-modellhez igazodva, ösztönözhetné a platformokat és politikai szereplőket az Egyesült Királyságban, hogy tartózkodjanak a mélyhamisítások terjesztésétől, és egyértelműen jelöljék a szintetikus médiát. Felszólítások hangzottak el arra is, hogy a brit választási bizottság adjon ki útmutatót a politikai pártoknak az MI felelősségteljes használatáról, kijelölve a vörös vonalakat a kampány-hamisításokban cetas.turing.ac.uk. 2024 végén egy többpárti képviselői bizottság a választási törvények szigorítását javasolta a mélyhamisításos dezinformációk szankcionálására, de hivatalos törvényt még nem terjesztettek elő. A kormány vizsgálja, vajon a meglévő törvények (rágalmazás, csalás, választási bűncselekmények) elegendőek-e a káros mélyhamisítások üldözésére, vagy új szabályozásra van szükség cetas.turing.ac.uk. Az Egyesült Királyság létrehozott egy MI-biztonsági intézetet is, és 2023-ban globális MI-biztonsági csúcstalálkozót szervezett, ahol a dezinformáció manipulálása is napirenden volt. A brit hatóságok főként technikai védekezésre és médiatudatosságra koncentrálnak (lásd lejjebb ajánlások), nem csak jogi tiltásokra. Ugyanakkor a “deepfake pornó” betiltása és a szabályozó felhatalmazása, hogy fellépjen, máris mutatja, hogy az MI-alapú hamis tartalom kormányzati választ igényel.
  • Kanada: 2024-ben Kanadában nincs kifejezetten választási mélyhamisítás elleni törvény. A Canada Elections Act (Választási Törvény) nem tiltja külön az MI által előállított dezinformációt, a mélyhamisításokat jogilag általánosabb szabályok szerint kellene üldözni (mint csalás vagy személyiséglopás), amelyek nem feltétlenül alkalmasak e problémára cef-cce.ca. Szakértők külön kiemelték ezt a szabályozási rést, mondván, Kanada “lépéshátrányban van” más demokráciákhoz képest policyoptions.irpp.org. 2023 őszén egy kisebb incidens történt, amikor egy hamisított audiófelvétel keltett feltűnést, amelyen egy politikus hangját utánozták. Bár ez nagy hatást nem gyakorolt, felhívta a figyelmet a problémára. Azóta a Elections Canada (választási hatóság) beazonosította az MI dezinformációt, mint egyre jelentősebb fenyegetést, és vizsgálja a lehetséges válaszokat cef-cce.ca. Politikai elemzők már tegnapra is későnek tartják az új törvényt – például, hogy a választási biztos kapjon jogkört a szintetikus médiával kapcsolatos csalások üldözésére policyoptions.irpp.org. Kanada meríthetne ötleteket a szövetségesektől: például bevezetni a kötelező jelölést az MI által generált választási reklámokra, vagy bűncselekménnyé nyilvánítani a szándékosan félrevezető mélyhamisításokat. 2025 közepéig nem került elő ilyen javaslat, de egyre nagyobb a nyomás, hogy Kanada is csatlakozzon a mélyhamisításokat törvénnyel szabályozó demokráciákhoz policyoptions.irpp.org.
  • Egyéb demokráciák: Világszerte további demokráciák is intézkednek:
    • Ausztrália: Az ausztrál kormány, aggodalmát fejezvén ki az MI okozta “igazságroncsolás” miatt a következő választások előtt, “igazság a politikai hirdetésekben” törvénytervezetet harangozott be, amely betiltaná a csalárd választási mélyhamisítású videókat és hanganyagokat innovationaus.com. Az Albanese-kormány által 2023-ban előterjesztett javaslat tiltja a választási időszakban minden olyan szintetikus médiát, amely megszemélyesíti a valódi jelölteket, vagy félrevezetheti a választókat innovationaus.com. A törvényhozási folyamat azonban lassú – előrejelzések szerint ezek a szabályok csak 2026-ban léphetnek életbe innovationaus.com, így a 2025-ös választás még ezek nélkül zajlik. Addig is az ausztrál választási bizottság útmutatót adott ki, és hangsúlyozta: a mélyhamisítások túlzott hangsúlyozása akár a valós információba vetett bizalmat is ronthatja ia.acs.org.au. Ausztrál politikusok pártfüggetlenül támogatják az MI-alapú dezinformáció visszaszorítását, de élénk vita zajlik arról, miként egyeztethető ez a szabad politikai véleménynyilvánítással theguardian.com sbs.com.au.
    • Tajvan: Miután tapasztalt kínai mélyhamisításos beavatkozást, Tajvan módosította választási törvényeit. 2023-ban a szigetországi parlament módosította a választási törvényt, amely kifejezetten tiltja a manipulált hang- vagy videófelvétel megosztását jelöltről, ha azzal szándékosan befolyásolnák az eredményt policyoptions.irpp.org. Ez egyértelmű jogi eszközt adott a 2024-es mélyhamisításos rágalmak üldözéséhez. Tajvan komoly összeget fordított nyilvános edukációra és gyorsreagálású rendszerre (állami, civil és technológia platformok együttműködésével) a hamis információk gyors cáfolására, ami érezhetően mérsékelte a károkat policyoptions.irpp.org policyoptions.irpp.org.
    • Európai demokráciák: Egyes EU-s országok, az uniós szabályozáson túl, meglévő törvényekkel kezdtek fellépni a mélyhamisítások ellen. Franciaország például 2018-ban fogadott el törvényt “hamis információkról” választás idején, amely alkalmazható mélyhamisított videók terjesztésére is; Németország szigorú rágalmazási és választási törvényei szintén alkalmasak lehetnek. Ugyanakkor újabb javaslatok is felmerülnek: Németországban felvetették, hogy kötelezni kellene a pártokat a szintetikus média bevallására a kampányanyagokban. Az Egyesült Királyságban, mint fentebb, jövőbeni módosítások vethetnek ki kötelező címkézést digitális kampányhirdetésekre cetas.turing.ac.uk.
    • Nemzetközi kezdeményezések: Egyre világosabb, hogy globális együttműködés szükséges, mivel a dezinformáció országhatárokat nem ismer. A G7 “AI irányítás” munkacsoportja 2024-ben nyilatkozatot adott ki a mesterséges intelligencia információs térben történő rosszindulatú felhasználása ellen. Az amerikai kormány önkéntes vállalást szerzett nagy MI-fejlesztőktől (OpenAI, Google, Meta stb.), hogy vízjelezik MI-tartalmaikat és fektetnek a visszaélés-megelőzésbe. Bár ezek nem kötelezőek, egyre inkább kialakulóban van egy nemzetközi norma az átláthatóságra és felelősségre az MI-használatban.

Összefoglalva, a politika válaszai a mélyhamisításokra gyorsulnak. A jogalkotás még próbálja utolérni a technológiát, de az irány világos: a kormányzatok egyre inkább bűncselekménnyé nyilvánítják a legkárosabb szintetikus média-használatot a választásokon, átláthatóságot írnak elő (címkék, nyilatkozatok) az MI által generált tartalomra, és felhatalmazzák a szabályozókat vagy választási szerveket a digitális hamisítások elleni fellépésre. Ugyanakkor védeniük kell a legális véleménynyilvánítást, mint a szatíra, és el kell kerülniük a túl szigorú szabályokat, amelyekkel vissza lehetne élni a cenzúra érdekében. Ennek az egyensúlynak a megtalálása nem egyszerű. A 2025-ös év, az amerikai állami törvényektől az EU-s rendeletekig, gyakorlatban is teszteli majd ezeket a válaszokat. Minden bizonnyal tovább fogják finomítani a szabályozó eszköztárat, ahogyan többet tanulunk arról, mi működik valóban. De a teljes tétlenség nem opció: ahogy egy szabályozói összefoglaló írta, “szabályozás nélkül a mélyhamisítások tovább zavarják majd a választókat, és aláássák a választásokba vetett bizalmat.” citizen.org citizen.org A következő rész stratégiai ajánlásokat fogalmaz meg, amelyek minden demokratikus szereplőnek szólnak.

Stratégiai ajánlások a választások védelmére

A választások integritásának védelme a mesterséges intelligencia korszakában többirányú stratégiát igényel. Egyetlen eszköz vagy törvény sem oldhatja meg a deepfake-problémát; ehelyett összehangolt erőfeszítésre van szükség a kormányok, technológiai platformok, média és a civil társadalom részéről. Az alábbiakban stratégiai ajánlásokat mutatunk be e szektorok számára, hogy csökkentsék a kockázatokat, és biztosítsák, hogy a választók megalapozott döntéseket hozhassanak 2025-ben és azután:

Kormányok és döntéshozók

1. Jogi védelem és elrettentés erősítése: A kormányoknak olyan törvényeket kell bevezetniük vagy frissíteniük, amelyek kifejezetten megtiltják a szintetikus média rosszindulatú felhasználását a választások során. Ez magában foglalja annak törvényessé tételét, hogy bárki, aki a közvélemény megtévesztésének vagy a választás szabotálásának szándékával készít vagy terjeszt deepfake-et, amely hamisan ábrázol egy jelöltet vagy manipulál választással kapcsolatos információkat (például szavazási eljárások). Fontos a szűk körű szabályozás – a törvényeknek a szándékos megtévesztést (dezinformációt) kell célozniuk, egyértelmű kivételekkel a szatíra, paródia vagy nyilvánvaló művészi kifejezés számára. Büntetések (pénzbírság vagy büntetőjogi felelősségre vonás) szükségesek az elkövetők elrettentésére, különösen, ha azokat gyorsan alkalmazzák. Példaként az Ausztráliában javasolt kampányidőszak alatti megtévesztő deepfake-tilalom és Tajvan új, a MI által manipulált választási tartalomra vonatkozó szabályai mintaként szolgálhatnak innovationaus.com policyoptions.irpp.org. Az Egyesült Államokban egy szövetségi lépés (mint a tervezett No AI FRAUD Act) országos alapot teremthetne, kiegészítve a tagállami törvényeket. Emellett a kormányoknak felül kell vizsgálniuk a kampányfinanszírozási és reklámszabályokat: minden olyan politikai reklám (online vagy sugárzott), amely szintetikus médiát tartalmaz, kapjon egyértelmű figyelmeztetést (pl. „E kép/videó MI által generált”), így a nézők nem lesznek félrevezetve. Az igazmondási követelmények a kampányok során ki kell, hogy terjedjenek az MI-tartalomra is.

2. Választási incidenskezelési protokollok bevezetése: A választási hatóságoknak hivatalos protokollokat kell kidolgozniuk a súlyos deepfake-esetek valós idejű kezelésére. Jó példa erre Kanada Kritikus Választási Esemény Protokollja, amely magas rangú tisztviselőket von össze a külföldi beavatkozás vagy dezinformáció fenyegetésének értékelésére és a nyilvánosság tájékoztatására a választás során cetas.turing.ac.uk cetas.turing.ac.uk. Más demokráciáknak is hasonló mechanizmusokat kellene alkalmazniuk. Ha megjelenik egy veszélyes deepfake (például egy hamisított videó, ahol egy jelölt vereséget ismer el választási napon), a protokollt aktiválják: a tisztviselők, hírszerzési szakértők és tech platformok gyorsan ellenőrzik a valóságot, és nyilvános bejelentést tesznek a hamis információ megcáfolásáról és a tények tisztázásáról cetas.turing.ac.uk. Ez a gyors helyreigazítás kulcsfontosságú a „tűzoltó slag” típusú dezinformáció hatásának tompításában. A kormányoknak előre be kell gyakorolniuk ezeket a lépéseket (különböző deepfake-forgatókönyveket szimulálva), hogy szükség esetén gyorsan és egységesen tudjanak reagálni.

3. Beruházás felismerési és hitelesítési infrastruktúrába: A közszféra ügynökségeinek forrásokat kell fordítaniuk a deepfake-ek felismerésének és tartalomhitelesítésének fejlesztésére. Ez magában foglalja a K+F támogatását (például a DARPA-hoz hasonló programokat, amelyek az MI által közvetített félretájékoztatásra koncentrálnak), felismerő eszközök bevezetését a választások során, illetve hitelesítési szabványok alkalmazását a kormányzati kommunikációban. Konkrét lépés, hogy a kormányzati média (állami műsorszolgáltatók, hivatalos közösségi fiókok stb.) minden hivatalosan kiadott fotóhoz, videóhoz, hanghoz bizonyítható eredetmetainformációkat kezdjen hozzáadni cetas.turing.ac.uk. Így egy „hitelesített, valódi” információs alap jön létre. A választók és újságírók akkor megbízhatnak abban, hogy minden, kormányzati pecséttel ellátott metaadatú videó eredeti – míg a hasonló, ilyen hitelesítés nélküli felvételekkel szemben szkeptikusabbak lesznek. A kormányok példát mutathatnak ebben a „hitelesség-tervezési alapon” megközelítésben cetas.turing.ac.uk, amit az USA és az Egyesült Királyság már vizsgál. Továbbá a rendőrség és a választási ellenőrző szervek számára igazságügyi elemző egységeket kell létrehozni a gyanús médiatartalmak vizsgálatához a kampányidőszakban. Annak tudata, hogy a hatóságok képesek a deepfake-ek technikai nyomozására (és akár az elkövetők azonosítására), szintén elrettentő hatású lesz.

4. A meglévő törvények egyértelművé és korszerűvé tétele: Sok országban előfordulhat, hogy a csalásra, személyazonosság-lopásra, rágalmazásra vagy választási beavatkozásra vonatkozó jelenlegi jogszabályok egy része alkalmazható bizonyos deepfake-esetekre – de lehetnek hiányosságok. A kormányoknak felül kell vizsgálniuk a jogrendszerüket, szükség van-e új kategóriák bevezetésére. Például: van-e szabályozás AI által létrehozott közszereplői megszemélyesítésre? Ha nincs, vezessék be. Gondoskodjanak róla, hogy az adatvédelmi törvények is tartalmazzák más képmásának/hangjának engedély nélküli MI-használatát mint jogsértést. A káros deepfake-ek jogi státuszának tisztázása (és erről a nyilvánosság tájékoztatása) fontos, hogy az esetleges elkövetők tudják: felelősségre vonhatók. Ez a célponttá váló áldozatok (jelöltek vagy magánszemélyek) számára is lehetőséget ad jogorvoslatra. E felülvizsgálatnak ki kellene terjednie a választási törvényekre is: a törvénytelen választási hirdetés vagy szavazással kapcsolatos félretájékoztatás fogalmainak frissítése a szintetikus médiamanipuláció egyértelmű bevonásával cetas.turing.ac.uk. A cél, hogy megszűnjön a jogi kétértelműség – ne lehessen azzal védekezni, hogy „technikailag nem szabályellenes, mert MI”. Ha a törvények világosak, az egyszerűsíti a betartatást és az eljárást.

5. Nemzetközi együttműködés erősítése: Mivel a dezinformációs kampányok gyakran külföldről indulnak vagy határokon átnyúlnak, a demokratikus kormányoknak össze kell fogniuk ez ügyben. A hírszerző és kiberbiztonsági egységeknek meg kell osztaniuk egymással a feltárt új deepfake-taktikákat (például, ha egy ország külföldi deepfake-műveletet észlel, figyelmeztesse a többieket). Az olyan fórumok, mint az Alliance for Securing Democracy, a G7, EU-USA párbeszédek és mások koordinálhatják a közös nyilatkozatokat és normákat a választási deepfake-kel szemben. Diplomáciai nyomást lehet gyakorolni azokra az államokra, akik támogatják vagy eltűrik az ilyen beavatkozást. Együttműködési kutatásra is van lehetőség – például egy nemzetközi deepfake-felismerő központ adatokat gyűjthetne algoritmusok fejlesztéséhez. Választási megfigyelő szervezetek (mint az EBESZ vagy nemzetközi megfigyelő missziók) módszertanukba beépíthetik a szintetikus média befolyásának vizsgálatát, és az országok a demokratikus folyamatok védelmére irányuló kölcsönös védelmi egyezményeikbe is beépíthetik a deepfake-szcenáriók kezelését. Az egységes fellépés megnehezíti a rosszindulatú szereplők számára, hogy egyetlen ország gyenge pontjait kihasználják.

6. Nyilvánosság tájékoztatása és digitális írástudás erősítése: Végső soron a kormányok szerepe a választók oktatása a deepfake-ekről. Számos ország mostanában vezeti be vagy fontolgatja digitális írástudási programok indítását iskolákban és általános lakosság számára cetas.turing.ac.uk. Ezek a programok megtanítják, hogyan lehet ellenőrizni az online információkat, felismerni a manipulált média jeleit, és kritikusan szemlélni a forrásokat. Mivel az MI-alapú hamisítványok megtévesztőek lettek, elengedhetetlen, hogy minden választó tudja: ilyenek léteznek, és képes legyen kétszer is ellenőrizni a meghökkentő tartalmakat (ahelyett, hogy gondolkodás nélkül elhinné vagy továbbosztaná). Kormányoknak együtt kell működniük oktatási intézményekkel és civil szervezetekkel, hogy a deepfake-ismeretek bekerüljenek az oktatásba és a lakossági kampányokba is. Például közszolgálati reklámokat futtatni, ahol egymás mellett mutatnak valódi és deepfake-klipet egy politikusról, és magyarázzák a különbséget, növelheti a tudatosságot. Kutatások szerint a magasabb médiaműveltséggel és kritikus gondolkodási készségekkel rendelkező egyének sokkal jobbak a deepfake-ek felismerésében és a dezinformációval szembeni ellenállásban cetas.turing.ac.uk. Ezért a médiaműveltségi kezdeményezések finanszírozása az egyik leghatékonyabb hosszú távú védekezés. Ha a nyilvánosság is „aktív szenzorrá” válik – felismeri és jelenti a hamisítványokat –, a deepfake-propaganda hatása jelentősen csökkenthető.

Technológiai platformok és MI-fejlesztők

1. Platformszabályok és végrehajtás megerősítése: A közösségi média és online platformok a virális deepfake-ek fő terjesztőcsatornái. Ezeknek a cégeknek szigorú szabályokat kell alkalmazniuk a felhasználókat megtévesztő manipulált médiával szemben, különösen a választások környezetében. Több platform már elindult ezen az úton: például a Facebook és a Twitter (X) szabályzatot fogadott el a „manipulált média” eltávolítására vagy címkézésére, ha az kárt okozhat. De a végrehajtásnak szilárdnak kell lennie. A platformoknak fejleszteniük kell a deepfake-ek automatizált felismerését (a legmodernebb eszközökkel, ahogy korábban szó volt róla), és biztosítaniuk kell, hogy a felhasználók által jelentett gyanús tartalmakat gyorsan megvizsgálják az emberi moderátorok. Választási időszakban a cégek külön háborús szobákat és együttműködési csatornákat alakíthatnak ki a választási bizottságokkal, hogy valós időben kezeljék a lehetséges deepfake-incidenseket. Ha egy hamisítványt azonosítanak, a platformoknak hamisnak címkézniük kell vagy gyorsan el kell azt távolítaniuk, és visszasorolniuk kell az algoritmusban a további terjedés visszafogása érdekében brennancenter.org brennancenter.org. Az átláthatóság is kulcsfontosságú: a platformok rendszeresen jelentést tehetnek a detektált deepfake-ekről és az alkalmazott intézkedésekről – ez növeli a közbizalmat. Emellett megoszthatnak mintákat a detektált deepfake-ekből a kutatókkal, hogy közösen fejlődhessen a szaktudás.

2. Deepfake Tartalom Megjelölése és Nyomon Követése: Az EU példáját követve, globálisan minden platformon kötelezővé kellene tenni, hogy az AI által generált tartalmakat megjelöljék és nyilvánosságra hozzák. Például, ha egy politikai hirdetéshez AI által létrehozott kép vagy hang van feltöltve, a platform megkövetelhetné a feltöltőtől, hogy jelölje be: „ez a tartalom szintetikus elemeket tartalmaz” – a nézőknek pedig megjelenne egy figyelmeztetés („Ez a videó mesterségesen módosítva lett vagy részben AI által generált”). Még a nem hivatalos hirdetéseken kívül is használhatnak észlelő eszközöket a platformok, hogy vizuálisan megjelöljék a gyanús deepfake videókat (például egy figyelmeztető átfedéssel, hogy a videó hitelessége nem ellenőrzött). Emellett a közösségi oldalak és üzenetküldő szolgáltatások integrálhatnak tartalom-hitelességi funkciókat: C2PA-szerű szabványokkal ikont jeleníthetnek meg, ha egy kép forrása és szerkesztési előzménye ellenőrzött, illetve megjelölhetik, ha ezek az adatok hiányoznak. Néhány technológiai vállalat (Adobe, Microsoft, Twitter) már részt vesz ilyen kezdeményezésekben. Ha a platformok a kezelőfelületeikbe beépítik az eredetiségjelzéseket, segíthetik a felhasználókat a valódi és hamis tartalmak megkülönböztetésében. Továbbá dolgozniuk kell visszakeresési mechanizmusokon is – például ha egy káros deepfake terjed, képesek legyenek kideríteni, hogy ki töltötte fel eredetileg, még akkor is, ha ezerszer újraosztották már? Együttműködés a bűnüldöző szervekkel nagyobb incidensek esetén (a magánélet védelmének tiszteletben tartásával) elengedhetetlen az elkövetők elkapásához.

3. Rosszindulatú Deepfake Felhasználók és Hálózatok Kitiltása: A platformoknak ébernek kell lenniük a szervezett szereplőkkel szemben, akik ismételten deepfake-eket alkalmaznak. Ez nem csak az egyes tartalmak eltávolítását jelenti, hanem azokat a fiókokat, oldalakat vagy botokat is le kell tiltani, amelyek összehangolt deepfake kampányokban vesznek részt. Ha bizonyítható, hogy egy művelet államilag támogatott vagy egy ismert trollfarmhoz kapcsolódik, a platformoknak ezt nyilvánosságra kell hozniuk, és el kell távolítaniuk őket. Az elmúlt években számos dezinformációs hálózatot szüntettek már meg; ugyanez a kemény fellépés szükséges az AI-alapú befolyásolási műveletek ellen is. A platformoknak frissíteniük kell felhasználási feltételeiket, hogy kifejezetten tiltsák a másokat félrevezető, rosszindulatú szintetikus médiák létrehozását vagy megosztását. Ezek a szabályok alapul szolgálnak a szabálysértők kitiltásához. Politikai hirdetések esetén bármely kampány vagy PAC, amely megtévesztő deepfake-et használ, büntetésben – például reklámjogok megvonásában – kell részesüljön. A tech cégek közös tiltólistát is fenntarthatnak ismert deepfake hash-ekről vagy lenyomatokról, hogy ha egy hamisítványt egy platformon azonosítanak, az a többin is blokkolható legyen (hasonlóan ahhoz, ahogyan a terrorista tartalmak hash-eit is megosztják). Lényegében: ne érje meg deepfake-eket használni a főbb platformokon – vagy gyorsan eltávolítják a tartalmat, vagy a mögötte álló személy elveszíti a fiókját.

4. Együttműködés Tényellenőrzőkkel és Hatóságokkal: Egyetlen platform sem tudja tökéletesen felügyelni a tartalmakat egyedül. Az együttműködés létfontosságú. A közösségi média cégeknek szorosabb partnerségre kell lépniük független tényellenőrző szervezetekkel a virális tartalmak értékeléséhez. Amikor a tényellenőrök egy videót hamisnak állapítanak meg, a platformoknak fel kell erősíteniük ezt a korrekciót – például tényellenőrző cikket linkelni, amikor a videót megosztják, vagy értesíteni mindenkit, aki az eredeti hamis felvételt látta. Ilyet a Facebook már alkalmazott álhírek esetén, és folytatnia kell deepfake-eknél is. Emellett a platformoknak együtt kell működniük választási bizottságokkal és biztonsági szervekkel, különösen a választási időszakban. Létrehozhatnak közvetlen forródrótot vagy csatornákat, ahol a tisztségviselők jelenthetik a választásra ható deepfake-eket, és fordítva, a platformok jelezhetik a kormányoknak, ha külföldi dezinformációs támadást észlelnek. Bizonyos jogrendszerekben már létezik ilyen formális együttműködés (például az EU Gyakorlati Kódexe ösztönzi a kormányokkal való információmegosztást az álhírfenyegetések esetén brennancenter.org). Az Egyesült Államokban is például a Belbiztonsági Minisztérium kiberbiztonsági részlege együttműködik a platformokkal a választási álhírek ellenőrzésében. Ezen együttműködéseknek természetesen tiszteletben kell tartaniuk a szólásszabadságot, és nem léphetik át a jogos vélemények cenzúrájának határát. Ám egyértelműen hamis, káros tartalmak esetén a gyors, összehangolt fellépés a platformok és a közintézmények között megakadályozhatja, hogy egy hamisítvány ellepje az internetet. Ez közös sajtónyilatkozatokkal, a vírális fake cáfolásával, vagy algoritmusokkal az autoritatív források erősítésével segítheti a terjedés ellensúlyozását.

5. AI Modell Biztonsági Intézkedések Fejlesztése: Az olyan cégeknek, akik generatív AI modelleket fejlesztenek (OpenAI, Google, Meta stb.), forrásként is kiemelt felelősségük van. Intézkedéseket kell bevezetniük, hogy megakadályozzák AI-juk választási visszaélésekhez való felhasználását. Ez lehet például AI kimenetek vízjelezése, ahogy már szó volt róla (tehát például minden DALL-E vagy Midjourney által létrehozott kép rejtett aláírást tartalmaz). Ide tartozik a tanító adatok gondos szűrése is – például annak biztosítása, hogy a modelleket megtanítsák visszautasítani olyan kéréseket, amikor valós személyek káros célú utánzását kérelmezik. Egyes AI eszközök már most sem generálnak deepfake képeket valós politikai szereplőkről, beépített tartalomszűrőik miatt. Ezeket a védőkorlátokat folyamatosan fejleszteni kell (a nyílt forráskódú modellek jelenthetnek kihívást, mivel azokat rosszindulatúak is képesek finomhangolni ilyen korlátozások nélkül). Az AI fejlesztőknek kutatásokat is kell végezniük deepfake felismerési technikák terén, és ezeket megosztani a közösséggel. Pozitívum, hogy a legtöbb vezető AI cég önként vállalta a vízjelezés és a tartalom-hitelesítés támogatását. A jövőben közösen kidolgozhatnának egy olyan szabványos API-t, amely bármely videó vagy audiofájl esetén gyorsan ellenőrzi, hogy azt valamely modelljük generálta-e. Lényegében: akik a „problémát” (a generatív technológiát) létrehozzák, segítsenek megalkotni a „megoldást” (az azonosítás eszközeit) is.

6. Átláthatóság a Politikai Hirdetésekben: Az olyan platformoknak, amelyek politikai hirdetéseket fogadnak, szigorú átláthatóságot kell biztosítaniuk az AI felhasználásával kapcsolatban. Ha egy kampányreklámot a Facebookon vagy a Google-ben AI által létrehozott elemek tartalmaznak, a platform hirdetéskönyvtárában ezt explicit módon fel kell tüntetni. Sőt, akár azt is megkövetelhetik hirdetőktől, hogy nyújtsák be a nyers, vágatlan felvételeket összehasonlítás céljából. Merészebb lépésként a közösségi platformok akár ideiglenesen teljesen megtilthatnák minden, szintetikus médiát tartalmazó politikai hirdetés megjelenítését a kampány legérzékenyebb, utolsó napjaiban – ahogyan néhányan most is blokkolnak új politikai hirdetéseket közvetlenül a választás előtt. Ez kizárná egy utolsó pillanatos deepfake hirdetés-cunami kockázatát. Bár az alkalmazás nehézkes, az elv az, hogy a megtévesztő tartalmak fizetett promóciója különösen veszélyes, illetve a platformoknak nagyobb szabadsága van a hirdetések szabályozásában, mint a felhasználói posztoknál. Az átláthatóság és a gyors eltávolítás biztosítása a hirdetési területen kritikus, mivel egy deepfake, amely fizetett hirdetésekben terjed, milliókat érhet el algoritmikus célzással, igazságtalanul torzítva az információs környezetet.

Médiavállalatok és Újságírói Szervezetek

1. Szigorú Ellenőrzési Protokollok: A hírmédiának alkalmazkodnia kell a deepfake korszak kihívásaihoz. Minden szerkesztőségnek – a nemzeti televízióktól a helyi újságokon és tényellenőrző oldalakon át – ki kell dolgoznia formális eljárásokat az audiovizuális anyagok hitelesítésére a sugárzás vagy publikálás előtt. Ide tartozik az újságírók képzése igazságügyi eszközök használatára (például videó metaadatok ellenőrzése, képelemzés), illetve, hogy szükség esetén szakértőkhöz forduljanak. Minden szenzációs vagy botrányos választási videónál az újságíróknak egészséges kételkedéssel kell fogadniuk azt, és nem szabad megerősítés nélkül gyorsan adásba adniuk. A médiának két forrásból is ellenőriznie kell minden felhasználói tartalmat: például, ha hirtelen felbukkan egy videó, amelyben egy jelölt valami sokkolót tesz, a szerkesztőségnek más bizonyítékot is meg kell próbálnia keresni (szemtanúk, hivatalos közlemény stb.), vagy legalább képkockánként elemezni, hogy nem deepfake-ről van-e szó. Cél: ne váljanak akaratlanul is a félretájékoztatás terjesztővé. Figyelemre méltó, hogy egyes hírszerkesztőségek saját deepfake munkacsoportot hoztak létre. Egy arizonai példában újságírók maguk is készítettek egy deepfake videót (engedéllyel), hogy szemléltessék, milyen könnyű manipulálni a felvételeket knightcolumbia.org – okos módszer a tudatosság növelésére. Minden szerkesztőség fontolja meg egy „deepfake szakértő” készenléti listára vételét (vagy tech laborral partnerséget) a gyanús felvételek gyors elemzésére. Ha az ellenőrzést ugyanolyan rutinná teszik, mint a tényellenőrzést, a média gyorsabban kiszűrheti a hamisítványokat, vagy figyelmeztetheti közönségét, ha valami még nem bizonyítottan hiteles.

2. Felelősségteljes Beszámolás a Deepfake-ekről: Amikor szintetikus médiáról tudósítanak, az újságíróknak körültekintően, kontextussal együtt kell ezt tenniük. Ha egy deepfake céloz meg egy jelöltet, a történet lényege nem a hamis állítások tartalma, hanem hogy ez egy hamis manipuláció. A média ne ismételje el részletesen a hazugságokat vagy játssza le kritikátlanul a hamis videót, mert ezzel akaratlanul is elősegítheti a félretájékoztatás terjedését. Ehelyett lehet általánosan leírni, és inkább a reakcióra fókuszálni (például: „Egy manipulált videó hamisan ábrázolja, amint X ezt vagy azt teszi, de ezt szakértők már cáfolták”). Az online cikkekben homályosíthatják vagy nem linkelhetik közvetlenül a deepfake tartalmat cetas.turing.ac.uk, hogy ne növeljék annak látogatottságát vagy ne adják lehetőséget rosszindulatúaknak a letöltésre/újramegosztásra. A tudósítás keretezése is fontos: hangsúlyozni kell inkább az átverési kísérletet és a deepfake tényét, mint a benne foglalt hamis narratívát cetas.turing.ac.uk. A média emelje ki a hibajavításokat vagy a valóságot is (például: „Nem, politikus Z nem mondta ezt – a videó AI hamisítvány; íme, mit mondott valójában.”). Ha ezt következetesen alkalmazzák, a hiteles sajtó segíthet megelőzni, hogy a közvélemény elhiggye vagy továbbadja a hamisítványokat. Kényes egyensúly ez: tudósítani kell a dezinformációról (hiszen ha figyelmen kívül hagyják, az nem szűnik meg), de nem szabad véletlenül még nagyobb publicitást adni. Hasonló irányelvek, mint a csalások vagy tömeges lövöldözések esetén (ahol egyes részleteket szándékosan csökkentenek az utánzók elkerülése miatt), bevezethetők lennének a deepfake-ekről szóló tudósításokra is. Az Egyesült Királyságban például a Független Sajtószabványok Szervezete (IPSO) bővítését sürgetik, hogy kódexeiben kitérjen az ilyen helyzetekre cetas.turing.ac.uk.

3. Az eredetiség-technológia használata a hírszobákban: A hírszervezetek maguk is kihasználhatják a kialakulóban lévő eredetiség-infrastruktúrát. Például egy médium alkalmazhatja a Content Authenticity Initiative eszközeit, hogy kriptográfiai tartalomhitelesítő adatokat csatoljon minden eredeti fotóhoz és videóhoz, amit újságírói készítenek. Ez azt jelenti, hogy például egy Reuters vagy AP operatőr által készített felvétel biztonságos pecsétet hordozhat, amely hitelesíti annak eredetét és bármely szerkesztést. Később, amikor az emberek ránéznek egy Reuters forrású videóra, ellenőrizhetik, hogy az változatlan-e. Az ilyen intézkedések segítenek bizonyítani, mi a valóság, így a nyilvánosság számára igazodási pontot kínálnak. A hírügynökségeknek együtt is kellene működniük ismert deepfake-ek (és hiteles tartalmak) adatbázisának kiépítésében, mely segítheti a tényellenőrök munkáját. Például hivatalos beszédek és interjúk archívumának fenntartása megkönnyítheti egy manipulált klip gyors leleplezését összehasonlítással. A nagy hírügynökségek és sajtószolgálatok együttműködhetnének abban is, hogy ha veszélyes deepfake-et fedeznek fel, gyorsan jelezhessenek minden előfizetőjüknek – kicsit úgy, mint amikor rendkívüli híreket jelentenek be. Belsőleg a szerkesztőknek is tudniuk kell, hogy politikai szereplők megpróbálhatnak hamis médiaanyagot átadni az újságíróknak (pl. egy tippként benyújtott kiszivárogtatott audio, ami valójában mesterséges intelligencia által generált). Bármilyen névtelen forrású digitális anyag esetén tanácsos óvatosnak maradni.

4. A közönség oktatása: A média kulcsszerepet játszhat a választók tájékoztatásában a szintetikus média világában. A hírszerkesztőségeknek és újságíróknak magyarázó cikkeket, szakértői interjúkat és olyan anyagokat kellene készíteniük, amelyek megmutatják a közönségnek, hogyan készülnek a deepfake-ek, s hogyan lehet felismerni őket. A technológia leleplezésével csökkentik annak erejét. 2024 egyes tévéhíradóiban például élőben szemléltették az MI hangklónokat, hogy bemutassák, miként utánozhat egy csalóhívás egy rokon hangját. Ugyancsak a választási időszakban a tudósításokban megjelenhetnek figyelmeztetések: „Ha egy drámai, szokatlan videót látsz valamelyik jelöltről az utolsó pillanatban, légy óvatos – akár hamis is lehet. Így tudod ellenőrizni…”. A média által vezetett figyelemfelkeltő kampányok (akár kormányzati vagy civil partnerségben) jelentősen emelhetik a digitális írástudás szintjét. Az újságíróknak következetesen pontos fogalmakat kellene használniuk: ha valami „deepfake” vagy „MI által generált hamis videó”, ezt nevezzék is így, ne csak manipulált videónak – így erősödik a tudatosság az új kategóriáról. Idővel a jól tájékozott közönség kevésbé esik áldozatául a hamisításoknak, és követelni fogja a bizonyítékokat. Mivel a média a kapocs az információ és a nyilvánosság között, kötelessége ezt az ellenállóképességet felépíteni.

5. Felelősségre vonás és leleplezés: Végül, az újságíróknak kutatniuk kell, és rá kell világítaniuk arra, kik állnak a nagyszabású deepfake-műveletek mögött. A tettesek közvélemény általi felelősségre vonása elrettenthet a jövőbeli visszaélésektől. Ha egy rivális kampány, egy külföldi trollfarm vagy egy konkrét online csoport bizonyul egy rosszindulatú deepfake forrásának, annak feltárása megbélyegzéssel és kockázattal jár az ilyen taktikákra nézve. Ha egy politikus vagy közszereplő maga is megoszt egy bizonyítottan hamis deepfake-et (például egy jelölt tweetel egy hamis videót ellenfeléről), a média ezt nyomatékosan nehezményezze – komoly vétségként kezelje. Az esély az ilyen negatív sajtóra és a hírnév sérülésére visszatarthatja a politikai szereplőket a „piszkos trükköktől”, például a deepfake használatától. Röviden, az újságírás őrkutya-funkciója a digitális térre is kiterjed: derítsék fel, kövessék vissza, és leplezzék le a rosszindulatú szintetikus média-műveleteket, ugyanúgy, ahogy bármely más csalást vagy korrupciót a politikában.

Civil társadalmi és választói kezdeményezések

1. Digitális írástudás és közösségi oktatás: A civil társadalmi szervezetek – beleértve a nonprofitokat, könyvtárakat, egyetemeket és alulról szerveződő közösségeket – vezető szerepet játszhatnak az állampolgárok oktatásában a deepfake-korszakban való eligazodásra. Közösségek számára méretezhető programokat kell kínálni a médiaellenőrzés módszereiről. Például a civil szervezetek tarthatnak workshopokat, ahol egyszerű trükköket tanítanak, mint például a visszafordított képfelismerés (hogy kiderüljön, AI alkotta-e vagy manipulált kép-e), megbízható hírek keresése, tényellenőrző oldalak használata. Tényellenőrző csoportok (pl. First Draft, Media Literacy Now) már számos kiváló eszközt és tananyagot fejlesztettek a félretájékoztatás és deepfake-ek felismerésére – ezeket széles körben terjeszteni kellene. Az ilyen képzések célozzák iskolásokat, de idősebb felnőtteket is, akik gyakran sebezhetőbbek az online átverésekkel szemben. Országos digitális írástudási kampányok is indíthatók, akár állami finanszírozással, de a bizalomért helyi szervezetek által megvalósítva. A cél, hogy a társadalom „nyájimmunitása” növekedjen: ha elegen ismerik fel a hamisítványokat, illetve késleltetik a véleményalkotást ellenőrzésig, a dezinformátorok hatása jelentősen csökken. A közvélemény-kutatások szerint az emberek vágyják ezt a tudást – sokan szoronganak amiatt, hogy nem tudják megkülönböztetni a valóst a hamistól brennancenter.org brennancenter.org. A civil társadalom ezt a tudáshiányt pótolhatja az emberek felhatalmazásával és gyakorlati készségek átadásával.

2. Tényellenőrzési és leleplező kezdeményezések: A független tényellenőrök és civil szervezeti őrkutyák kulcsszerepet játszanak, különösen választási időszakokban. Fel kell készülniük erre, például deepfake tényellenőrző központok felállításával. A tényellenőrző szervezetek koalíciói nyílttá tehetnék választási időszakban a deepfake-pletykákat és újonnan felbukkanó állításokat követő dashboardot, ahol gyors helyreigazításokat is közölhetnek. Például a News Literacy Project hasonló nyilvántartást vezetett a 2024-es amerikai választások alatt az álhírekről, s megjegyezte, milyen kevés esetben érintették az MI-t knightcolumbia.org knightcolumbia.org. Az ilyen átlátható követés segít a közönségnek és az újságíróknak a teljes kép megértésében – elkerülve a túlzott riadalmat, de közben kezelve a valódi eseteket. A civil szervezetek a közösségi médiában is terjeszthetnek helyes információkat – például virális bejegyzésekre reagálva közösségi tényellenőrzőkkel. Támogatni szükséges a „prebunking” módszert is: előzetes figyelmeztetés, hogy valami hamis, nagy eséllyel meg fog jelenni. Ha például intelligencia vagy korábbi tapasztalat szerint egy jelöltet deepfake botránnyal célozhatnak, a közösségi csoportok (választási hivatalokkal együtt) előre figyelmeztethetnek: „Ha hirtelen szenzációs videót látsz X-ről, érdemes kételkedni – lehet, hogy deepfake.” Vizsgálatok szerint a prebunking jelentősen csökkentheti a hiszékenységet és a hamis állítások terjedését cetas.turing.ac.uk cetas.turing.ac.uk. Tehát a civil társadalom proaktív, előre látó fellépése jelentős eredményt hozhat a deepfake-kampányokkal szemben.

3. Civic tech és közösségi észlelés: A technológiailag jártas polgárok közössége is mozgósítható a deepfake-ek elleni harcban. Már ma léteznek „deepfake vadász” önkéntesek, akik gyanús online médiát vizsgálnak. Civil szervezetek ezeket az erőfeszítéseket szervezhetik például egy portál vagy alkalmazás segítségével, ahol bárki feltöltheti az általa kétségesnek tartott videót vagy hangot, és szakértői, illetve MI-eszközök elemzést adnak arról. Ez a közösségi információszerzés hatékonyan kiegészítheti a hivatalos intézkedéseket. Emellett civil tech csoportok böngésző-bővítményeket vagy mobilapplikációkat fejleszthetnének a szintetikus média felismerésére. Például egy alkalmazás lehetővé teheti, hogy a felhasználó kijelöljön egy videót a képernyőn, s több detektáló algoritmus azonnal elemzést adjon róla (mintha „deepfake vírusirtó” lenne). Bár nem tévedhetetlen, de időben jelezhet veszélyt. Az ilyen open source eszközfejlesztéseket támogatni kellene pályázatokkal, támogatásokkal. Egy másik ötlet a polgári forródrót: mint a választási problémákra fenntartott segélyvonalakon, egy ilyen vonalon bárki bejelenthetné az általa gyanúsnak tartott deepfake-et vagy dezinformációt, ami így azonnal a választási hatóságokhoz vagy tényellenőrökhöz kerül, akik reagálhatnak. Ha a polgárok is aktív résztvevői a gyanús tartalmak azonosításának és jelentésének, ugrásszerűen nő a felügyelet hatékonysága. Ez a decentralizált megközelítés felismeri: egy többmilliós online társadalomban mindig lesz valaki, aki időben kiszúr valamit – a kulcs, hogy ezt gyorsan eljuttassuk azokhoz, akik hitelesen ellenőrizni és helyreigazítani tudják.

4. Érdekképviselet a platformok felelősségvállalásáért: A civil társadalomnak továbbra is nyomást kell gyakorolnia a technológiai platformokra és MI-cégekre, hogy felelősen járjanak el. Közérdekvédő szervezetek és think tankek döntő szerepet játszottak a deepfake-ek veszélyeinek bemutatásában és a szabályozási reformok szorgalmazásában (pl. az Access Now, EFF és mások ajánlásokat adtak ki). Ezt az érdekképviseletet folytatni kell – követelve a platformoktól a korábban említett szabályok alkalmazását (jobb címkézés, gyors eltávolítás stb.), az MI-fejlesztőktől pedig az etikus tervezést. A Public Citizen kampánya például nyomon követi a deepfake-ekkel kapcsolatos állami jogalkotást, illetve petíciót nyújtott be az FEC-nek citizen.org citizen.org. Hasonlóan, koalíciók átláthatóságot követelhetnek a platformoktól: adják ki nyilvánosan, hány AI-tartalmat találni az oldalukon, vagy mennyire hatékony technológiájuk a detektálásra. A civil szervezetek hangja hozzájárulhat ahhoz is, hogy az új szabályozások ne veszélyeztessék a polgári szabadságjogokat (pl. visszautasítsák a túlterjeszkedő törvényeket, amelyek a deepfake-fenyegetés ürügyén elfojtanák a véleményszabadságot). Az egyensúlyt közvita útján kell megteremteni; ebben az érdekcsoportok a társadalom képviselői. A következő években új szabályozási keretrendszerek születhetnek a MI-ra és online tartalomra – létfontosságú, hogy ezekben a demokratikus értékek és emberi jogi elvek érvényesüljenek, ebben a civil társadalom őrkutya szerepe nélkülözhetetlen.

5. Áldozatok és célpontok támogatása: Ha egy jelöltet vagy magánszemélyt deepfake-kel rágalmaznak meg, a civil társadalom támogatást nyújthat. Nonprofit szervezetek jogi segítséget vagy tanácsot kínálhatnak arról, hogyan lehet rágalmazó deepfake-eket eltávolíttatni, és a tetteseket felelősségre vonni. Lehetnek forródrótok deepfake pornó vagy karaktergyilkosság áldozatai számára, amelyek összekötik őket a rendőrséggel és mentálhigiénés forrásokkal. Amikor egy jelöltet támadás ér, civil szervezetek (mint például választási integritást védő csoportok vagy női választók ligája) segíthetnek felerősíteni a tagadást és a leleplezést, hogy minimalizálják a kárt. Az áldozatok gyors védelmében való összefogás – biztosítva, hogy az igazság hangosabb legyen, mint a hazugság – olyasmi, amit közösségi és érdekvédelmi szervezetek koordinálhatnak, ahogyan ezt rágalmazás vagy gyűlöletbeszéd esetén is teszik. Tágabb szinten a civil társadalom elősegítheti a pártok közötti elköteleződéseket, melyek értelmében, ha deepfake jelenik meg, minden oldal elítéli azt. Képzeljünk el egy ígéretet, amelyet egy ország minden jelentős pártja aláír: vállalják, hogy nem használnak deepfake-eket, és gyorsan elítélnek minden rosszindulatú hamisítványt. Az ilyen normákat, melyeket például pártközi választási bizottságok vagy etikai civil szervezetek ápolnak, csökkentenék az „erkölcsi verseny a mélybe” esélyét, amikor pártok úgy érzik, nekik is viszonozniuk kell. Egységes álláspontot teremt, miszerint az igazság elleni támadásokat nem tűrjük, függetlenül attól, hogy kit céloznak meg.

Összegzésképpen a deepfake-jelenség kihívásaira a társadalom minden védekező eszközét ki kell használni – technológiai, jogi, intézményi és emberi oldalról egyaránt. A fenti lépések végrehajtásával a kormányok ellenállóbbá tehetik a választási rendszert az MI-alapú hamisításokkal szemben, a technológiai platformok visszaszoríthatják a hamis tartalmak terjedését, a média biztosíthatja, hogy a jelentésekben az igazság érvényesüljön, a polgárok pedig a valóság éber őrzőivé válhatnak. Nincs vesztegetni való idő: ahogy a generatív MI fejlődik, a 2025-ös választási ciklus próbára teszi a demokráciák ellenállóképességét a szintetikus hazugságokkal szemben. A biztató hír, hogy nem vagyunk védtelenek. Felkészültséggel, átláthatósággal és együttműködéssel túljárhatunk a deepfake kampányok eszén és szervezettségén, megőrizve választásaink tisztaságát. Amint egy CETaS kutatási jelentés is megállapította az MI-ról és a választásokról: „a közönynek nem szabad beszivárognia a döntéshozatalba” – ehelyett épp most van itt az alkalom ellenállóképességünk megerősítésére cetas.turing.ac.uk cetas.turing.ac.uk. Ezzel megerősítjük azt az elvet, hogy bár a technológia változik, a demokrácia igazság- és bizalomértékei kitartanak.

Források

  1. Stockwell, Sam et al. „AI-alapú befolyásolási műveletek: A jövő választásainak védelme.” CETaS (Alan Turing Intézet) Kutatási Jelentés, 2024. nov. 13. cetas.turing.ac.uk cetas.turing.ac.uk
  2. Stockwell, Sam et al. Uo. (CETaS Jelentés, 2024), 2.1 szakasz a deepfake-ekről az amerikai választásokon. cetas.turing.ac.uk cetas.turing.ac.uk
  3. Beaumont, Hilary. „’A bizalom hiánya’: Hogyan rengethetik meg a deepfake-ek és az MI az amerikai választásokat.” Al Jazeera, 2024. jún. 19. aljazeera.com aljazeera.com
  4. Sze-Fung Lee. „Kanadának már tegnap deepfake-törvényre lett volna szüksége.” Policy Options, 2024. márc. 18. policyoptions.irpp.org policyoptions.irpp.org
  5. Goldstein, Josh A. & Andrew Lohn. „Deepfake-ek, Választások és a Hazudozók Hasznának Csökkentése.” Brennan Center for Justice, 2024. jan. 23. brennancenter.org
  6. „Szintetikus média.” Wikipedia (2025-ös hozzáférés). en.wikipedia.org en.wikipedia.org
  7. „Deepfake.” Kaspersky IT Enciklopédia (2023). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
  8. Hamiel, Nathan. „A deepfake-ek másfajta fenyegetést jelentettek, mint vártuk. Így védekezhetünk ellenük.” World Economic Forum, 2025. jan. 10. weforum.org weforum.org
  9. „Az MI deepfake-ek és szintetikus média szabályozása a politikai színtéren.” Brennan Center for Justice, 2023. okt. 4. brennancenter.org brennancenter.org
  10. Colman, Ben. „Az EU MI-törvénye és a deepfake-felismerés sürgető szükségessége.” Reality Defender Blog, 2025. febr. 11. realitydefender.com realitydefender.com
  11. „Figyelő: Deepfake-re vonatkozó állami jogszabályok a választásokon.” Public Citizen, 2025. citizen.org citizen.org
  12. Partnership on AI. „Szintetikus média és deepfake-ek – esettanulmány: Szlovákia 2023.” (Hivatkozott a Knight Columbia elemzésében). brennancenter.org brennancenter.org
  13. Kapoor, Sayash & Arvind Narayanan. „78 választási deepfake-et vizsgáltunk meg. A politikai félretájékoztatás nem MI-probléma.” Knight First Amendment Institute, 2024. dec. 13. knightcolumbia.org knightcolumbia.org
  14. CETaS Jelentés (2024), Politikai ajánlások (Egyesült Királyság fókuszú). cetas.turing.ac.uk cetas.turing.ac.uk
  15. CETaS Jelentés (2024), Ajánlások felismerésre és eredetiségre. cetas.turing.ac.uk cetas.turing.ac.uk
  16. Public Safety Canada. „AI-alapú dezinformációval szembeni védelem” (2023-as összefoglaló). policyoptions.irpp.org policyoptions.irpp.org
  17. InnovationAus. „A kormány választási deepfake-tiltása 2026-ig ‘pangani’ fog.” (Ausztrália) 2023. innovationaus.com
  18. További források: A Reuters, Wired és CNN cikkei, amelyeket a fent felsorolt források említenek konkrét esetekhez (pl. Zelenszkij deepfake, Hong Kong-i 25 millió dolláros csalás Zoom-deepfake-kel weforum.org), továbbá az FTC fogyasztói figyelmeztetései hangklón-csalásokra weforum.org. Ezek az elemzésbe beépítve, az itt felsorolt forráslinkeken keresztül érhetők el.

Vélemény, hozzászólás?

Your email address will not be published.

Don't Miss

Generative AI Market Outlook and Competitive Analysis

Generatív MI piac kilátásai és versenyelemzés

Piaci áttekintés A generatív mesterséges intelligencia (AI) olyan gépi tanulási
St. Tropez Real Estate Boom: Inside the 2025 Luxury Property Market and Future Forecasts

Szent Tropez ingatlanpiaci fellendülés: bepillantás a 2025-ös luxusingatlanok piacába és a jövőbeli előrejelzések

Saint-Tropez ingatlanpiaca 2025-ben is Franciaország egyik legexkluzívabb és legellenállóbb piacai