Sintetički mediji i deepfakeovi: Zaštita izbornog ciklusa 2025. godine

30 lipnja, 2025
Synthetic Media and Deepfakes: Safeguarding the 2025 Election Cycle

Napredak u umjetnoj inteligenciji omogućio je stvaranje syntetičkih medija – sadržaja koji je generiran ili manipuliran pomoću AI – u dosad neviđenom opsegu. Dok demokratske nacije ulaze u izborne cikluse 2025. godine, dužnosnici i stručnjaci podižu uzbunu zbog dezinformacija potaknutih umjetnom inteligencijom. U nedavnom istraživanju, 85% Amerikanaca izrazilo je zabrinutost zbog “obmanjujućih dubokih lažnjaka u audio i video obliku” koji bi mogli utjecati na izbore brennancenter.org. Naslovi u vijestima upozoravaju da bi AI-generirani “duboki lažnjaci” mogli izazvati kaos u kampanjama i povjerenju birača brennancenter.org, naglašavajući hitnost zaštite integriteta izbora. Ovo izvješće razmatra što su syntetički mediji i duboki lažnjaci, kako prijete demokraciji i što se može učiniti – od tehnoloških rješenja do politika – kako bi se zaštitili izbori 2025. i dalje.

Što su syntetički mediji i duboki lažnjaci?

Syntetički mediji su širi pojam za digitalni sadržaj (slike, video, audio, tekst) koji je umjetno proizveden ili izmijenjen automatiziranim sredstvima, posebice AI algoritmima en.wikipedia.org. Današnji generativni AI sustavi mogu stvarati realistične ljudske prikaze u svakom mediju – od uvjerljivih fotografija osoba koje nikad nisu postojale, do kloniranih glasova i AI-napisanih članaka. Duboki lažnjaci su poseban podskup syntetičkih medija: izrazito realistične lažne slike, video ili audio izrađeni AI-jem (otuda “deep” učenje + “fake”) kako bi se oponašale stvarne osobe encyclopedia.kaspersky.com. U praksi, duboki lažnjak može biti video u kojem je lice političara uvjerljivo zamijenjeno na tijelo druge osobe, ili audio zapis koji imitira glas kandidata izgovarajući riječi koje on zapravo nikad nije rekao.

Kako se stvaraju duboki lažnjaci? Većina se generira naprednim tehnikama dubokog učenja. Uobičajen pristup koristi generativne suparničke mreže (GAN-ove) – dvije neuronske mreže koje se međusobno treniraju icct.nl. Jedna mreža (generator) stvara lažne medije (npr. sliku nečijeg lica), a druga (diskriminator) pokušava otkriti je li sadržaj lažan. Kroz tisuće iteracija, generator se uči stvarati sve realističniji sadržaj dok diskriminator više ne može prepoznati razliku icct.nl. Izvorno, izrada savršenog dubokog lažnjaka zahtijevala je opsežne podatke za učenje i snažan hardver – primjerice, eksperiment s dubokim lažnjakom glumca Toma Cruisea trajao je dva mjeseca treniranja na najmodernijim GPU procesorima icct.nl. Međutim, alati su se rapidno razvili. Napredni softver za duboke lažnjake sada je široko dostupan i brži, ponekad čak i radi u stvarnom vremenu (na primjer, mijenjajući video prijenos uživo ili telefonski poziv u hodu) encyclopedia.kaspersky.com. Osim GAN-ova, i druge AI arhitekture igraju ulogu: transformerski modeli mogu generirati duboke lažnjake u tekstu ili pomoći u kloniranju glasa encyclopedia.kaspersky.com. Ukratko, najnovija AI dostignuća učinila su lakim i jeftinim za gotovo svakog pojedinca stvaranje obmanjujućeg audio-vizualnog sadržaja – drastično spuštajući prag za vođenje dezinformacijskih operacija.

Važno je napomenuti da nisu svi syntetički mediji zlonamjerni. AI-generirani sadržaj može se koristiti za benignu i kreativnu namjenu – personalizirani avatari, sinkronizacija govora na druge jezike, satira, zabava i slično. Zapravo, na globalnim izborima tijekom 2024. godine, otprilike polovica dokumentiranih AI sadržaja u politici bila je neobmanjujuća (npr. kandidat transparentno koristi AI glas zbog gubitka vlastitog glasa ili novinari koriste AI avatar za zaštitu identiteta) knightcolumbia.org knightcolumbia.org. No ovo izvješće fokusira se na zlonamjernu stranu syntetičkih medija – duboke lažnjake kojima je cilj zavarati, obmanuti ili manipulirati biračima i javnim mnijenjem.

Rizici za demokratske procese

Syntetički mediji i duboki lažnjaci predstavljaju značajne rizike za demokraciju, posebice tijekom izbora kada su informiranost birača i povjerenje u informacije ključni. Ključne prijetnje uključuju:

  • Dezinformacije i manipulacija biračima: AI-generirani lažni videozapisi, slike ili audio mogu se koristiti za širenje lažnih informacija o kandidatima ili temama, zavaravajući birače. Na primjer, duboki lažnjak može prikazati kandidata kako izgovara uvredljive izjave koje nikada nije rekao. Takav lažni sadržaj može ubrizgati toksične laži u javnu raspravu. Stručnjaci upozoravaju da duboki lažnjaci “predstavljaju visoki rizik” za birače uvodeći lažni sadržaj u kampanje i narušavajući javno povjerenje aljazeera.com. Uvjerljivo izmontirani video objavljen neposredno prije izbornog dana – bez dovoljno vremena za provjeru točnosti – može utjecati čak i na neodlučne birače ili smanjiti izlaznost, čime se može promijeniti ishod izbora citizen.org. Ova prijetnja nije samo teorijska: kasnije ćemo s detaljima, no duboki lažnjak u SAD-u 2024. imitirao je predsjednika SAD-a koji svoje pristaše poziva da ne glasaju, očito s ciljem obeshrabrivanja izlaznosti aljazeera.com aljazeera.com.
  • Erozija povjerenja (“lažljivčev dobitak”): Neovisno o pojedinom lažnom sadržaju, samo postojanje dubokih lažnjaka može narušiti javno povjerenje u prave informacije. Birači mogu početi sumnjati i u autentične dokaze, nesigurni je li viralni video stvaran ili AI krivotvorina. Štoviše, zlonamjerni akteri mogu iskoristiti tu sumnju: stvarni skandali ili autentične snimke mogu se odbaciti kao “samo duboki lažnjak”, omogućujući nevaljalim osobama izbjegavanje odgovornosti. Znanstvenici su ovo nazvali “lažljivčev dobitak” – što je veća svijest o dubokim lažnjacima, lašcima je lakše tvrditi da je stvarni dokaz lažan brennancenter.org. Povećana svijest o moćima AI-a znači da bi političar uhvaćen u stvarnom prijestupu lakše mogao obmanjivati javnost nazvavši kompromitirajući audio ili video AI podvalom brennancenter.org. Takva dinamika prijeti temeljnom povjerenju na koje se demokratska rasprava oslanja. Promatrači izbora zabilježili su da su 2024. neki kandidati i njihove pristaše unaprijed viknuli “AI lažnjak!” kako bi diskreditirali neugodne priče brennancenter.org brennancenter.org. Dugoročno, ako građani smatraju da “ne možeš vjerovati ničemu što vidiš ili čuješ”, to nagriza zajedničku stvarnost nužnu za slobodne i poštene izbore cetas.turing.ac.uk cetas.turing.ac.uk.
  • Pojačavanje polarizacije i sukoba: Dosadašnji dokazi sugeriraju da propagandni duboki lažnjaci češće učvršćuju već postojeće pristranosti ljudi nego što ih uvjeravaju da promijene mišljenje cetas.turing.ac.uk. Zlonamjerni AI sadržaji često prihvaćaju i šire oni koji već imaju ekstremna stajališta, što pojačava eho komore. Tijekom američke predsjedničke utrke 2024., istraživači su utvrdili da su AI-generirane laži uglavnom služile jačanju stranačkih narativa i produbljivanju rasprava, umjesto preobraćenja novih pristaša cetas.turing.ac.uk. Primjerice, lažni videozapisi protiv predsjednika Bidena ili potpredsjednice Harris prikupili su milijune pregleda, a najčešće su ih dijelili korisnici koji su već bili negativno nastrojeni prema njima cetas.turing.ac.uk cetas.turing.ac.uk. Time što konsolidiraju ideološke tabore spektakularnim lažnim “dokazima” o pokvarenosti protivnika, duboki lažnjaci mogu zajednice udaljiti još više i otrovati izborno ozračje. Povrh toga, zbunjenost i nepovjerenje koje duboki lažnjaci siju pogoduju bujanju teorija zavjere cetas.turing.ac.uk, jer građani lakše odbacuju svaku neugodu kao AI krivotvorinu.
  • Potkopavanje izborne administracije: Rizik nadilazi puko zavaravanje birača o kandidatima – duboki lažnjaci mogu ometati i sam izborni proces. Dužnosnici su zamislili scenarije u kojima AI klonovi glasa ili lažni nalozi za glasanje navodno dolaze od izbornih tijela i zaposlenicima na biračkim mjestima nalažu da zatvore birališta ranije ili biračima daju lažne upute (npr. “izbori su odgođeni”) aljazeera.com. Sofisticirani napadač može imitirati direktivu izborne komisije ili glas lokalnog dužnosnika kako bi sabotirao glasovanje. Takve taktike mogu smanjiti broj glasova ili izazvati kaos na izborni dan. Američki Brennan Center navodi da se manipulirani mediji mogu koristiti za zavaravanje ne samo javnosti, nego i izbornih službenika i volontera, što zahtijeva novu obuku i protokole aljazeera.com.
  • Uznemiravanje i uništavanje ugleda: Duboki lažnjaci također pružaju moćno oružje za osobne napade na kandidate, aktiviste ili novinare. Posebno poguban oblik je neovlaštena sintetička pornografija – uzeti nečije lice i zalijepiti ga u eksplicitni seksualni sadržaj. Ova taktika već je korištena za uznemiravanje novinarki i političarki diljem svijeta. Najteži oblik uznemiravanja dubokim lažnjacima je lažna intimna slika upotrebljena za ponižavanje ili ucjenu pojedinca weforum.org. U izbornom kontekstu, operativci mogu plasirati lažni kompromitirajući video kandidata (primjerice, duboki lažnjak pornografskog sadržaja ili lažnu snimku njegova sudjelovanja u kriminalu) neposredno prije izbora. Čak i ako je ubrzo opovrgnut, šteta za reputaciju kandidata već može biti počinjena. Žene i manjine nesrazmjerno su mete takvih “syntetičkih kampanja blaćenja”, što može obeshrabriti raznolike kandidate za sudjelovanje u politici policyoptions.irpp.org policyoptions.irpp.org. Ukratko, duboki lažnjaci daju novo gorivo starim “prljavim trikovima” – od lažnih skandala do izmišljenih citata – višestruko pojačavajući pokušaje uništavanja ugleda kandidata u izborima.

Na kraju, treba napomenuti da do sada nismo svjedočili izbornom katastrofalnom događaju zbog dubokih lažnjaka. Empirijske analize izbora 2024. diljem svijeta pokazale su malo dokaza da je AI-generirana dezinformacija promijenila ishod nekih izbora cetas.turing.ac.uk weforum.org. Tradicionalne dezinformacije (jeftino montirani “jeftini lažnjaci”, glasine, stranačke interpretacije) i dalje su imale puno veći udio u širenju laži od sofisticiranih dubokih lažnjaka knightcolumbia.org knightcolumbia.org. Međutim, stručnjaci upozoravaju da odsutnost katastrofe do sada nije razlog za opuštanje cetas.turing.ac.uk weforum.org. Tehnologija napreduje brzo, a neprijateljski akteri svakodnevno uče. Čak i ako duboki lažnjaci nisu preokrenuli velike rezultate izbora 2024., ipak su oblikovali diskurs – primjerice, viralne AI laži o kandidatima postajale su teme glavnih političkih rasprava cetas.turing.ac.uk. Štoviše, percipirana prijetnja dubokih lažnjaka sama po sebi pridonijela je javnoj anksioznosti i nepovjerenju prema izbornom procesu cetas.turing.ac.uk cetas.turing.ac.uk. Potencijal za ozbiljnije incidente ostaje, pogotovo kako se približavaju ključni izbori 2025. Demokratska društva stoga moraju duboke lažnjake tretirati kao ozbiljno sigurnosno i integracijsko pitanje te se suočiti i s izravnom prijetnjom lažnih medija i općom erozijom istine u izbornom prostoru.

Nedavni incidenti: Deepfakeovi koji remete politiku

Stvarni primjeri iz posljednjih nekoliko godina pokazuju kako je sintetički medij već iskorišten kao oružje u političkim kontekstima. U nastavku razmatramo nekoliko značajnih incidenata i studija slučaja deepfakeova i AI-generiranih dezinformacija koje su utjecale na izbore ili javnu raspravu:

  • Ukrajina (ožujak 2022.) – Video “Predaja”: U ranim danima ruskog rata protiv Ukrajine, pojavio se video koji je prikazivao ukrajinskog predsjednika Volodimira Zelenskog kako poziva svoje vojnike da polože oružje i predaju se. Video je bio deepfake, s umjetno promijenjenim izgledom i glasom Zelenskog icct.nl. Karakteristične greške (zamućeni rubovi, neusklađena boja vrata) odale su prijevaru, a ukrajinski mediji su brzo raskrinkali podvalu. Ovaj incident – prvi poznati slučaj korištenja deepfakea u oružanom sukobu – nagovijestio je kako se AI propagandom može pokušati potkopati čelnike tijekom kriza icct.nl. Iako lažni video Zelenskog nije uspio demoralizirati ukrajinski otpor, pokazao je namjeru i sposobnost zlonamjernih aktera (u ovom slučaju sumnjivih ruskih operativaca) da koriste deepfakeove za informacijski rat.
  • Slovačka (rujan 2023.) – Izborna dezinformacija: Samo nekoliko dana prije slovačkih parlamentarnih izbora, deepfake audio snimke postale su viralne, navodno prikazujući Michala Šimečku, vođu stranke Progresivna Slovačka, kako priznaje izbornu prijevaru i čak predlaže udvostručenje cijene piva brennancenter.org. U nekim verzijama bio je jedva vidljiv napomena da je riječ o AI-generiranom sadržaju, ali se pojavila tek na samom kraju snimke – najvjerojatnije namjerna varka kako bi se slušatelje dovelo u zabludu brennancenter.org. Tajming je bio očito strateški, neposredno prije glasanja. Šimečkova prozapadna stranka tijesno je izgubila od proruskog suparnika, a neki komentatori nagađali su da je deepfake ocrnjivanje u zadnji čas možda utjecalo na rezultat brennancenter.org. Ovaj slučaj pokazuje kako strani ili domaći akteri mogu koristiti deepfakeove za utjecaj na tijesnu izbornu utrku te koliko je teško suprotstaviti se lažnim narativima u posljednjim trenucima kampanje.
  • Tajvan (siječanj 2024.) – Operacije stranog utjecaja: Uoči predsjedničkih izbora na Tajvanu 2024., promatrači su zabilježili kinesku dezinformacijsku kampanju pomoću deepfakeova s ciljem diskreditacije kandidata Lai Ching-tea. Lažni videozapisi kružili su internetom prikazujući Lai-a (iz vladajuće, pro-nezavisne stranke) kako iznosi izjave koje nikad nije dao – primjerice, lažno sugerirajući da podržava program svojih protivnika policyoptions.irpp.org. U jednom slučaju, AI-generirani audio Lai-a objavljen je tako da izgleda kao da kritizira vlastitu stranku policyoptions.irpp.org s ciljem da oslabi podršku među biračima. Ti napadi sintetičkim medijima, koji vode podrijetlo iz Kine, imali su za cilj utjecati na javno mnijenje i unijeti zbrku u tajvansku demokraciju policyoptions.irpp.org. Na kraju, Lai je pobijedio na izborima i analitičari su procijenili da kineska deepfake kampanja nije značajno utjecala na ishod policyoptions.irpp.org. No to je pružilo školski primjer neprijateljske strane sile koja koristi AI propagandu protiv demokratskih izbora policyoptions.irpp.org policyoptions.irpp.org. I dalje ostaje zabrinutost da bi u nekoj drugoj, tijesnijoj izbornoj utrci takve taktike mogle imati veći utjecaj.
  • Sjedinjene Američke Države (2024.) – Deepfakeovi tijekom kampanje: Izborni ciklus 2024. u SAD-u zabilježio je naglo povećanje AI-generiranog političkog sadržaja koji, iako nije poremetio izborne rezultate, izazvao je uzbunu. Početkom 2024. glasači u New Hampshireu dobili su zbunjujući automatski poziv: glas nalik predsjedniku Joeu Bidenu kako Demokratima govori “da sačuvaju svoj glas, ne koriste ga na ovim izborima.” Nekima je glas zvučao autentično, ali poruka je bila sumnjiva – Biden nikada ne bi pozvao svoje pristaše da ne glasaju. U stvarnosti se radilo o deepfake klonu glasa Bidena, poslanom tisućama birača u očitom pokušaju suzbijanja glasovanja aljazeera.com aljazeera.com. Ovaj incident, koji je došao do procijenjenih 5000 telefonskih brojeva u New Hampshireu, pokazao je koliko je jeftino i lako moguće izvesti takve prljave trikove – konzultant koji je izradio deepfake Bidenov glas izjavio je da je to trajalo samo 20 minuta i oko 1 USD računalnih troškova policyoptions.irpp.org policyoptions.irpp.org. U međuvremenu su se na društvenim mrežama AI-generirane slike pojavile i u službenim izbornim materijalima. Posebno je tim guvernera Floride Rona DeSantisa objavio negativnu reklamu s prerađenim slikama Donalda Trumpa kako grli dr. Anthonyja Faucija – aludirajući kako je Trump bio preblizak bivšem COVID savjetniku nepopularnom među desničarima. Ispostavilo se da su slike Trumpa i Faucija bile AI-generirani lažnjaci ubačeni u video od strane kampanje brennancenter.org, što je izazvalo javnu osudu kada je otkriveno. U drugom slučaju, AI-izrađen video predsjednika Bidena koji “obraća se” naciji usporenim govorom proširio se internetom, no ubrzo je razotkriven kao laž. Neki lažni videozapisi Bidena i potpredsjednice Harris skupili su milijune pregleda na društvenim mrežama cetas.turing.ac.uk, što pokazuje koliko se brzo ovakav sadržaj širi. Čak su se uključili i tehnološki moguli: Elon Musk je zloglasno ponovno podijelio grubo editirani video potpredsjednice Harris (označen kao “satira”) koji prikazuje kako priča besmislice – brišući tako granicu između mema, humora i dezinformacija cetas.turing.ac.uk cetas.turing.ac.uk. Iako nijedan od ovih deepfakeova nije promijenio tijek izbora, oni su ojačali lažne narative (npr. o Bidenovoj mentalnoj sposobnosti ili Trumpovoj lojalnosti) i dodatno onečistili informacijsko okruženje. Američki dužnosnici također brinu o mogućnosti deepfakeova usmjerenih na izbornu infrastrukturu – npr. lažni audiosnimci nadzornika izbora koji zaposlenicima daju pogrešne upute aljazeera.com – iako u 2024. nije javno potvrđen nijedan veći takav incident.

Ovi primjeri ističu globalni opseg prijetnje. Deepfakeove su koristile državne sile u geopolitičkim sukobima, provokatori u domaćim izborima od Europe do Azije, ali i kampanje i pristaše diljem SAD-a. Javljali su se u obliku lažnih govora, slika, poziva i videa – ciljali su i birače i izborne službenike. Dosadašnji incidenti nude i neke pouke: mnogi deepfakeovi jesu bili otkriveni i razotkriveni relativno brzo (često zahvaljujući novinarima ili provjeravateljima činjenica), a u nekoliko slučajeva je i negativna reakcija na korištenje deepfakeova (npr. DeSantisova reklama) uzrokovala loš publicitet za počinitelje. To sugerira da transparentnost i budnost mogu ublažiti štetu. Ipak, trend je jasan – takve sintetičke obmane su sve češće i sve ih je teže odmah razlikovati od stvarnosti. Svaki izbori donose nove “prvijence” (2024. je vidjela prve AI “robocall” prijevare s ciljem utjecaja na glasanje, prvu kampanjsku uporabu deepfake oglasa, itd.), a rizik od ozbiljnijeg deepfake incidenta sve je veći kako se približavamo 2025. godini.

Otkrivanje i suzbijanje deepfakeova: alati i tehnologije

Ključna komponenta zaštite izbora je razvoj pouzdanih alata za otkrivanje i ublažavanje deepfake sadržaja. Istraživači, tehnološke tvrtke i vlade utrkuju se u stvaranju tehnologija koje mogu otkriti AI krivotvorine i potvrditi autentičnost stvarnog sadržaja. Ovdje dajemo pregled trenutačnog stanja detekcije deepfakeova i srodnih protumjera:

  • Automatizirani detektori deepfakeova: Prva linija obrane je AI koji se bori protiv AI-ja – algoritmi trenirani za analizu medija i otkrivanje suptilnih znakova manipulacije. Ti sustavi detekcije traže suptilne artefakte ili nedosljednosti koje ostavljaju generativni modeli. Rani deepfakeovi, primjerice, često su imali nepravilno treptanje očiju ili nesavršen sinkron usana. Današnji detektori koriste duboke neuronske mreže za analizu osvjetljenja i sjena na licima, uzoraka audio frekvencija ili bioloških signala (npr. puls na videu) koje AI možda neće uspješno replicirati. Tehnološke tvrtke izradile su interne alate – primjerice, Microsoft je 2020. predstavio “Video Authenticator” koji može označiti lažne videozapise analizom slika po kadrovima. Platforme poput Facebooka i X-a (Twittera) uložile su u istraživanje detekcije i koriste određene filtere za prepoznavanje poznatih lažnih medija. Akademske inicijative i natjecanja (kao što su Facebook Deepfake Detection Challenge i IEEE konferencije) potaknula su napredak, a startupi poput Sensity i Reality Defender nude komercijalne usluge detekcije deepfake sadržaja klijentima. Ipak, ovo je uistinu utrka u naoružanju: kako se detekcija poboljšava, kreatori deepfakeova prilagođavaju se i stvaraju još uvjerljivije krivotvorine koje zaobilaze automatizirane provjere. Zanimljivo je napomenuti da je Meta u izvješću iz 2023. otkrila kako je od sve dezinformacije označene tijekom izbornog ciklusa 2024., “manje od 1%” identificirano kao AI-generirani sadržaj weforum.org, što sugerira ili da su deepfakeovi relativno rijetki ili da su mnogi prošli neopaženo kroz sustave za detekciju.
  • Vodoznaci i podrijetlo sadržaja: Druga strategija je označavanje AI-generiranog sadržaja već pri samom nastanku kako bi ga korisnici niže u lancu mogli lako prepoznati kao sintetički. EU snažno promiče ovaj pristup – novi EU AI Act izričito nalaže da svaki AI-generirani ili AI-manipulirani sadržaj mora biti jasno označen ili imati vodoznak realitydefender.com. Tvrtke bi morale ugraditi indikator (digitalni vodoznak ili meta podatke) kada je slika, videozapis ili zvuk proizveden umjetnom inteligencijom. U teoriji, preglednici ili društvene mreže mogli bi automatski označavati ili filtrirati sadržaj s tim oznakama. Vodoznaci obećavaju, posebno kod suzbijanja ležerne zloupotrebe. Glavni pružatelji AI modela (poput OpenAI-a, Googlea i drugih) razgovarali su o dobrovoljnom označavanju slika ili teksta koje njihovi sustavi generiraju. Dodatno, koalicija medijskih i tehnoloških organizacija razvija standarde podrijetla (npr. C2PA, Koalicija za podrijetlo i autentičnost sadržaja) kako bi se kriptografski bilježilo podrijetlo i povijest uređivanja digitalnih medija. Primjerice, novinska fotografija ili izborni oglas mogli bi nositi sigurnosni certifikat o autentičnosti, što svatko može provjeriti tko je stvorio sadržaj i je li mijenjan cetas.turing.ac.uk. Američka vlada ovo prihvaća; Bijela kuća je naložila saveznoj administraciji da do 2025. godine usvoje smjernice za “autentičnost dizajnom”, ugrađujući meta podatke o podrijetlu u sav digitalni sadržaj koji proizvode cetas.turing.ac.uk. Ako bi se ove mjere široko prihvatile, znatno bi se otežalo predstavljanje lažnog sadržaja kao stvarnog.
  • Ograničenja oznaka: Iako su alati transparentnosti ključni, oni nisu nepogrešivi. Vodoznaci se mogu ukloniti ili izmijeniti od strane odlučnih protivnika. Zapravo, istraživači su već pokazali načine za uklanjanje ili prikrivanje AI vodoznaka realitydefender.com, a zlonamjerni akter koji sam razvija generativni model može jednostavno odlučiti ne uključiti vodoznak. Također, meta podaci o podrijetlu koriste samo ako ih svi široko primjenjuju i ako korisnici zaista provjeravaju podatke. Kreator deepfakeova može također koristiti trik “piggybacking podrijetla” – uzeti autentičnu fotografiju ili video i preko nje postaviti lažne elemente, tako da završni materijal i dalje nosi digitalni potpis izvornog fajla. Ovi izazovi pokazuju da ne možemo se osloniti samo na oznake na sadržaju. Kako navodi jedna AI sigurnosna tvrtka, rješenja poput vodoznaka i meta podataka funkcioniraju samo dok kreatori sadržaja surađuju i označavaju svoj izlaz – no to neće zaustaviti zlonamjerne aktere realitydefender.com. Zato je detekcija na temelju analize sadržaja (detekcija znakova AI manipulacije u samom sadržaju) i dalje neophodna realitydefender.com. Najbolja obrana vjerojatno će kombinirati oba pristupa: napredni automatizirani detektori za prepoznavanje lažnih sadržaja i autentifikacijske sustave za potvrdu legitimnih medija.
  • Detekcija u stvarnom vremenu za video/zvučne prijenose: Nova potreba su alati koji mogu uhvatiti deepfakeove u stvarnim prijenosima. Zamislite hipotetski scenarij lažnog “live” videosastanka s političarem ili službenikom – što se i dogodilo 2023. kada su kriminalci u Hong Kongu deepfakeom prevarili Zoom sastanak i sličnost izvršnog direktora, čime je odobren lažni transfer od 25 milijuna dolara weforum.org. U tom slučaju više sudionika na pozivu – uključujući imitaciju CFO-a – svi su bili AI-generirani. Otkrivanje takvih deepfakeova u stvarnom vremenu izuzetno je izazovno. Tvrtke razvijaju rješenja poput dodataka za video konferencije koji mogu upozoriti korisnika ako slika ili glas djeluju sintetički izmijenjeni (primjerice, analizom kašnjenja zvuka i spektarskih anomalija, ili usporedbom pokreta lica na ekranu s licem osobe zabilježene kamerom). Neki startupi tvrde da nude API-jeve za detekciju deepfakeova u stvarnom vremenu koji se mogu integrirati u streaming platforme ili čak potvrditi identitet govornika na događajima uživo. Za sada, detekcija u stvarnom vremenu zaostaje za napadačima, pa je naglasak na preventivnim mjerama (korištenje lozinki ili dogovorenih “šifri” u telefonskim pozivima radi potvrde identiteta, što preporučuju i policijske vlasti weforum.org).
  • Ljudska provjera činjenica i oznake zajednice: Tehnologija sama po sebi nije srebrni metak. Budan ljudski nadzor ostaje ključan. Medijske organizacije, grupe za provjeru činjenica i platforme uspostavili su posebne timove za praćenje viralnih deepfakeova tijekom izbornog perioda. Ti timovi koriste OSINT (tehnike otvorenih izvora) i forenzične alate za analizu sumnjivog sadržaja – primjerice, provjerom vremenskih oznaka, traženjem nedosljednosti (poput različitih naušnica na političarki u videu ili čudnih pokreta usta) te brzim objavljivanjem demantija. Pomažu i kolektivni napori: na X/Twitteru opcija “Community Notes” koristi se za označavanje objava s AI-generiranim slikama/podacima dodatnim objašnjenjem. Tijekom nedavnih izbora, korisnici su često razotkrivali deepfakeove u roku od nekoliko sati, objavljujući usporedbe stranica ili ukazujući na mane. Ovakva kolektivna budnost, uz digitalnu pismenost, snažan je alat. Platforme sve više oslanjaju na korisnike i neovisne provjeravatelje s obzirom na ogroman opseg sadržaja koji automatski filteri moraju obrađivati. Nedostatak je da deepfake može postati viralan prije nego bude demantiran. Ipak, poboljšanje brzine odgovora i širenje svijesti pomažu (da što više korisnika sami prepozna lažni sadržaj) čime se smanjuje šteta.

Zaključno, detekcija deepfakeova je aktivno i brzo razvijajuće područje. Ostvaren je napredak – detektori danas su znatno bolji nego 2018., a inicijative poput Content Authenticity Initiative teže standardizaciji verifikacije. No, izazovi ostaju zbog stalnog nadmudrivanja s protivnicima i potrebe širokog prihvaćanja alata. U narednim godinama očekuje se da će se tehnologija detekcije dublje integrirati u društvene mreže, uredničke novinske sustave pa čak i uređaje (zamislite da vaš mobitel upozori kako dolazni video može biti AI-generiran). Ključno je da alati za detekciju i potvrdu autentičnosti idu ruku pod ruku s javnim obrazovanjem, kako bi korisnici razumjeli značenje upozorenja i djelovali sukladno tome. Ovaj tehnološki aspekt tek je jedan stup veće strategije potrebne za suzbijanje prijetnji sintetičkim medijima.

Odgovori politika i regulatorni okviri

Donositelji politika diljem svijeta shvatili su prijetnju deepfakeova i počeli izrađivati zakone i regulative za rješavanje tog problema. Iako je pitanje novo, u većim demokracijama pojavljuje se različit splet odgovora. U nastavku je pregled zakonodavnih i regulatornih napora koji su u tijeku:

  • Sjedinjene Američke Države: U SAD-u trenutačno ne postoji opći savezni zakon protiv političkih deepfakeova, ali raste pritisak da se popuni taj jaz. U Kongresu je predstavljeno više prijedloga zakona s ciljem suzbijanja zlonamjernih deepfakeova. Primjerice, početkom 2024. zastupnici su predložili No AI FRAUD Act kao odgovor na zapažene incidente (poput AI-generiranih eksplicitnih slika slavnih osoba) policyoptions.irpp.org. Ovaj prijedlog zakona namjerava uspostaviti savezni okvir koji kriminalizira određene štetne upotrebe AI-a, primjerice prijevarne političke deepfakeove i zavaravajuće pornografske krivotvorine policyoptions.irpp.org. Još jedna ideja je obveza otkrivanja AI-generiranog sadržaja u izbornim oglasima (tako da kampanje moraju jasno označiti ako oglas sadrži sintetičke medije). U međuvremenu, Federal Communications Commission (FCC) poduzela je ciljane korake zabranivši upotrebu AI glasovnih klonova u automatiziranim pozivima čija je svrha prijevara ili nanošenje štete policyoptions.irpp.org. Povod su bile prijevare u kojima su prevaranti imitirali glasove stvarnih osoba. Ova odluka čini nezakonitim korištenje sintetičkih glasovnih poruka kako bi se obmanulo primatelje, bilo u telemarketingu ili političkim kampanjama. Velik dio regulacije deepfakeova u SAD-u događa se na državnoj razini. Od 2019. države poput Kalifornije, Teksasa i drugih donijele su zakone o izbornim deepfakeovima. Kalifornija zabranjuje distribuciju materijalno obmanjujućih deepfake videozapisa s kandidatima unutar 60 dana od izbora (uz iznimke za satiru/parodiju) brennancenter.org. Teksas je deepfake videozapis s ciljem nanošenja štete kandidatu ili utjecanja na birače proglasio kaznenim djelom državnog zatvora brennancenter.org. Do sredine 2025., četrnaest američkih država donijelo je ili razmatra zakone o deepfakeovima u izbornom kontekstu citizen.org. Posebno je važno što su ti napori privukli dvostranačku podršku – političari obiju stranaka slažu se da je AI-manipulirana dezinformacija prijetnja demokraciji citizen.org citizen.org. Državni se zakoni razlikuju u pristupu: neki predviđaju kaznenu odgovornost za objavu štetnih deepfakeova o kandidatu, dok drugi zahtijevaju upozoravajuće oznake na sintetičkim medijima u oglasima. Inicijativa Public Citizen zatražila je od Federal Election Commission (FEC) ažuriranje pravila i zabranu korištenja zavaravajućih deepfakeova u federalnim izbornim kampanjama brennancenter.org. FEC još uvijek nije donio nova pravila, ali tema je u fokusu. Američki zakonodavci moraju pritom balansirati s pravom na slobodu govora – preširoke zabrane mogu se sudariti s Prvim amandmanom. Satira i parodija (koje podliježu politički zaštićenom govoru) često uključuju obrađene slike ili videa – zakoni moraju ciljati isključivo zlonamjernu obmanu. To se vidi u mnogim državnim statutima, koji izričito dopuštaju iznimke za parodiju, satiru ili novinarsku uporabu brennancenter.org brennancenter.org. Opći je zaključak ipak da lažni AI-generirani sadržaj koji namjerno želi zavarati birače ili izazvati poremećaje nema legitimnu vrijednost u demokraciji i može se ograničiti bez narušavanja slobode izražavanja brennancenter.org brennancenter.org.
  • Europska unija: EU odlučno uvodi opću regulaciju AI-a, uključujući mjere izravno vezane uz deepfakeove. Povijesni EU AI Act, dogovoren 2024. (s punom primjenom do 2026., a nekim odredbama i ranije), uključuje zahtjev transparentnosti za sintetičke medije. Prema AI Actu, svaki AI sustav koji može generirati “deepfake” sadržaj mora osigurati da je sadržaj označen kao AI-generiran (osim u određenim iznimkama poput umjetnosti ili sigurnosnog istraživanja) realitydefender.com. To u praksi znači da će developeri generativnih slika ili video modela u EU imati obvezu ugrađivanja vodoznaka ili meta podataka kao oznake da je sadržaj sintetički. Nepoštivanje može rezultirati visokim kaznama. Dodatno, novoodobreni Kodeks postupanja o dezinformacijama (dobrovoljni kodeks koji su potpisale najveće mrežne platforme) konkretno ističe deepfakeove kao prijetnju i obvezuje platforme na razvijanje “politika, mjera i alata za suzbijanje manipuliranog sadržaja” brennancenter.org brennancenter.org. Primjerice, platforme su se obvezale postaviti sustave za detekciju te označavanje ili uklanjanje deepfake videa koji mogu izazvati štetu u javnosti, i surađivati s fact-checkerima na brzom opovrgavanju lažnog AI sadržaja. Prema Digital Services Actu (DSA) – koji vrijedi od 2023. – vrlo velike online platforme u EU moraju procijeniti i ublažiti “sistemske rizike” na svojim uslugama, uključujući širenje AI-generiranih dezinformacija. Ova regulatorna presija natjerala je tvrtke poput Mete, Googlea i TikToka na uvođenje novih zaštita tijekom izborne sezone 2024–2025: od naprednije detekcije deepfakeova do vidljivijeg označavanja sintetičkih medija. Ukratko, Europa zauzima proaktivni pristup transparentnosti u regulaciji: zahtjeva oznake na AI izlazima i odgovornost platformi za suzbijanje deepfake dezinformacija. Kritičari navode da će provedba biti zahtjevna (kako uloviti sve neoznačene krivotvorine u moru online sadržaja?), ali EU šalje jasnu poruku da su nekontrolirani deepfakeovi neprihvatljivi i nespojivi s njezinim standardima digitalnog upravljanja realitydefender.com realitydefender.com.
  • Ujedinjeno Kraljevstvo: UK još nije donio specifične zakone o deepfakeovima u izborima, ali rješava problem šire kroz regulaciju online sigurnosti i AI-a. Godine 2023., UK je donio Online Safety Act, sveobuhvatan zakon o štetnom internetskom sadržaju. Taj zakon je kriminalizirao dijeljenje neodobrene deepfake pornografije – što znači da je zabranjeno stvaranje ili dijeljenje eksplicitnih sintetičkih slika nekoga bez pristanka policyoptions.irpp.org. Time je suzbijena strana uznemiravanja deepfakeovima. Za izbornu dezinformaciju, Online Safety Act daje Ofcomu (regulator za komunikacije) ovlasti izdavanja pravila o suzbijanju dezinformacija. Stručnjaci pozivaju Ofcom na izradu Kodeksa ponašanja o dezinformacijama koji će uključivati standarde za postupanje s AI-manipuliranim sadržajem cetas.turing.ac.uk. Takav kodeks, možda oblikovan prema europskom modelu, mogao bi potaknuti društvene mreže i stranke u UK-u da se suzdrže od širenja deepfakeova te jasno označuju sintetičke materijale. Također, traži se od izborne komisije UK-a da izradi smjernice političkim strankama o odgovornoj AI upotrebi, s jasnim crvenim linijama za zavaravajuće deepfakeove u kampanji cetas.turing.ac.uk. Krajem 2024. međustranačko povjerenstvo preporučilo je pooštravanje izbornih zakona kako bi se deepfake dezinformacije kažnjavale, iako zakon još nije službeno predložen. Vlada je najavila da preispituje postojeće zakone (poput onih o kleveti, prijevari i izbornim prekršajima) jesu li dostatni za progon zlonamjerne deepfake uporabe ili su potrebni novi propisi cetas.turing.ac.uk. Usto, UK osniva AI Safety Institute i bio je domaćin globalnog AI Safety Summita 2023., gdje je manipulacija informacijama bila na dnevnom redu. Britanska vlada naglasak stavlja na jačanje tehničke obrane i medijske pismenosti (više u preporukama u nastavku) koliko i na zakonodavne zabrane. Ipak, UK-ovi koraci kao kriminalizacija deepfake pornografije i ovlasti regulatora pokazuju razumijevanje da lažni AI sadržaj zahtijeva politički odgovor.
  • Kanada: Do 2024. godine Kanada nije imala poseban zakon protiv deepfakeova u izbornom kontekstu. Canada Elections Act ne zabranjuje izrijekom AI-generirane dezinformacije ili deepfakeove, pa bi ih se mogli progoniti samo kroz opće odredbe (poput zakona protiv prijevare ili lažnog predstavljanja) što možda nije dovoljno cef-cce.ca. Na ovaj regulatorni jaz upozoravaju stručnjaci, ističući da je Kanada “korak ili dva iza” drugih demokracija po tom pitanju policyoptions.irpp.org. U jesen 2023. Kanada je imala manji incident s deepfakeom kada se lažni audio zapis, koji je zvučao kao političar, proširio u javnosti. Iako je imao mali učinak, podigao je svijest. Elections Canada (izborno povjerenstvo) od tada označava AI dezinformacije kao rastuću prijetnju i proučava potencijalne odgovore cef-cce.ca. Analitičari traže novi zakon “jučer”, možda i širenje ovlasti Povjerenika za izbore za borbu protiv lažnih sintetičkih medija u kampanjama policyoptions.irpp.org. Kanada može preuzeti rješenja od saveznika: na primjer, uvesti pravila o otkrivanju AI u izbornim oglasima ili proglasiti prekršajem širenje materijala za koji se zna da je to deepfake namijenjen zavaravanju birača. Do sredine 2025., još nije predložen zakon, ali raste pritisak na Kanadu da se pridruži državama koje zakonski rješavaju deepfakeove u izborima policyoptions.irpp.org.
  • Druge demokracije: Diljem svijeta nekoliko drugih demokracija uvodi mjere:
    • Australija: Australska vlada, zabrinuta zbog AI “propadanja istine” prije nadolazećih izbora, najavila je planove za zakon o “istini u političkom oglašavanju” kojim bi se zabranili zavaravajući deepfake videozapisi i audio zapisi u izbornim kampanjama innovationaus.com. Prijedlog, koji je 2023. predstavila vlada Albanesea, zabranio bi objavu sintetičkog sadržaja koji imitira stvarne kandidate ili može zavarati birače, tijekom izbornih razdoblja innovationaus.com. No, zakonodavni proces je spor – izvješća sugeriraju da ti deepfake propisi možda neće stupiti na snagu prije 2026. innovationaus.com, što znači da bi savezni izbori 2025. mogli proći bez njih. Australska izborna komisija u međuvremenu je izdala smjernice i naglasila potrebu za perspektivom (komisija je upozorila da se pretjeranim fokusom na deepfakeove može nenamjerno smanjiti povjerenje u stvarne informacije) ia.acs.org.au. Australski političari iz svih stranaka podržavaju suzbijanje AI dezinformacija, dok se nastavlja rasprava kako to uravnotežiti sa slobodnim političkim govorom theguardian.com sbs.com.au.
    • Tajvan: Nakon što se suočio s deepfake miješanjem iz Kine, Tajvan je izmijenio izborne zakone. Godine 2023. tamošnji je parlament izmijenio Election and Recall Act i izričito zabranio dijeljenje lažnih audio ili video zapisa kandidata s ciljem lažiranja izbornih rezultata policyoptions.irpp.org. To je omogućilo jasan pravni postupak protiv odgovornih za takve napade kakvi su viđeni 2024. Tajvan je također uložio u obrazovanje javnosti te sustav brzog odgovora (uz suradnju vlade, civilnog društva i tehnoloških platformi) za opovrgavanje lažnih informacija, što je pomoglo u smanjenju štete policyoptions.irpp.org policyoptions.irpp.org.
    • Europske demokracije: Pojedine europske zemlje (uz EU regulative) počele su koristiti postojeće zakone za deepfakeove. Tako primjerice francuski Zakon protiv “lažnih informacija” u izborima (iz 2018.) može se primijeniti na deepfake videa koja se šire radi utjecaja na izbore, dok njemački strogi zakoni o kleveti i izborima mogu biti upotrijebljeni slično. No također vidimo i prijedloge novih mjera: u Njemačkoj se raspravlja o obvezi političkih stranaka da deklariraju upotrebu sintetičkih medija u kampanji. U UK-u, kako je već navedeno, buduće izmjene izbornog zakona (npr. otisak na digitalnim oglasima) možda će uključivati i AI oznake cetas.turing.ac.uk.
    • Međunarodne inicijative: Sve se više prepoznaje kako je potrebna globalna suradnja, budući da dezinformacije prelaze granice. G7 ima radnu skupinu za “AI upravljanje” koja je 2024. objavila priopćenje o borbi protiv zloupotrebe AI-a u informacijskom prostoru. Bidenova administracija u SAD-u dogovorila je dobrovoljne obveze velikih AI developera (OpenAI, Google, Meta itd.) da implementiraju vodoznake za AI sadržaj i ulažu u prevenciju zloupotrebe. Iako nisu pravno obvezujuće, ove mjere ukazuju na nastajanje međunarodne norme u korist transparentnosti i odgovornosti u korištenju AI-a.

Zaključno, odgovori politika na deepfakeove sve su intenzivniji. Zakonodavstvo još hvata korak s tehnologijom, ali smjer kretanja je jasan: vlade nastoje kriminalizirati najštetnije upotrebe sintetičkih medija u izborima, propisati transparentnost (oznake/obavijesti) za AI-generirani sadržaj te osnažiti regulatore ili izborna tijela za borbu protiv digitalnih krivotvorina. Istodobno, moraju zaštititi legitimni govor poput satire i izbjeći drakonska pravila koja bi se mogla zloupotrijebiti za cenzuru. Pronaći ravnotežu nije lako. Različiti pristupi – od američkih državnih zakona do EU mandata – poslužit će kao test u 2025. Zakonodavci će zasigurno dotjerivati ove alate kako budemo učili što djeluje. No ne djelovati nije opcija: kako kaže jedan pratitelj politika, “Bez regulacije, deepfakeovi će vjerojatno još više zbunjivati birače i podrivati povjerenje u izbore.” citizen.org citizen.org Sljedeći odjeljak donosi strateške preporuke temeljene na ovim naporima i usmjerene na sve sudionike demokratskog procesa.

Strateške preporuke za zaštitu izbora

Zaštita integriteta izbora u dobu umjetne inteligencije zahtijevat će višestruku strategiju. Nijedan pojedinačni alat ili zakon ne može riješiti problem deepfakeova; umjesto toga, potrebna je koordinirana suradnja vlada, tehnoloških platformi, medija i civilnog društva. U nastavku su strateške preporuke kroz ove sektore s ciljem ublažavanja rizika i osiguravanja da birači mogu donositi informirane odluke 2025. i kasnije:

Vlade i donositelji politika

1. Ojačajte pravnu zaštitu i odvraćanje: Vlade bi trebale donijeti ili izmijeniti zakone kako bi izričito zabranile zlonamjernu uporabu sintetičkih medija na izborima. To uključuje kriminalizaciju stvaranja ili distribucije – s namjerom obmanjivanja javnosti ili sabotaže izbora – bilo kakvog deepfakea koji lažno prikazuje kandidata ili manipulira informacijama vezanim uz izbore (poput biračkih procedura). Ključna je suženost zakona – propisi moraju ciljati namjernu obmanu (dezinformacije), uz jasna izuzeća za satiru, parodiju ili očitu umjetničku slobodu. Kazne (novčane ili kaznene prijave) djelovat će odvratno za moguće kreatore deepfakeova, osobito ako se brzo provode. Na primjer, predložena australska zabrana obmanjujućih deepfakeova tijekom kampanja i novi klauzuli Tajvana protiv AI-manipuliranog izbornog sadržaja mogu poslužiti kao modeli innovationaus.com policyoptions.irpp.org. U SAD-u, federalno djelovanje (poput predloženog No AI FRAUD Act-a) može uspostaviti nacionalni minimum, dopunjujući državne zakone. Osim toga, vlade bi trebale ažurirati pravila o financiranju kampanja i oglašavanju: zahtijevati da svaki politički oglas (online ili putem etera) koji sadrži sintetičke medije ima jasnu odrednicu (npr. “Ova slika/video je generiran umjetnom inteligencijom”) kako gledatelji ne bi bili obmanjeni. Pravila o istinitosti u političkom oglašavanju moraju se proširiti na AI sadržaj.

2. Provedite protokole odgovora na izborne incidente: Izborna tijela trebala bi uspostaviti formalne protokole za reakciju na ozbiljne incidente deepfakeova u stvarnom vremenu. Odličan primjer je Kanadin Protokol o kritičnim izbornim incidentima, koji okuplja visoke dužnosnike za procjenu i informiranje javnosti o prijetnjama stranog miješanja ili dezinformacijama tijekom izbora cetas.turing.ac.uk cetas.turing.ac.uk. Druge demokracije trebale bi uvesti slične mehanizme. Ako se pojavi opasan deepfake (primjerice, lažni video kandidata koji priznaje poraz na dan izbora), protokol bi se aktivirao – dužnosnici, obavještajni stručnjaci i tehnološke platforme brzo bi provjerili istinitost i izdali javno priopćenje pobijajući lažni sadržaj i pojasnili činjenice cetas.turing.ac.uk. Ova brza reakcija ključna je za suzbijanje “vatroslova” lažnih informacija. Vlade bi trebale vježbati te postupke unaprijed (izraditi različite scenarije deepfakeova) kako bi mogle brzo i jedinstveno reagirati po potrebi.

3. Uložite u infrastrukturu za detekciju i autentikaciju: Agencije javnog sektora trebale bi investirati resurse u razvoj detekcije deepfakeova i autentikacije sadržaja. To uključuje financiranje istraživanja i razvoja (primjerice, programa nalik DARPA-i usmjerenih na AI-posredovane dezinformacije), podršku uvođenju alata za detekciju za izbornu upotrebu i primjenu standarda za autentikaciju u vladinoj komunikaciji. Konkretnan korak bio bi da državni mediji (javna televizija, službeni računi na društvenim mrežama itd.) počnu dodavati provjerljive metapodatke o porijeklu svim službenim fotografijama, videozapisima i audiozapisima koje objavljuju cetas.turing.ac.uk. Tako se stvara temelj “provjereno autentičnih” informacija. Birači i novinari tada mogu vjerovati da je svaki video s državnim pečatom u metapodacima autentičan – i obrnuto, biti oprezniji prema sličnim snimkama bez tih vjerodajnica. Vlade mogu biti primjer za ovaj pristup “autentičnosti po dizajnu” cetas.turing.ac.uk, koji već istražuju SAD i UK. Nadalje, policija i izborna tijela trebaju biti opremljeni jedinicama za forenzičku analizu radi procjene sumnjivih medija tijekom kampanja. Saznanje da vlasti imaju tehnička sredstva za traganje i atribuciju deepfakeova (te potencijalnu identifikaciju počinitelja) također će odvratiti zlonamjerne aktere.

4. Pojašnjenje i modernizacija postojećih zakona: Mnoge zemlje mogu primijetiti da se aktualni zakoni o prijevari, krađi identiteta, kleveti ili izbornom uplitanju mogu primijeniti na neke slučajeve deepfakeova – no moguće su rupe u zakonima. Vlade bi trebale pregledati svoj pravni okvir kako bi utvrdile treba li uvesti nove kategorije. Na primjer, postoje li zakonske odredbe koje se odnose na AI-generiranu imitaciju javnih osoba? Ako ne, potrebno ih je uvesti. Pripaziti i da zakoni o zaštiti podataka/privatnosti uključuju neovlaštenu uporabu tuđeg lika/glasa od strane AI-ja kao prekršaj. Pojašnjenje pravnog statusa štetnih deepfakeova (i obavještavanje javnosti o tome) važno je kako bi potencijalni počinitelji znali da im se može suditi. To također daje moć žrtvama (kandidatima ili građanima) da potraže pravnu zaštitu ako su meta. Ova analiza treba obuhvatiti i izborne zakone: ažurirati definicije protuzakonitog izbornog oglašavanja ili netočnih anketa kako bi izričito uključivali manipulacije sintetičkim medijima cetas.turing.ac.uk. Cilj je ukloniti svaku nejasnoću – potencijalni dezinformator ne bi smio reći “tehnički nije protuzakonito jer je to AI.” Ako su zakoni jasni, provođenje i procesuiranje su jednostavniji.

5. Ojačajte međunarodnu suradnju: Budući da kampanje dezinformacija često nastaju izvan granica (ili prelaze granice), demokratske vlade trebaju surađivati na ovom pitanju. Sigurnosne agencije i jedinice za kibernetičku sigurnost trebaju dijeliti informacije o novim deepfake taktikama koje se uočavaju (primjerice, ako neka zemlja otkrije stranu deepfake operaciju, treba upozoriti druge). Forumi poput Saveza za osiguranje demokracije, G7, EU-SAD dijaloga i drugi mogu koordinirati zajedničke izjave i norme protiv izbornih deepfakeova. Diplomatki pritisak se može usmjeriti na države koje sponzoriraju ili toleriraju takvo uplitanje. Također postoji prostor za zajednička istraživanja – npr. međunarodni centar za detekciju deepfakeova mogao bi objediniti podatke radi poboljšanja algoritama. Organizacije za praćenje izbora (poput OESS-a ili međunarodnih promatračkih misija) trebale bi ažurirati svoje metodologije kako bi nadzirale utjecaj sintetičkih medija, a države mogu ugraditi kontingencije za deepfakeove u uzajamne obrambene sporazume za demokratske procese. Ujedinjen nastup otežat će zlonamjernim akterima iskorištavanje slabosti pojedine zemlje.

6. Promicati javnu svijest i digitalnu pismenost: U konačnici, vlade imaju ulogu u edukaciji biračkog tijela o deepfakeovima. Mnoge zemlje sada razmatraju ili uvode programe digitalne pismenosti u školama i za opću javnost cetas.turing.ac.uk. Ti programi poučavaju ljude kako provjeriti informacije na internetu, prepoznati znakove manipuliranih medija i kritički razmišljati o izvorima. S obzirom na to koliko su deepfakeovi danas uvjerljivi, ključno je da svaki birač zna da ti lažni sadržaji postoje i da se osjeća osnažen dvaput provjeriti šokantan sadržaj (umjesto da ga slijepo vjeruje ili dijeli). Vlade bi trebale surađivati s obrazovnim ustanovama i nevladinim organizacijama na uključivanju svijesti o deepfakeovima u kurikulume i javne kampanje. Primjerice, prikazivanje usporednih stvarnih i deepfake isječaka političara kroz javne kampanje i objašnjavanje razlika podiže svijest. Dokazi ukazuju da su pojedinci s višom razinom medijske pismenosti i kritičkog razmišljanja znatno uspješniji u prepoznavanju deepfakeova i otporu na dezinformacije cetas.turing.ac.uk. Stoga je ulaganje u inicijative medijske pismenosti jedna od najučinkovitijih dugoročnih obrana. Kada javnost postane aktivna mreža senzora – koja otkriva i prijavljuje lažne sadržaje – utjecaj deepfake propagande može biti znatno umanjen.

Tehnološke platforme i AI developeri

1. Ojačajte pravila platformi i provedbu: Društvene mreže i online platforme glavni su kanali za širenje viralnih deepfakeova. Te tvrtke trebale bi usvojiti stroga pravila protiv manipuliranih medija koji obmanjuju korisnike, osobito u kontekstu izbora. Mnoge platforme su s tim već započele: primjerice, Facebook i Twitter (X) imaju pravila uklanjanja ili označavanja “manipuliranih medija” koji mogu izazvati štetu. No, provedba mora biti snažna. Platforme trebaju unaprijediti automatiziranu detekciju deepfakeova (kroz najnovije alate opisane ranije) i osigurati brzu provjeru od strane ljudskih moderatora kada korisnici prijave sumnjiv sadržaj. Tijekom izbornih razdoblja, kompanije mogu postaviti posebne “ratne sobe” i kanale suradnje s izbornim povjerenstvima za rješavanje potencijalnih deepfake incidenata u stvarnom vremenu. Kad se identificira lažni sadržaj, platforme bi ga trebale oznaciti lažnim ili odmah ukloniti te spustiti njegovu vidljivost u algoritmima kako bi se ograničilo daljnje širenje brennancenter.org brennancenter.org. Transparentnost je također ključna: platforme mogu objavljivati redovita izvješća o deepfake sadržaju koji su detektirali i poduzetim radnjama, čime se gradi javno povjerenje. Također bi trebali dijeliti primjere deepfakeova s istraživačima radi boljeg razumijevanja problema.

2. Provesti otkrivanje i praćenje deepfake sadržaja: Slijedeći primjer EU, platforme širom svijeta trebale bi zahtijevati da sadržaj generiran umjetnom inteligencijom bude označen i jasno prikazan. Primjerice, ako se postavi politički oglas koji sadrži AI-generiranu sliku ili glas, platforma bi mogla od uploadera zahtijevati da označi kućicu “ovaj sadržaj sadrži sintetičke elemente” – te zatim prikazati obavijest gledateljima (“Ovaj video je izmijenjen ili djelomično generiran AI-em”). Čak i izvan formalnih oglasa, platforme mogu koristiti alate za detekciju kako bi vizualno označile sumnjive deepfake videe (npr. upozorenje da autentičnost videa nije potvrđena). Nadalje, društvene mreže i usluge za dopisivanje mogle bi integrirati funkcionalnosti za provjeru autentičnosti sadržaja: koristeći standarde poput C2PA, mogu korisnicima prikazati ikonicu ako je izvor i povijest uređivanja slike potvrđena, ili obrnuto, označiti ako ti podaci nedostaju. Neke tehnološke tvrtke (Adobe, Microsoft, Twitter) već su uključene u takve napore. Ako ugrade signale o porijeklu sadržaja u svoje sučelje, platforme mogu pomoći korisnicima da lakše razlikuju stvarno od lažnog. Također bi trebale razvijati mehanizme za praćenje izvora – primjerice, ako se štetni deepfake brzo širi, mogu li identificirati tko ga je izvorno postavio, čak i ako je ponovno podijeljen tisućama puta? Suradnja s policijom kod većih incidenata (uz poštivanje zakona o privatnosti) bit će važna kako bi se pronašli počinitelji.

3. Zabrana zlonamjernih deepfake korisnika i mreža: Platforme moraju biti oprezne prema organiziranim akterima koji opetovano koriste deepfake sadržaj. To znači ne samo uklanjanje pojedinačnog sadržaja, nego i gašenje računa, stranica ili botova uključenih u koordinirane deepfake kampanje. Ako dokazi povežu operaciju s državnom potporom ili poznatom trol farmom, platforme bi to trebale javno objaviti i eliminirati njihovu nazočnost. Mnoge mreže za dezinformacije su ukinute posljednjih godina; ista agresivna metoda mora vrijediti i za utjecajne operacije pogonjene umjetnom inteligencijom. Platforme bi trebale ažurirati svoje uvjete korištenja kako bi eksplicitno zabranile zlonamjerno kreiranje ili dijeljenje sintetičkih medija s ciljem obmane drugih. Ta pravila omogućuju temelje za trajnu zabranu kršitelja. U političkom oglašavanju, svaka kampanja ili PAC koji koriste varljive deepfakeove trebali bi biti kažnjeni, primjerice gubitkom prava na oglašavanje. Tehnološke tvrtke također mogu surađivati i voditi zajedničku crnu listu poznatih deepfake hash kodova ili potpisa, tako da, kad je lažnjak identificiran na jednoj platformi, može biti blokiran i na drugima (poput razmjene hash kodova za teroristički sadržaj). U suštini, učiniti deepfake sadržaje neisplativima na glavnim platformama – sadržaj će biti brzo uklonjen ili će akter izgubiti račun.

4. Suradnja s provjeravateljima činjenica i vlastima: Nijedna platforma ne može savršeno nadzirati sadržaj sama. Suradnja je ključna. Društvene mreže trebale bi produbljivati partnerstva s neovisnim organizacijama za provjeru činjenica radi procjene viralnog sadržaja. Kada provjeravatelji činjenica opovrgnu video kao lažan, platforme moraju pojačati tu ispravku – npr. automatski dodati poveznicu na članak o provjeri činjenica svaki put kad se video dijeli, ili obavijestiti sve korisnike koji su ga izvorno vidjeli. Tvrtke poput Facebooka to već rade za dezinformacije i trebale bi tako nastaviti i za deepfake sadržaj. Osim toga, platforme bi trebale surađivati s izbornim komisijama i sigurnosnim agencijama, posebno tijekom izbornih sezona. Mogu uspostaviti izravne linije za prijavu sumnjivih deepfakeova koji utječu na glasovanje, a platforme mogu također pravovremeno obavijestiti državne institucije ako detektiraju stranu dezinformaciju usmjerenu na neku zemlju. U nekim jurisdikcijama formalni dogovori već postoje (primjerice, Kodeks prakse u EU-u potiče dijeljenje informacija s vladama o prijetnjama dezinformacija brennancenter.org). Čak i u SAD-u, Odjel za kibernetičku sigurnost Ministarstva domovinske sigurnosti surađuje s platformama u nadzoru izbornih dezinformacija. Te suradnje, naravno, moraju poštovati slobodu izražavanja i ne smiju prelaziti u cenzuru legitimnog govora. Ali za jasno lažiran, štetan materijal, brza i koordinirana reakcija između platformi i javnih institucija može zaustaviti širenje lažnjaka. To može uključivati zajedničke izjave za medije koje opovrgavaju viralni lažnjak ili algoritme za jačanje autoritativnih izvora radi suzbijanja širenja.

5. Napredak u sigurnosnim mjerama AI modela: Tvrtke koje razvijaju generativne AI modele (OpenAI, Google, Meta, itd.) imaju odgovornost snositi na izvoru. One bi trebale implementirati mjere zaštite kako bi spriječile zloupotrebu svoje AI tehnologije za izborne manipulacije. To može uključivati vodeni žig na AI izlazima, kako je već spomenuto (tako da svaka slika generirana od npr. DALL-E ili Midjourney ima ugrađen potpis). Također može uključivati pažljivu selekciju podataka za treniranje – primjerice, osiguravanje da njihovi modeli budu istrenirani da odbiju zahtjeve za lažnim prikazivanjem stvarnih osoba na štetan način. Već sada neki AI alati ne generiraju deepfake slike pravih političkih ličnosti zbog ugrađenih filtera. Te zaštitne mjere treba neprestano usavršavati (iako su otvoreni modeli izazov, jer ih zlonamjerni korisnici mogu doraditi bez takvih ograničenja). AI programeri trebali bi također ulagati u istraživanje tehnika detekcije deepfakeova i dijeliti ta saznanja sa zajednicom. Pozitivno je što su mnoge vodeće AI tvrtke dobrovoljno obećale podržati vodene žigove i autentifikaciju sadržaja. Nadalje, mogli bi surađivati na zajedničkom API-ju, koji bi omogućio brzo provjeravanje je li neki video ili audio generiran uz pomoć njihovih modela. U suštini, oni koji kreiraju “problem” (generativnu tehnologiju) trebali bi pomoći i oko “rješenja” (sredstva za prepoznavanje njezinih rezultata).

6. Transparentnost u političkom oglašavanju: Platforme koje omogućuju političke oglase morale bi provoditi strogu transparentnost u vezi korištenja AI tehnologije. Ako se na Facebooku ili Googleu promovira politički oglas koji sadrži AI-generirane elemente, to bi moralo biti jasno navedeno u oglasnoj bazi. Platforme bi čak mogle zahtijevati od političkih oglašivača da prilože originalne, neuređene snimke na uvid. Još ambicioznije, društvene mreže mogle bi razmotriti privremenu zabranu svih političkih oglasa sa sintetičkim medijima tijekom osjetljivih posljednjih dana kampanje – slično kao što neke zabrane nove političke oglase neposredno prije dana izbora. Time bi se eliminirao rizik od iznenadne navale deepfake oglasa u zadnji čas. Iako je provedba izazov, načelo je to da je plaćeno promoviranje varljivog sadržaja posebno opasno i platforme imaju veću slobodu regulirati oglašavanje nego korisničke objave. Osiguravanje visoke transparentnosti i brzog uklanjanja u segmentu oglašavanja ključno je, jer deepfake plasiran kroz plaćene oglase može algoritamski dosegnuti milijune i nepravedno iskriviti informacijsko okruženje.

Mediji i novinarske organizacije

1. Rigorozni protokoli za provjeru: Mediji moraju prilagoditi svoje metode provjere vremenu deepfakeova. Svaka redakcija – od nacionalnih TV mreža do lokalnih novina i portala za provjeru činjenica – trebala bi uvesti formalne procedure za autentifikaciju audio-vizualnog materijala prije emitiranja ili objave. To uključuje i osposobljavanje novinara za korištenje forenzičkih alata (npr. provjeru metapodataka videa, analizu slike) te konzultiranje stručnjaka kada je potrebno. Za svaki senzacionalan ili kompromitirajući zapis koji se pojavi tijekom izbora, urednici trebaju zadržati zdravu dozu skepticizma i ne žuriti s objavom bez potvrde. Mediji bi trebali dvostruko provjeriti sav sadržaj generiran od strane korisnika: primjerice, ako se pojavi video kandidata u kompromitirajućoj situaciji, redakcija treba tražiti dodatne dokaze (očevice, službena priopćenja itd.) ili barem izvršiti detaljnu analizu svakog kadra kako bi se isključio deepfake. Cilj je da ne postanu nesvjesni širitelji dezinformacija. Neki mediji već osnivaju interne task forceove za deepfake; primjerice, novinari iz Arizone izradili su vlastiti deepfake (uz dopuštenje) kako bi educirali gledatelje o lakoći manipulacije video zapisima knightcolumbia.org – pametan način za podizanje razine svijesti. Sve redakcije trebale bi imati “deepfake stručnjaka” u rezervi (ili ugovor s tehnološkim laboratorijem) za brzu analizu sumnjivih snimaka. Ako verifikacija postane jednako rutinska kao i provjera činjenica, mediji mogu rano otkriti lažnjake ili barem upozoriti publiku ako autentičnost još nije potvrđena.

2. Odgovorno izvještavanje o deepfake sadržaju: Izvještavajući o sintetičkim medijima, novinari to trebaju činiti pažljivo i s kontekstom. Ako deepfake cilja određenog kandidata, fokus priče nisu same lažne tvrdnje, već činjenica da je riječ o lažnoj manipulaciji. Medijske objave ne bi smjele detaljno ponavljati lažne optužbe niti bez kritike prikazivati lažni video, jer time mogu nenamjerno proširiti dezinformaciju. Umjesto toga, mogu je općenito opisati i naglasak staviti na reakciju (npr. “Manipulirani video koji lažno prikazuje X kako radi Y pojavio se online, a opovrgnuli su ga stručnjaci”). Redakcije mogu odlučiti zamagliti ili ne povezivati izravno na deepfake sadržaj u internetskim člancima cetas.turing.ac.uk, kako ne bi usmjeravali promet na njega ili olakšali zlonamjernim korisnicima preuzimanje i daljnje dijeljenje. Kadriranje izvještaja je bitno: naglasiti pokušaj obmane i činjenicu deepfakea više nego samu lažnu naraciju sadržanu u njemu cetas.turing.ac.uk. Mediji također trebaju istaknuti ispravke ili istinu (primjerice: “Ne, političar Z to nije rekao – video je AI falsifikat; evo što je zaista izjavio o toj temi.”). Dosljednim postupanjem na ovaj način, ugledni mediji mogu pomoći javnosti da se zaštiti od vjerovanja ili dijeljenja lažnih sadržaja. Riječ je o delikatnoj ravnoteži između izvještavanja o dezinformaciji (jer ignoriranje neće ukloniti problem) i nenamjernog širenja istog. Mogli bi se izraditi vodiči po uzoru na one za izvještavanje o prevarama ili masovnim pucnjavama (gdje se neki detalji minimaliziraju kako bi se spriječili “copycat” slučajevi) i za deepfake sadržaj. Neovisna organizacija za standarde tiska u Velikoj Britaniji pozvana je na ažuriranje svojih kodeksa u takvim situacijama cetas.turing.ac.uk.

3. Korištenje tehnologije autentičnosti u redakcijama: Same novinske organizacije mogu iskoristiti nastajuću infrastrukturu autentičnosti. Na primjer, medijska kuća bi mogla primijeniti alate Content Authenticity Initiative kako bi priložila kriptografske vjerodajnice za sadržaj svim originalnim fotografijama i videozapisima svojih novinara. To znači da bi bilo koja snimka koju, recimo, snimi Reutersov ili AP-ov kamerman mogla imati siguran pečat koji potvrđuje njezino podrijetlo i sve izmjene. Nadalje, kada ljudi vide videozapis iz Reutersa, mogu provjeriti je li neizmijenjen. Takve mjere pomažu potvrditi što je stvarno, nudeći javnosti izvor istine. Medijske kuće također trebaju surađivati u izgradnji baza podataka poznatih deepfakeova (i poznatog autentičnog sadržaja) koji mogu pomoći provjeravateljima činjenica. Na primjer, održavanje arhive službenih govora i intervjua može brzo razotkriti lažne snimke usporedbom. Glavne novinske agencije i tiskovne službe mogle bi koordinirati brza obavještenja svim pretplatnicima ako se uoči opasni deepfake – slično kao kada šalju vijesti u zadnji čas. Unutar redakcija, urednici također trebaju biti svjesni da politički operativci mogu pokušati ponuditi lažne medije novinarima (npr. tip s “procurjelim” audiozapisom koji je zapravo generirao AI). Prikladno je zadržati visok stupanj skepticizma prema svim digitalnim materijalima iz anonimnih izvora.

4. Edukacija publike: Mediji mogu odigrati veliku ulogu u educiranju birača o sintetičkim medijima. Novinske kuće i novinari trebali bi izrađivati objašnjavajuće priloge, intervjue sa stručnjacima i emisije koje pokazuju javnosti kako nastaju deepfakeovi i kako ih prepoznati. Demistificiranjem tehnologije, smanjuje se njezina moć. Neke TV vijesti su npr. 2024. godine uživo demonstrirale AI kloniranje glasova kako bi pokazale kako prevarantski poziv može imitirati glas vašeg rođaka. Isto tako, izvještavanje u predizborno vrijeme može sadržavati podsjetnike: “Ako u posljednji trenutak vidite nevjerojatan video o kandidatu, budite oprezni – moguće je da je lažan. Evo kako provjeriti…”. Javne kampanje podizanja svijesti (možda u suradnji s vladom ili nevladinim organizacijama) mogu znatno povećati digitalnu pismenost. Novinari bi također trebali dosljedno koristiti precizan jezik: nazvati nešto “deepfakeom” ili “lažnim videom generiranim AI-jem”, a ne samo “prerađenim videom”, pomaže naglasiti da ta nova kategorija postoji. S vremenom, dobro informirana javnost bit će manje sklona povjerovati lažnjacima i više će tražiti dokaze. Mediji, kao sučelje između informacija i javnosti, imaju dužnost ojačati tu otpornost.

5. Odgovornost i razotkrivanje: Na kraju, novinari bi trebali istraživati i razotkrivati tko stoji iza najglasnijih deepfake operacija. Prokazujući počinitelje u javnosti, može se obeshrabriti buduću zloupotrebu. Ako se, primjerice, otkrije da iza zlonamjernog deepfakea stoji suparnička kampanja, strana tvornica trolova ili određena online grupa, izvještavanje o tome na istaknutom mjestu stvorit će stigmu i rizik takvim praksama. Otkrivanja o produkciji i financiranju dezinformacijskih kampanja mogu umanjiti njihovu učinkovitost. Nadalje, ako političar ili javna osoba dijeli deepfake znajući da je lažan (npr. kandidat objavi lažni video protivnika), mediji to trebaju čvrsto osuditi – tretirajući to kao ozbiljno nedolično ponašanje. Mogućnost negativnog medijskog prikaza i reputacijske štete može obeshrabriti političke aktere od “prljavih trikova” poput korištenja deepfakeova. Ukratko, watchdog funkcija novinarstva proširuje se i na digitalnu sferu: istražujte, pridružujte i razotkrivajte zlonamjerne operacije sintetičkih medija kao što biste to činili s bilo kakvom prijevarom ili korupcijom u politici.

Inicijative civilnog društva i birača

1. Digitalna pismenost i obrazovanje zajednice: Organizacije civilnog društva – uključujući neprofitne organizacije, knjižnice, sveučilišta i lokalne udruge – mogu predvoditi ulogu u edukaciji građana kako bi se snašli u eri deepfakeova. Trebali bi se nuditi skalabilni programi za zajednice o tome kako provjeravati medije. Na primjer, nevladine organizacije mogu provoditi radionice koje ljudima pokazuju jednostavne trikove poput obrnutog pretraživanja slika (kako bi provjerili je li fotografija generirana AI-jem ili manipulirana), provjeru potvrdnih vijesti i korištenje web stranica za provjeru činjenica. Već postoje izvrsni priručnici i kurikulumi koje su razvile provjeravateljske organizacije (npr. First Draft, Media Literacy Now) koji obrađuju prepoznavanje dezinformacija i deepfakeova; oni bi se trebali široko dijeliti. Takva obuka ne smije biti usmjerena samo na učenike u školama, već i na starije osobe, koji su često ranjiviji na internetske prijevare. Digitalne kampanje pismenosti na nacionalnoj razini mogu se pokrenuti, možda s državnim financiranjem, ali u provedbi lokalnih zajednica radi izgradnje povjerenja. Cilj je podići “kolektivni imunitet” društva: ako kritična masa ljudi može prepoznati lažnjak ili barem suzdržati sud dok ne provjeri istinitost, dezinformatori gube većinu svoje moći. Istraživanja pokazuju da javnost želi to znanje – mnogi osjećaju tjeskobu jer ne znaju razlikovati stvarno od lažnog brennancenter.org brennancenter.org. Civilno društvo može popuniti taj jaz osnažujući građane edukacijom i praktičnim vještinama.

2. Provjera činjenica i inicijative razotkrivanja: Neovisni provjeravatelji činjenica i nadzornici civilnog društva ostat će ključni. Trebali bi se posebno pripremiti za izborna razdoblja s inicijativama kao što su posebni centri za provjeru deepfakeova. Na primjer, koalicije organizacija za provjeru činjenica mogle bi održavati javnu nadzornu ploču tijekom izbora koja prati glasine i nove deepfake tvrdnje, nudeći brze razotkrivanja. Projekt News Literacy učinio je nešto slično za američke izbore 2024., bilježeći slučajeve dezinformacija i ističući kako ih je mali broj zapravo uključivao AI knightcolumbia.org knightcolumbia.org. Ovakvo transparentno praćenje pomaže javnosti i novinarima vidjeti širu sliku i ne preuveličavati prijetnju, a pritom ipak rješavati stvarne slučajeve. Organizacije civilnog društva također mogu širiti ispravke na društvenim mrežama – npr. odgovarajući na viralne objave točnim informacijama, uz pomoć community notes ili drugih opcija. Također treba promicati “prebunking”: upozoravanje javnosti unaprijed da bi se mogao pojaviti lažnjak. Primjerice, ako obavještajne službe ili prošli obrasci sugeriraju da bi kandidat mogao biti meta lažnog skandala, građanske organizacije (u dogovoru s izbornim službenicima) mogu upozoriti birače: “Budite skeptični ako odjednom vidite šokantan video o X, postoji mogućnost deepfakea.” Istraživanja pokazuju da prebunking može značajno smanjiti lakovjernost i širenje lažnih tvrdnji cetas.turing.ac.uk cetas.turing.ac.uk. Stoga proaktivan pristup civilnog društva, predviđanjem i preduhitrijevanjem deepfake kampanja, može donijeti višestruku korist.

3. Građanska tehnologija i detekcija na razini zajednice: Tehnološki pismeni građani mogu se mobilizirati u borbi protiv deepfakeova. Već postoje volonterke i volonteri “deepfake lovci” koji analiziraju sumnjive medije na internetu. Civilno društvo može organizirati takve napore putem platformi – primjerice, posebnog portala ili aplikacije gdje ljudi mogu poslati video ili audio koji im je sumnjiv na analizu, a mreža stručnjaka ili AI alata pruži izvješće o autentičnosti. Ova inteligencija iz zajednice može nadopuniti službene napore. Osim toga, građanske tehnološke grupe mogle bi razviti dodatke za preglednike ili aplikacije na mobilnim uređajima koji korisnicima pomažu prepoznati sintetičke medije. Na primjer, aplikacija bi korisniku mogla omogućiti da odabere neki video na svom ekranu i odmah dobije analizu različitih algoritama za otkrivanje (nešto poput antivirus programa za deepfakeove). Iako nisu nepogrešivi, mogu signalizirati opasnost. Otvoreni napori na izradi takvih alata trebali bi biti potpomognuti grantovima. Još jedna ideja je telefonska linija za prijavu građana – kao što već postoje linije za izborne probleme, možda bi postojala linija na kojoj bi građani prijavljivali sumnjivu dezinformaciju ili deepfake na koji naiđu, a onda bi je izborna tijela ili fact-checkeri mogli dalje istraživati. Angažiranjem građana kao aktivnih sudionika u prepoznavanju i označavanju sumnjivog sadržaja, značajno se povećava doseg monitoringa. Ovakav decentralizirani pristup prepoznaje da u društvu od milijuna ljudi online, netko često rano uoči nešto sumnjivo – najvažnije je brzo proslijediti ta opažanja onima koji mogu provesti provjeru i proširiti istinu.

4. Zagovaranje odgovornosti platformi: Civilno društvo treba nastaviti pritiskati tehnološke platforme i AI kompanije da se ponašaju odgovorno. Grupe za javni interes i think tankovi bili su presudni u isticanju opasnosti deepfakeova i zagovaranju reformi (npr. Access Now, EFF i druge su izdale preporuke). Taj se angažman mora nastaviti – poticati platforme na provedbu ranije navedenih politika (bolje označavanje, uklanjanje, itd.) i gurati AI kompanije prema etičkom dizajnu. Kampanja organizacije Public Citizen za praćenje zakonodavstva o deepfakeovima na državnoj razini i peticija FEC-u jedan je primjer citizen.org citizen.org. Slično, koalicije mogu tražiti transparentnost od platformi: zahtijevati da objave podatke o količini AI sadržaja na njihovim stranicama ili o učinkovitosti detekcije. Glasovi civilnog društva također su ključni kako bi osigurali da svi novi zakoni i regulative uistinu štite građanske slobode (primjerice, da nema preširokih pravila koja bi pod izlikom borbe protiv deepfakeova zapravo ograničila slobodu izražavanja). Postizanje te ravnoteže zahtijeva javnu raspravu, a zagovaračke grupe predstavljaju građane u tim debatama. Sljedećih nekoliko godina moglo bi donijeti nove regulatorne okvire za AI i internetski sadržaj – izuzetno je važno da tada demokratske vrijednosti i ljudska prava budu zaštićeni, a civilno društvo je ključno za tu nadzornu ulogu.

5. Podrška žrtvama i metama: Ako su kandidat ili privatna osoba oklevetani deepfakeom, civilno društvo može pružiti podršku. Neprofitne organizacije mogu ponuditi pravnu pomoć ili savjete o tome kako ukloniti klevetničke deepfakeove i privesti počinitelje odgovornosti. Mogle bi postojati telefonske linije za žrtve deepfake pornografije ili napada na karakter koje ih povezuju s policijom i resursima za mentalno zdravlje. Za kandidate pogođene napadom, građanske organizacije (poput udruge žena birača ili skupina za integritet izbora) mogu pomoći pojačati njihovo opovrgavanje i demistifikaciju kako bi se umanjila šteta. Brzo okupljanje u obranu osobe koja je lažno meta – osiguravajući da istina bude glasnija od laži – nešto je što zajednice i zagovaračke grupe mogu koordinirati, kao što to često čine u borbi protiv klevete ili govora mržnje. Na širem planu, civilno društvo može olakšati međustranačke sporazume da, ako se pojavi bilo kakav deepfake, sve strane to osude. Zamislite obećanje koje potpisuju sve velike stranke u zemlji, zaklinjući se da neće koristiti deepfakeove i da će brzo osuditi sve zlonamjerne krivotvorine koje se pojave. Takve norme, koje potiču grupe poput međustranačkih izbornih odbora ili nevladinih organizacija za etiku, smanjile bi vjerojatnost “utrke prema dnu” u kojoj se stranke osjećaju primorane odgovarati istom mjerom. To stvara jedinstven front da napadi na istinu neće biti tolerirani, bez obzira koga ciljali.

Zaključno, suočavanje s izazovom deepfakeova zahtijeva korištenje svih društvenih obrana – tehnoloških, pravnih, institucionalnih i ljudskih. Provođenjem gornjih koraka, vlade mogu ojačati izborni sustav protiv AI prevara, tehnološke platforme mogu ograničiti širenje lažnog sadržaja, mediji mogu osigurati prevagu istine u izvještavanju, a građani mogu postati iskusni čuvari stvarnosti. Nema vremena za gubljenje: kako generativna umjetna inteligencija nastavlja napredovati, izborni ciklus 2025. stavit će na kušnju otpornost demokracija na sintetičke laži. Ohrabrujuća vijest je da nismo bespomoćni. Uz pripremu, transparentnost i suradnju, možemo nadmudriti i nadorganizirati deepfake kampanje, očuvajući integritet naših izbora. Kao što je zaključeno u CETaS istraživačkom izvješću o umjetnoj inteligenciji i izborima, “uljuljkanost ne smije ući u proces odlučivanja” – umjesto toga, trebamo iskoristiti ovaj trenutak za izgradnju otpornosti cetas.turing.ac.uk cetas.turing.ac.uk. Time potvrđujemo načelo da dok se tehnologija razvija, naše demokratske vrijednosti istine i povjerenja će trajati.

Izvori

  1. Stockwell, Sam et al. “AI-Enabled Influence Operations: Safeguarding Future Elections.” CETaS (Alan Turing Institute) Research Report, 13. studenog 2024. cetas.turing.ac.uk cetas.turing.ac.uk
  2. Stockwell, Sam et al. Ibid. (CETaS Izvješće, 2024), odjeljak 2.1 o deepfakeovima na američkim izborima. cetas.turing.ac.uk cetas.turing.ac.uk
  3. Beaumont, Hilary. “’Nedostatak povjerenja’: Kako deepfakeovi i AI mogu uzdrmati američke izbore.” Al Jazeera, 19. lipnja 2024. aljazeera.com aljazeera.com
  4. Sze-Fung Lee. “Kanadi je zakon o deepfakeovima trebao već jučer.” Policy Options, 18. ožujka 2024. policyoptions.irpp.org policyoptions.irpp.org
  5. Goldstein, Josh A. & Andrew Lohn. “Deepfakeovi, izbori i smanjenje prednosti lažova.” Brennan Center for Justice, 23. siječnja 2024. brennancenter.org
  6. “Sintetički mediji.” Wikipedia (preuzeto 2025). en.wikipedia.org en.wikipedia.org
  7. “Deepfake.” Kaspersky IT Encyclopedia (2023). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
  8. Hamiel, Nathan. “Deepfakeovi su se pokazali drugačijom prijetnjom od očekivane. Evo kako se braniti od njih.” World Economic Forum, 10. siječnja 2025. weforum.org weforum.org
  9. “Regulacija AI deepfakeova i sintetičkih medija u političkoj areni.” Brennan Center for Justice, 4. listopada 2023. brennancenter.org brennancenter.org
  10. Colman, Ben. “EU AI Act i rastuća hitnost detekcije deepfakeova.” Reality Defender Blog, 11. veljače 2025. realitydefender.com realitydefender.com
  11. “Praćenje: Državno zakonodavstvo o deepfakeovima na izborima.” Public Citizen, 2025. citizen.org citizen.org
  12. Partnership on AI. “Sintetički mediji i deepfakeovi – Studija slučaja: Slovačka 2023.” (navedeno u Knight Columbia analizi). brennancenter.org brennancenter.org
  13. Kapoor, Sayash & Arvind Narayanan. “Analizirali smo 78 izbornih deepfakeova. Politička dezinformacija nije AI problem.” Knight First Amendment Institute, 13. prosinca 2024. knightcolumbia.org knightcolumbia.org
  14. CETaS Izvješće (2024), Preporuke politika (usmjerene na UK). cetas.turing.ac.uk cetas.turing.ac.uk
  15. CETaS Izvješće (2024), Preporuke o detekciji i podrijetlu. cetas.turing.ac.uk cetas.turing.ac.uk
  16. Public Safety Canada. “Zaštita od dezinformacija potpomognutih umjetnom inteligencijom” (sažetak iz 2023.). policyoptions.irpp.org policyoptions.irpp.org
  17. InnovationAus. “Vladina zabrana deepfakeova na izborima ‘odgađa se’ do 2026.” (Australija) 2023. innovationaus.com
  18. Dodatne reference: članci Reuters, Wired i CNN navedeni u izvorima iznad za specifične slučajeve (npr. deepfake Zelenskog, prijevara od 25 mil. $ u Hong Kongu preko Zoom deepfakea weforum.org), te FTC upozorenja potrošačima na prijevare glasovnim kloniranjem weforum.org. Oni su ugrađeni u analizu i dostupni kroz popisane poveznice na izvore.

Odgovori

Your email address will not be published.

Don't Miss

European Union Real Estate Market Outlook 2025–2028: Residential & Commercial Trends, Risks, and Opportunities

Izgledi tržišta nekretnina Europske unije 2025.–2028.: Trendovi, rizici i prilike u stambenom i komercijalnom sektoru

Uvod Tržište nekretnina Europske unije nalazi se na ključnoj prekretnici
Boise Real Estate 2025: Surprising Trends, Price Booms & What’s Next

Nekretnine u Boiseu 2025: Iznenađujući trendovi, rast cijena i što slijedi

Boiseovo tržište nekretnina u 2025. obilježava stabilan, ali ne i