Синтетички медији и дипфејкови: Заштита изборног циклуса 2025. године

јун 30, 2025
Synthetic Media and Deepfakes: Safeguarding the 2025 Election Cycle

Napredak u oblasti veštačke inteligencije omogućio je stvaranje sinijetičkih medija – sadržaja koji je generisan ili izmenjen od strane AI – u dosad neviđenim razmerama. Kako se demokratske države približavaju izbornom ciklusu 2025. godine, zvaničnici i stručnjaci podižu uzbunu zbog dezinformacija pokretanih veštačkom inteligencijom. U nedavnom istraživanju, 85% Amerikanaca izrazilo je zabrinutost zbog „obmanjujućih video i audio dipfejkova“ koji bi mogli uticati na izbore brennancenter.org. Naslovi u vestima upozoravaju da veštačkom inteligencijom generisani „dipfejkovi“ mogu izazvati haos u kampanjama i urušiti poverenje glasača brennancenter.org, naglašavajući hitnost potrebe za zaštitom integriteta izbora. Ovaj izveštaj ispituje šta su sintetički mediji i dipfejkovi, kako oni ugrožavaju demokratiju i šta se može preduzeti – od tehnoloških rešenja do politika – kako bi se zaštitili izbori 2025. i nakon toga.

Šta su sintetički mediji i dipfejkovi?

Sintetički mediji je širok pojam za digitalni sadržaj (slike, video, audio, tekst) koji je veštački proizveden ili izmenjen automatizovanim sredstvima, naročito AI algoritmima en.wikipedia.org. Današnji generativni AI sistemi mogu stvoriti realističan rezultat sličan ljudskom u svakom mediju – od životopisnih fotografija ljudi koji nikada nisu postojali, preko kloniranih glasova do članaka napisanih od strane AI-ja. Dipfejkovi su poseban podskup sintetičkih medija: vrlo realistične lažne slike, video zapisi ili audio snimci izrađeni AI-em (otuda „duboko“ učenje + „fejk“) radi imitacije pravih ljudi encyclopedia.kaspersky.com. U praksi, dipfejk može biti video u kojem je lice političara uverljivo zamenjeno telom druge osobe ili audio-klip koji imitira glas kandidata izgovarajući reči koje on nikada nije rekao.

Kako se dipfejkovi prave? Većina ih se generiše naprednim tehnikama dubokog učenja. Uobičajen pristup koristi generativno-suprotstavljene mreže (GANs) – dva neuronska sistema koja se međusobno „treniraju“ icct.nl. Jedna mreža (generator) stvara lažne medije (npr. sliku nečijeg lica), dok druga (diskriminator) pokušava da otkrije da li je to laž. Kroz hiljade iteracija, generator uči da proizvodi sve realističniji sadržaj dok diskriminator više ne može da napravi razliku icct.nl. Prvobitno je za besprekorno pravljenje dipfejkova bilo potrebno mnogo podataka za obuku i izuzetno jaka računarska oprema – eksperiment dubokog lažiranja glumca Toma Kruza trajao je dva meseca na vrhunskim GPU-ovima icct.nl. Međutim, alati su se brzo razvili. Sofisticirani softveri za dipfejk su sada široko dostupni i brži, ponekad čak rade u realnom vremenu (na primer, menjaju živi video prenos ili poziv u hodu) encyclopedia.kaspersky.com. Pored GAN-ova, i druge AI arhitekture igraju ulogu: transformer modeli mogu generisati dipfejk tekst ili pomagati u kloniranju audio glasa encyclopedia.kaspersky.com. U suštini, nedavni AI proboji su učinili da je lako i jeftino gotovo svakoj osobi da kreira obmanjujući audio-vizuelni sadržaj – čime je drastično snižena barijera za širenje dezinformacija.

Važno je napomenuti da nisu svi sintetički mediji zlonamerni. AI-generisan sadržaj može se koristiti za bezazlene i kreativne svrhe – personalizovane avatare, sinhronizaciju govora na druge jezike, satiru i zabavu itd. Na globalnim izborima tokom 2024. godine, otprilike polovina dokumentovanih korišćenja AI-a u političkom sadržaju nije bila obmanjujuća (npr. kandidat transparentno koristi AI glas jer je izgubio sopstveni, ili novinari koriste AI avatar radi zaštite identiteta) knightcolumbia.org knightcolumbia.org. Ali ovaj izveštaj se fokusira na zlonamernu stranu sintetičkih medija – dipfejkove koji su stvoreni da obmanu, prevare ili manipulišu biračima i javnim mnjenjem.

Rizici za demokratske procese

Sintetički mediji i dipfejkovi predstavljaju značajne rizike za demokratiju, posebno tokom izbora kada su informisanost birača i poverenje u informacije od najveće važnosti. Ključne pretnje uključuju:

  • Dezinformacije i manipulacija biračima: Veštačkom inteligencijom generisani lažni video zapisi, slike ili audio mogu se koristiti za širenje lažnih informacija o kandidatima ili pitanjima, obmanjujući birače. Na primer, dipfejk može prikazati kandidata kako daje zapaljive izjave koje nikada nije izrekao. Takav fabricirani sadržaj može ubrizgati toksične laži u javnu debatu. Stručnjaci upozoravaju da dipfejkovi „predstavljaju visok rizik” za birače jer ubacuju lažan sadržaj u kampanje i narušavaju poverenje javnosti aljazeera.com. Uverljivo izmontiran video objavljen neposredno pred Dan izbora – bez vremena da ga provere proveravaoci činjenica – može uticati čak i na neopredeljene birače ili obeshrabriti izlazak na glasanje, moguće menjajući ishod izbora citizen.org. Ova pretnja nije samo teorijska: kako će kasnije biti detaljnije prikazano, jedan dipfejk audio 2024. godine imitirao je predsednika SAD pozivajući pristalice da ne glasaju, očigledno s ciljem da obeshrabri izlaznost aljazeera.com aljazeera.com.
  • Erozija poverenja („dividenda lažova“): Osim konkretnih lažnih sadržaja, sama egzistencija dipfejkova može potkopati poverenje javnosti u prave informacije. Birači mogu početi da sumnjaju čak i u autentične dokaze, nesigurni da li je viralni video stvaran ili AI falsifikat. Još gore, korumpirani akteri mogu iskoristiti ovu sumnju: pravi skandali ili verodostojni snimci mogu biti odbačeni kao „samo dipfejk“, što omogućava prestupnicima da izbegnu odgovornost. Naučnici su ovaj fenomen nazvali „dividenda lažova“ – gde veća svest o dipfejkovima olakšava lažovima da tvrde da su autentični snimci lažni brennancenter.org. Povećana svest o moći AI znači da političar uhvaćen u stvarnoj nečasnoj radnji može lakše obmanuti javnost označavajući neugodan audio ili video kao AI-podmetnutu prevaru brennancenter.org. Ova dinamika ugrožava fundamentalno poverenje na kojem se oslanja demokratski dijalog. Posmatrači izbora su primetili da su neki kandidati i njihove pristalice 2024. godine unapred uzvikivali „AI falsifikat“ radi odbacivanja neprijatnih priča brennancenter.org brennancenter.org. Dugoročno, ako građani osete da „ništa što vidite ili čujete ne može se verovati“, ruši se zajednička stvarnost potrebna za slobodne i poštene izbore cetas.turing.ac.uk cetas.turing.ac.uk.
  • Pojačavanje polarizacije i sukoba: Dosadašnji dokazi pokazuju da dipfejk propaganda često učvršćuje već postojeće predrasude ljudi umesto da ubedi nekoga preko političkih podela cetas.turing.ac.uk. Zlonamerni AI sadržaj često prihvataju i šire upravo oni koji već imaju ekstremne stavove, čime se pojačavaju eho-komore. Tokom predsedničke trke u SAD 2024. godine, istraživači su otkrili da su veštačkom inteligencijom generisane laži uglavnom služile pojačavanju partijskih narativa i raspaljivanju debata pre nego što su „konvertovale“ nove pristalice cetas.turing.ac.uk. Na primer, lažni video snimci sa ciljem diskreditacije predsednika Bajdena ili potpredsednice Haris prikupili su milione pregleda na internetu i najvećim delom su ih delili korisnici koji su im već bili neskloni cetas.turing.ac.uk cetas.turing.ac.uk. Kroz konsolidaciju ideoloških tabora dramatičnim lažnim „dokazima“ o nevaljalstvu druge strane, dipfejkovi mogu zajednice gurnuti još dalje, čime se kampanjski ambijent dodatno truje. Takođe, zbunjenost i nepoverenje koje dipfejkovi seju pogodno su tlo za razvoj teorija zavere cetas.turing.ac.uk, jer građani lako mogu odbiti svaku neprijatnu realnost kao AI izmišljotinu.
  • Podrivanje izborne administracije: Rizik prevazilazi obmanjivanje birača o kandidatima – dipfejkovi mogu poremetiti i sam izborni proces. Zvaničnici su zamislili scenarije u kojima AI glasovne klonove ili lažne poruke navodno šalju izborni autoriteti, obaveštavajući radnike na biračkom mestu da zatvore birališta ranije ili daju biračima lažne instrukcije (npr. „izbori su odloženi“) aljazeera.com. Sofisticirani protivnik može simulirati nalog iz izborne komisije ili glas poverljivog lokalnog zvaničnika radi sabotiranja glasanja. Takva taktika može suprimirati izlaznost ili izazvati haos na Dan izbora. Amerikanski Brennan centar navodi da izmanipulisani mediji mogu prevariti ne samo javnost već i radnike na biračkim mestima i izborne zvaničnike, zbog čega su potrebne nove obuke i protokoli aljazeera.com.
  • Uznemiravanje i uništavanje reputacije: Dipfejkovi su takođe moćno oružje za lične napade na kandidate, aktiviste ili novinare. Posebno opasna kategorija su nepristanak sintetičke pornografije – kada se lice osobe postavlja u eksplicitni seksualni sadržaj. Ova taktika već je iskorišćena za uznemiravanje novinarki i političarki širom sveta. Najekstremniji oblik dipfejk uznemiravanja jeste lažna intimna slika koja se koristi za ponižavanje ili ucenjivanje pojedinaca weforum.org. U izbornom kontekstu, operativci mogu pustiti lažni kompromitujući video kandidata (npr. dipfejk porno-snimak ili izmišljeni zapisak o nezakonitom ponašanju) neposredno pred izbore. Čak i ako se ubrzo razotkrije, šteta po ugled kandidata može biti učinjena. Žene i manjine su nesrazmerno mete ovih „sintetičkih kampanja blaćenja“, što može odvratiti raznolike kandidate od ulaska u politiku policyoptions.irpp.org policyoptions.irpp.org. Ukratko, dipfejkovi su dodali novo gorivo starim „prljavim trikovima“ – od lažnih skandala do izmišljenih izjava – značajno pojačavajući pokušaje uništavanja reputacije tokom izbora.

Konačno, mora se napomenuti da do sada nismo bili svedoci izborne katastrofe izazvane dipfejkovima. Empirijske analize izbora širom sveta 2024. godine pokazuju malo dokaza da je AI-generisana dezinformacija promenila ishod ijednih izbora cetas.turing.ac.uk weforum.org. Tradicionalne dezinformacije („jeftini fejkovI“, glasine, partijska propaganda) i dalje su imale znatno veći uticaj u širenju lažnih informacija od sofisticiranih dipfejkova knightcolumbia.org knightcolumbia.org. Ipak, stručnjaci upozoravaju da izostanak katastrofe do sada nije razlog za samozadovoljstvo cetas.turing.ac.uk weforum.org. Tehnologija se brzo razvija, a zlonamerni akteri uče. Čak i ako dipfejkovi nisu odlučili važnu trku 2024, oni su oblikovali javnu raspravu – na primer, viralne AI-laži o kandidatima postale su tema u mejnstrim debatama cetas.turing.ac.uk. Štaviše, percipirana pretnja od dipfejkova dodatno je povećala javnu anksioznost i nepoverenje u vezi sa izborima cetas.turing.ac.uk cetas.turing.ac.uk. Potencijal za mnogo štetniji incident i dalje postoji, naročito kako se približavaju izbori visokog rizika 2025. godine. Demokratska društva zato moraju tretirati dipfejkove kao ozbiljno pitanje bezbednosti i integriteta, rešavajući i direktnu pretnju fabrikovanim medijima i širu eroziju istine u izbornom prostoru.

Skorašnji incidenti: Dipfejkovi remete politiku

Stvarni slučajevi iz poslednjih nekoliko godina pokazuju kako je sintetički medijski sadržaj već oružje u političkim kontekstima. U nastavku razmatramo nekoliko značajnih incidenata i studija slučaja u kojima su dipfejkovi i dezinformacije generisane veštačkom inteligencijom uticali na izbore ili javni diskurs:

  • Ukrajina (mart 2022) – Video „Predaje”: U ranim danima rata Rusije protiv Ukrajine, pojavio se video koji je prikazivao ukrajinskog predsednika Volodimira Zelenskog kako poziva svoje trupe da polože oružje i predaju se. Video je bio dipfejk, sa sintetički izmenjenim likom i glasom Zelenskog icct.nl. Prepoznatljive greške (mutne ivice, nepodudaranje boje vrata) odale su podvalu, a ukrajinski mediji su brzo razotkrili prevaru. Ovaj incident – prva poznata upotreba dipfejka tokom oružanog sukoba – nagovestio je kako AI propagandom može biti potkopano vođstvo tokom kriza icct.nl. Iako lažni video Zelenskog nije uspeo da demorališe ukrajinski otpor, pokazao je nameru i sposobnost malicioznih aktera (u ovom slučaju, pretpostavlja se, ruskih operativaca) da koriste dipfejkove za informacioni rat.
  • Slovačka (septembar 2023) – Dezinformacije tokom izbora: Samo nekoliko dana pre parlamentarnih izbora u Slovačkoj, dipfejk audio snimci postali su viralni, predstavljajući se kao priznanje Mihaela Šimečke, lidera Progresivne Slovačke, o izbornoj prevari, pa čak i sa predlogom da se duplira cena piva brennancenter.org. Neke verzije imale su nejasan disklejmer da su AI-generisane, ali se pojavljivao samo na kraju snimka – što je verovatno bila smišljena taktika obmane brennancenter.org. Tajming je bio jasno strateški, tik pred glasanje. Šimečkina prozapadna partija je za dlaku izgubila od prokremljskog rivala, a neki komentatori su nagađali da je poslednji trenutak podmetačine s dipfejkom možda uticao na ishod brennancenter.org. Ovaj slučaj pokazuje kako strani ili domaći akteri mogu koristiti dipfejkove za uticaj na tesnu trku i koliko je teško suprotstaviti se lažnim narativima u samoj završnici kampanje.
  • Tajvan (januar 2024) – Strane operacije uticaja: Uoči predsedničkih izbora na Tajvanu 2024, posmatrači su dokumentovali kinesku dezinformacionu kampanju koja koristi dipfejkove sa ciljem da potkopa kandidata Laja Čing-tea. Lažni video-snimci kružili su internetom, prikazujući Laja (iz vladajuće partije za nezavisnost) kako daje izjave koje nikada nije izrekao – na primer, lažno implicirajući da podržava program svojih protivnika policyoptions.irpp.org. U jednom slučaju, AI-generisan audio snimak Laja objavljen je tako da se čini kao da kritikuje sopstvenu partiju policyoptions.irpp.org, pokušavajući da njegovo biračko telo podeli. Ovi napadi sintetičkim medijima, koji vode poreklo iz Kine, imali su za cilj da utiču na javno mnjenje i seju zabunu u tajvanskoj demokratiji policyoptions.irpp.org. Na kraju, Laj je pobedio na izborima i analitičari su procenili da kineska kampanja dipfejkova nije značajno promenila ishod policyoptions.irpp.org. Ipak, to je bio školski primer kako neprijateljska strana sila koristi AI propagandu protiv demokratskih izbora policyoptions.irpp.org policyoptions.irpp.org. Ostaje zabrinutost da bi u neizvesnijim izborima drugde ovakva taktika mogla imati veći uticaj.
  • Sjedinjene Države (2024) – Dipfejkovi u kampanji: Tokom predizbornih aktivnosti u SAD 2024. zabeležen je porast političkog sadržaja generisanog AI-em koji, iako nije poremetio same izbore, izazvao je uzbunu. Početkom 2024, birači u Nju Hempširu dobili su zbunjujući robopoziv: glas nalik predsedniku Džou Bajdenu upućivao je Demokratama “sačuvajte svoj glas, nemojte ga iskoristiti na ovim izborima.” Glas je nekima zvučao autentično, ali je poruka očigledno bila sumnjiva – Bajden nikada ne bi pozvao svoje pristalice da ne glasaju. U stvarnosti, to je bio dipfejk glasovni klon Bajdena, poslat hiljadama birača u očitom pokušaju suzbijanja izlaznosti aljazeera.com aljazeera.com. Ovaj incident, koji je stigao na procenjenih 5.000 telefonskih brojeva u Nju Hempširu, pokazuje koliko je lako i jeftino izvesti ovakvu podvalu – konsultant koji je napravio Bajdenov dipfejk kaže da mu je za to trebalo samo 20 minuta i oko 1 dolar računarske snage policyoptions.irpp.org policyoptions.irpp.org. U međuvremenu, na društvenim mrežama AI-generisane slike pojavile su se i u zvaničnom kampanjskom materijalu. Posebno je tim guvernera Floride Rona DeSantisa objavio napadni oglas sa isfalsifikovanim slikama Donalda Trampa kako grli doktora Entonija Faučija – sugerišući da je Tramp bio previše blizak bivšem COVID savetniku koji nije popularan na desnici. Ispostavilo se da su snimci Trampa i Faučija AI-generisane lažnjake ubačene u video od strane kampanje brennancenter.org, što je dovelo do javne osude kada je otkriveno. U drugom slučaju, AI-video predsednika Bajdena koji “obraća” naciji promrmljanim govorom širio se internetom, ali je ubrzo razotkriven. Neki lažni video-snimci Bajdena i potpredsednice Haris prikupili su milione pregleda na društvenim mrežama cetas.turing.ac.uk, pokazujući koliko brzo ovakav sadržaj može da se širi. Čak su se i tehnološki magnati uključili: Ilon Mask je ozloglašeno podelio grubo izmenjeni video potpredsednice Haris (označen kao “satira”) koji je prikazuje kako izgovara besmislice – brišući granicu između mem-humora i dezinformacija cetas.turing.ac.uk cetas.turing.ac.uk. Iako nijedan od ovih dipfejkova nije promenio tok izbora, oni su učvrstili lažne narative (na primer, o Bajdenovoj mentalnoj sposobnosti ili Trampovoj lojalnosti) i dodatno otrovali informativno okruženje. Zvaničnici SAD takođe su zabrinuti zbog dipfejkova usmerenih na infrastrukturu izbora – npr. lažni audio-snimci izbornih nadzornika koji naređuju osoblju da postupe nepropisno aljazeera.com – mada u 2024. nije javno potvrđen nijedan ozbiljan takav incident.

Ovi primeri ističu globalni obuhvat pretnje. Dipfejkove koriste državni akteri u geopolitičkim sukobima, provokatori na domaćim izborima širom Evrope i Azije, kao i kampanje i pristalice u Sjedinjenim Državama. Javljaju se u obliku lažnih govora, slika, telefonskih poziva i video snimaka – ciljajući podjednako i birače i izborne zvaničnike. Dosadašnji incidenti donose i određene pouke: mnogi dipfejkovi jesu relativno brzo otkriveni i razotkriveni (često zahvaljujući budnim novinarima ili fekt-čekerima), a u više slučajeva reakcija na upotrebu dipfejkova (npr. DeSantisov oglas) generisala je negativan publicitet za počinioce. To sugeriše da transparentnost i budnost mogu umanjiti njihovu štetu. Ipak, trend je jasan – ovakve sintetičke neistine sve su češće i sve ih je teže odmah razlikovati od stvarnosti. Svaki izbori donose novu “premijeru” (2024. je obeležila prva AI “robopoziv” prevara za uticaj na glasanje, prva upotreba dipfejk oglasa u kampanji, itd.), a rizik od ozbiljnijeg dipfejk incidenta raste kako se bliži 2025.

Detekcija i suzbijanje dipfejkova: alati i tehnologije

Kritična komponenta zaštite izbora jeste razvoj pouzdanih alata za detekciju i ublažavanje protiv dipfejkova. Istraživači, tehnološke kompanije i vlade utrkuju se u kreiranju tehnologija koje mogu otkriti AI falsifikate i autentifikovati pravi sadržaj. Ovde predstavljamo trenutni pejzaž detekcije dipfejkova i pratećih protivmera:

  • Automatizovani detektori dipfejkova: Prva linija odbrane je veštačka inteligencija protiv veštačke inteligencije – algoritmi obučeni da analiziraju medijski sadržaj i identifikuju karakteristične tragove manipulacije. Ovi sistemi za detekciju traže suptilne artefakte ili nedoslednosti koje generativni modeli ostavljaju iza sebe. Rani dipfejkovi, na primer, često su imali nepravilno treptanje očiju ili nesavršen sinkronizovan pokret usana. Današnji detektori koriste duboke neuronske mreže da bi pažljivo analizirali stvari kao što su osvetljenje i senke na licima, obrasci zvučnih frekvencija ili biološki signali (npr. puls na snimku) koje AI možda neće moći da replicira. Tehnološke firme razvile su interne alate – Microsoft je 2020. lansirao „Video Authenticator“, alat koji je mogao da označi lažne video snimke analizom kadra po kadar. Platforme poput Facebook-a i X-a (Twitter) ulažu u istraživanja detekcije i koriste filtere koji hvataju poznate lažne medije. Akademske inicijative i takmičenja (poput Facebook Deepfake Detection Challenge i IEEE konferencija) podstakle su napredak, a startapi poput Sensity i Reality Defender nude komercijalne usluge detekcije dipfejkova. Ipak, ovo je stalna trka u naoružanju: kako se detekcija poboljšava, tako se kreatori dipfejkova prilagođavaju i prave još ubedljivije falsifikate koji zaobilaze automatizovane provere. Značajno je da je izveštaj kompanije Meta iz 2023. pokazao da je od sve dezinformacije označene tokom izborne sezone 2024, „manje od 1%” identifikovano kao AI-generisan sadržaj weforum.org, što sugeriše ili da su dipfejkovi relativno retki ili da su mnogi prošli neprimećeno kroz detekciju.
  • Vodeni žigovi i poreklo sadržaja: Druga strategija je označavanje AI-generisanog sadržaja pri samom stvaranju kako bi korisnici kasnije lako mogli da prepoznaju da je veštački. EU snažno zagovara taj pristup – novi EU Zakon o AI-u eksplicitno zahteva da sav AI-generisan ili AI-manipulisan sadržaj bude jasno označen ili obeležen vodenim žigom realitydefender.com. Kompanije bi morale da ugrade indikator (digitalni vodeni žig ili metapodatak) prilikom kreiranja slike, videa ili zvuka pomoću AI-a. U teoriji, pretraživači ili mreže mogu automatski da detektuju i označe sadržaj sa ovim markerima. Vodeni žigovi imaju potencijal, naročito kao preventivna mera za sprečavanje svakodnevne zloupotrebe. Glavni provajderi AI modela (OpenAI, Google i drugi) razgovaraju o dobrovoljnom vodenom žigu na slikama ili tekstu koji njihovi sistemi generišu. Povrh toga, koalicija medijskih i tehnoloških organizacija razvija standarde porekla (npr. C2PA, Koalicija za poreklo i autentičnost sadržaja) za kriptografsko beleženje porekla i istorije izmena digitalnih medija. Na primer, novinska fotografija ili izborni oglas mogu imati bezbednosni sertifikat autentičnosti, što svakome omogućava da proveri ko ga je napravio i da li je menjan cetas.turing.ac.uk. Američka vlada primenjuje ovu praksu; Bela kuća je naložila federalnim agencijama da do 2025. izrade smernice za „autentičnost po dizajnu“, ugrađujući metapodatke o poreklu u sav digitalni sadržaj koji proizvedu cetas.turing.ac.uk. Ukoliko se ovakve mere široko primene, mnogo će biti teže lažnim sadržajima da se predstavljaju kao autentični.
  • Ograničenja oznaka: Iako su alati transparentnosti ključni, nisu nepogrešivi. Vodeni žigovi mogu biti uklonjeni ili izmenjeni od strane odlučnih protivnika. Istraživači su već pokazali metode za uklanjanje ili zamagljivanje AI vodenih žigova realitydefender.com, a takođe, zlonamerni akter koji pravi sopstveni generativni model može jednostavno odlučiti da ne ubaci nikakav marker. Metapodaci o poreklu pomažu samo ukoliko su široko implementirani i samo ako korisnici zaista to proveravaju. Kreator dipfejka može koristiti i „provenance piggybacking” trik – uzeti autentičnu fotografiju ili video i nalepiti lažne elemente preko, tako da finalni fajl i dalje nosi originalni digitalni potpis. Ovi izazovi znače da ne možemo računati samo na oznake sadržaja. Kako navodi jedna firma za AI bezbednost, rešenja vodenih žigova i porekla funkcionišu samo kada kreatori sadržaja sarađuju u označavanju – što neće zaustaviti odlučne zlonamerne aktere realitydefender.com. Iz tog razloga, detekcija zasnovana na analizi sadržaja (inferencijalna detekcija) ostaje presudna realitydefender.com. Najbolja odbrana najverovatnije će biti kombinacija oba pristupa: pouzdani automatizovani detektori koji pretražuju falsifikate i sistemi za autentifikaciju legitimnih medija.
  • Detekcija uživo za video/zvuk prenose: Sve veća potreba je za alatima koji mogu otkriti dipfejkove u realnom vremenu. Zamislite hipotetičku situaciju lažnog „uživo“ video poziva sa kandidatom ili zvaničnikom – što se zaista i desilo 2023. kada su kriminalci u Hong Kongu napravili dipfejk lika direktora kompanije na Zoom-u da bi autorizovali prevarantski transfer od 25 miliona dolara weforum.org. U tom slučaju, više ljudi na pozivu – uključujući imitaciju finansijskog direktora – bili su svi generisani veštačkom inteligencijom. Detekcija takvih lažnih uživo prenosa izuzetno je izazovna. Kompanije rade na rešenjima kao što su ekstenzije za video-konferencije koje mogu upozoriti korisnika ako je slika ili glas sintetički izmenjen (npr. analizom latencije zvuka, spektarskih anomalija ili proverom da li se lice na ekranu precizno poklapa sa pokretima lica prave osobe pred kamerom). Neki startapi tvrde da nude API-je za detekciju dipfejkova u realnom vremenu koji se mogu integrisati u platforme za strimovanje ili čak identifikovati govornike na događajima uživo. Za sada, ipak, detekcija uživo kasni za napadačima, pa se naglasak stavlja na preventivne mere (kao što je upotreba lozinki ili dogovorenih „šifri“ tokom poziva radi provere identiteta, što preporučuje policija weforum.org).
  • Ljudska provera činjenica i oznake zajednice: Tehnologija sama nije srebrni metak. Ključna je pažnja i ljudskog faktora. Novinske organizacije, grupe za proveru činjenica i same platforme formirale su specijalne timove za praćenje viralnih dipfejkova u izbornim periodima. Ovi timovi koriste OSINT (tehnike otvorenih izvora) i forenzičke alate za analizu sumnjivog materijala – recimo, proverom vremenskih oznaka, traženjem nedoslednosti (kao što su različite minđuše na političaru u videu, čudni pokreti usana), te brzo objavljuju razotkrivanja. Pomažu i kolektivni napori: na X/Twitter-u funkcija “Community Notes” koristi se za označavanje postova sa AI-generisanim slikama ili videom dodatnim objašnjenjima. Tokom skorijih izbora korisnici su često razotkrivali dipfejkove u roku od nekoliko sati od pojavljivanja, postavljajući slike za poređenje ili ukazujući na greške. Ovakva kolektivna budnost, dopunjena digitalnom pismenošću, moćan je alat. Platforme se sve više oslanjaju na korisnike i nezavisne proveravače činjenica, imajući u vidu koliko materijala automatizovani sistemi moraju da pregledaju. Mana je to što dipfejk može postati viralan pre nego što bude razotkriven. Ipak, ubrzavanje odgovora i širenje svesti (tako da više korisnika zna da prepozna lažnjak) smanjiće štetu.

Ukratko, detekcija dipfejkova je aktivno i brzo rastuće polje. Napredak postoji – detektori su danas znatno efikasniji nego 2018, a inicijative poput Content Authenticity Initiative teže da verifikacija postane standard. Ipak, izazovi ostaju zbog igre mačke i miša sa protivnicima i potrebe za širokom upotrebom alata. U sledećim godinama verovatno ćemo videti kako se tehnologije detekcije sve više integrišu u društvene mreže, redakcijske procese i čak uređaje (zamislite da vas pametni telefon upozori da je dolazeci video verovatno AI-generisan). Ključno je da tehnologije detekcije i porekla idu ruku pod ruku sa javnim obrazovanjem — tako da kada se pojavi oznaka ili upozorenje, korisnici razumeju o čemu je reč i adekvatno reaguju. Ova tehnološka komponenta samo je jedan stub šire strategije potrebne za suzbijanje pretnji sintetičkim medijima.

Odgovori politike i regulatorni okviri

Kreatori politika širom sveta uvideli su pretnju dipfejkova i počeli su da izrađuju zakone i regulative kako bi je adresirali. Iako je problem nov, razvija se šarolik set odgovora u većim demokratijama. U nastavku je pregled zakonodavnih i regulatornih inicijativa u toku:

  • Sjedinjene Američke Države: U SAD trenutno ne postoji sveobuhvatan savezni zakon protiv političkih dipfejkova, ali postoji zamajac za popunjavanje te praznine. U Kongresu je predloženo više zakona s ciljem suzbijanja zlonamernih dipfejkova. Na primer, početkom 2024. predložen je zakon No AI FRAUD Act kao odgovor na incidenti sa AI-generisanim eksplicitnim slikama poznatih ličnosti policyoptions.irpp.org. Ovaj predlog zakona teži da uspostavi savezni okvir koji kriminalizuje određene štetne upotrebe AI-a, poput prevarantskih političkih dipfejkova i lažnih pornografskih sadržaja policyoptions.irpp.org. Drugi zakonodavni predlog je obavezno objavljivanje da je sadržaj u izbornim oglasima AI-generisan (da političke kampanje jasno označe sintetičke medije). U međuvremenu je Federal Communications Commission (FCC) napravila ciljani potez zabranom korišćenja AI klonova glasa u robot-pozivima u svrhu prevare ili nanošenja štete policyoptions.irpp.org. Povod za ovo su bile prevare u kojima su imitatori koristili glas stvarnih osoba. Ovaj potez čini nezakonitim da telemarketari ili politički operativci koriste sintetičke glasovne poruke za obmanu primalaca. Najviše regulative o dipfejkovima u SAD sprovodi se na državnom nivou. Od 2019. pojedine države poput Kalifornije, Teksasa i drugih donele su zakone o izbornim dipfejkovima. Kalifornija zabranjuje širenje materijalno obmanjujućih dipfejk videa kandidata u roku od 60 dana do izbora (osim za satiru/parodiju) brennancenter.org. Teksas je uveo krivičnu odgovornost za pravljenje ili deljenje dipfejk videa s ciljem da se kandidat povredi ili utiče na birače brennancenter.org. Do sredine 2025. najmanje četrnaest američkih država je usvojilo ili raspravlja o zakonima za regulisanje dipfejkova u izbornom kontekstu citizen.org. Ističe se da ove mere imaju dvostranačku podršku – zakonodavci obe partije se slažu da su AI-manipulisane izborne dezinformacije pretnja demokratiji citizen.org citizen.org. Zakoni se razlikuju: neki uvode krivične kazne za objavljivanje štetnih lažnih materijala o kandidatu, drugi se fokusiraju na obavezne oznake sintetičkih medija u političkom oglašavanju. Takođe, grupa Public Citizen je tražila od Federalne izborne komisije da ažurira svoja pravila i zabrani federalnim kandidatima širenje obmanjujućih dipfejkova u kampanjama brennancenter.org. Iako FEC još nije izdala nove regulative, tema je jasno na dnevnom redu. Američki zakonodavci moraju takođe balansirati zaštitu slobode govora – preširoke zabrane manipulisanim medijima mogu biti u suprotnosti sa Prvim amandmanom na Ustav. Na primer, satira i parodija (zaštićeni politički govor) često uključuju izmenjene slike ili video, pa zakon mora precizno ciljati samo zlonamerno obmanjivanje. To je i implementirano u brojnim zakonima država koje eksplicitno izuzimaju parodije, satiru ili novinarsku upotrebu brennancenter.org brennancenter.org. Opšti konsenzus je, međutim, da lažni AI-generisani sadržaj koji namerno ima za cilj da zavede birače ili izazove nerede nema legitimnu vrednost u demokratiji i može biti ograničen bez povrede slobode izražavanja brennancenter.org brennancenter.org.
  • Evropska unija: EU povlači odlučne poteze na polju opšte regulative veštačke inteligencije, uključujući mere koje direktno pogađaju dipfejkove. Ključni Zakon o AI-u EU, dogovoren 2024. (će u potpunosti stupiti na snagu 2026, a neki delovi i ranije), sadrži zahtev za transparentnost kod sintetičkih medija. Prema AI aktu, svaki AI sistem koji može generisati „dipfejk” sadržaj mora obezbediti da proizvod bude jasno označen kao AI-generisan (osim u nekim oblastima kao što su umetnost ili istraživanje bezbednosti) realitydefender.com. U praksi, kreatori AI modela za slike i video u EU biće obavezni da ugrađuju vodene žigove ili metapodatke koji signaliziraju da je izlaz sintetički. U slučaju neispunjavanja ovog uslova, prete visoke novčane kazne. Takođe, ažurirani Kodeks prakse protiv dezinformacija (dobrovoljni kodeks koji su potpisale glavne online platforme) specifično navodi dipfejkove kao pretnju i obavezuje platforme da razvijaju „politike, mere i alate za suzbijanje manipulisanim sadržajem” brennancenter.org brennancenter.org. Na primer, platforme su se obavezale da implementiraju sisteme za detekciju i/ili označavanje ili uklanjanje dipfejk videa koji mogu izazvati društvenu štetu i da sarađuju sa proveravačima činjenica u brzoj demontaži lažnog AI sadržaja. Prema Digital Services Act (DSA) – koji je stupio na snagu 2023 – veoma velike online platforme u EU moraju procenjivati i ublažavati „sistemske rizike” na svojim servisima, uključujući širenje AI-generisane dezinformacije. Ovaj regulatorni pritisak doveo je do toga da kompanije poput Meta, Google i TikTok uvode nove zaštitne mere za sezonu izbora 2024–2025: od unapređene detekcije dipfejkova do izraženijih oznaka sintetičkih medija. Ukratko, Evropa sprovodi regulativu sa naglaskom na transparentnosti: zahteva se označavanje AI izlaza i drže se platforme odgovornim da spreče dezinformacije pomoću dipfejkova. Kritičari upozoravaju da će sprovođenje biti izazovno (kako detektovati sve neoznačene falsifikate u poplavi sadržaja?), ali EU šalje jasnu poruku da neobuzdani dipfejkovi nisu prihvatljivi i nisu u skladu sa njenim standardima digitalnog upravljanja realitydefender.com realitydefender.com.
  • Ujedinjeno Kraljevstvo: UK još nije usvojio posebne zakone o dipfejkovima u izbornom kontekstu, ali temu obrađuje kroz šire inicijative o internet bezbednosti i AI. 2023. je donet Online Safety Act, sveobuhvatan zakon o regulaciji štetnog sadržaja na internetu. Taj zakon je posebno kriminalizovao deljenje neodobrenih dipfejk pornografskih materijala – stvaranje ili distribucija eksplicitnih sintetičkih slika nekoga bez pristanka je zabranjena policyoptions.irpp.org. To je adresiralo problem uznemiravanja putem dipfejkova. Za dezinformacije tokom izbora, Online Safety Act daje regulatoru Ofcom ovlašćenje da izda kodekse prakse protiv dezinformacija. Stručnjaci pozivaju Ofcom da razvije kodeks o dezinformacijama koji bi uključio standarde za rukovanje AI-manipulisanim sadržajem cetas.turing.ac.uk. Takav kodeks, možda po uzoru na EU rešenje, mogao bi naterati društvene mreže i političke aktere u UK da se uzdrže od širenja dipfejkova i jasno označe svaki sintetički medijski sadržaj. Takođe se traži od Izborne komisije UK da daje preporuke strankama o odgovornoj upotrebi AI, postavljajući crvene linije protiv obmanjujućih dipfejkova u kampanji cetas.turing.ac.uk. Krajem 2024, višepartijski odbor poslanika preporučio je pooštravanje izbornog zakona i kažnjavanje dipfejk dezinformacija, iako zvanični predlog još nije podnet. Vlada je najavila da razmatra da li su postojeći zakoni (npr. o kleveti, prevari i izbornim prekršajima) dovoljni za suđenje zbog štetnih dipfejkova ili su potrebni novi propisi cetas.turing.ac.uk. UK takođe osniva Institut za AI bezbednost i bio je domaćin globalnog Samita o AI bezbednosti 2023, gde je bila tema i manipulacija informacijama. Britanske vlasti se za sada više fokusiraju na tehničku zaštitu i medijsku pismenost (detaljnije u preporukama) nego na zakonske zabrane. Ipak, koraci poput zabrane dipfejk pornografije i jačanja regulatora pokazuju da AI-generisani lažni sadržaj zahteva politički odgovor.
  • Kanada: Do 2024. Kanada nije imala poseban zakon protiv dipfejkova na izborima. Zakon o izbornim postupcima ne zabranjuje eksplicitno AI-generisanu dezinformaciju ni dipfejkove, pa bi se takvo delo gonilo na osnovu opštih odredbi (npr. o prevari ili lažnom predstavljanju) koje možda nisu u potpunosti adekvatne cef-cce.ca. Eksperti su upozoravali da je Kanada „korak ili dva iza” drugih demokratija po tom pitanju policyoptions.irpp.org. Jeseni 2023. desio se manji incident kad je kružio dipfejk audio klip sa lažnim glasom političara. Iako je uticaj bio mali, svest javnosti se povećala. Kanada Izbori su od tada označili AI dezinformacije kao nadolazeću pretnju i istražuju moguće odgovore cef-cce.ca. Analitičari pozivaju na donošenje novih zakona „još juče” – verovatno dajući veća ovlašćenja Komisiji za kanadske izbore za borbu protiv sintetičkih medija u kampanjama policyoptions.irpp.org. Kanada može da se ugleda na ideje saveznika: na primer, implementira pravila o označavanju AI-izbornih oglasa ili da zloupotrebu materijala za koji se zna da je dipfejk s ciljem obmane birača učini krivičnim delom. Po stanju iz sredine 2025, zakon nije predložen, ali raste pritisak da se i Kanada uključi u suzbijanje izbornog dipfejk problema zakonom policyoptions.irpp.org.
  • Druge demokratije: Širom sveta, još nekoliko demokratija uvodi mere:
    • Australija: Australijska vlada, zabrinuta zbog „propadanja istine“ pod uticajem AI-a pred izbore, najavila je planove za zakon o „istini u političkom oglašavanju“ kojim bi se zabranili obmanjujući dipfejk video i audio tokom kampanje innovationaus.com. Predlog, koji je 2023. dala Albaneseova vlada, zabranio bi objavljivanje sintetičkih medija koji imitiraju prave kandidate ili mogu da obmanu birače tokom izbornih perioda innovationaus.com. Zakonska procedura, međutim, ide sporo – izveštaji pokazuju da bi odredbe možda stupile na snagu tek 2026. innovationaus.com, što znači da bi federalni izbori 2025. mogli proći bez pune zaštite. U međuvremenu, Izborna komisija Australije izdala je smernice i naglasila potrebu za boljom perspektivom (komisija je upozorila da preterano fokusiranje na dipfejkove može nenamerno umanjiti povrenje u realne informacije) ia.acs.org.au. Australijski političari svih stranaka izražavaju podršku sprečavanju AI dezinformacija, a debata o balansu sa slobodom političkog govora se nastavlja theguardian.com sbs.com.au.
    • Tajvan: Nakon što je iskusio dipfejk mešanje iz Kine, Tajvan je izmenio izborni zakon. 2023. parlament Tajvana izmenio je Zakon o izborima i opozivu da izričito zabrani deljenje izmenjenog zvuka ili videa kandidata sa namerom lažiranja izbornog rezultata policyoptions.irpp.org. Time je stvorena jasna pravna alatka protiv onih koji plasiraju dipfejk klevete, kakve su viđene 2024. Tajvan je takođe uložio u javno obrazovanje i sistem za brzi odgovor (uključujući vladu, civilni sektor i tehnološke platforme) za razotkrivanje lažnih informacija, čime je smanjen uticaj policyoptions.irpp.org policyoptions.irpp.org.
    • Evropske demokratije: Pojedinačne evropske zemlje, pored EU propisa, počinju da se bave dipfejkovima primenom postojećih zakona. Na primer, francuski zakon o „lažnim informacijama” tokom izbora (usvojen 2018.) može se primeniti na dipfejk video materijal koji se širi sa namerom da promeni tok glasanja, a strogi nemački zakoni o kleveti i izbornim prekršajima mogli bi se slično koristiti. Takođe postoje i novi predlozi: u Nemačkoj se razmatra obavezivanje stranaka da javno prijave korišćenje sintetičkih medija u izbornim materijalima. U UK, kao što je pomenuto, buduće izmene izbornog zakona (npr. o oznakama na digitalnim oglasima) mogu uključiti i obaveze o označavanju AI sadržaja cetas.turing.ac.uk.
    • Međunarodne inicijative: Sve se više prepoznaje da je potrebna globalna saradnja, jer se dezinformacije ne zadržavaju unutar granica. G7 ima radnu grupu o „upravljanju AI-em”, koja je 2024. izdala saopštenje o suzbijanju zlonamerne upotrebe veštačke inteligencije u informacionom prostoru. Bajdenova administracija u SAD dobila je dobrovoljna obećanja velikih AI kompanija (OpenAI, Google, Meta itd.) o uvođenju vodenih žigova za AI sadržaj i ulaganjima u prevenciju zloupotrebe. Iako to nije obavezujuće, ukazuje na formiranje međunarodne norme u korist transparentnosti i odgovornosti pri korišćenju AI-a.

U zaključku, odgovori politike na dipfejkove ubrzavaju. Zakonodavstvo još uvek sustiže tehnologiju, ali trend je jasan: vlade nastoje da kriminalizuju najštetnije oblike sintetičkih medija u izbornom procesu, da uvedu obaveznu transparentnost (oznake/objave) za AI-generisane sadržaje i da ovlasti regulatore ili izborne organe da deluju protiv digitalnih falsifikata. Istovremeno, potrebno je zaštiti legitimno izražavanje kao što su satira i izbegavati drakonska pravila koja bi se mogla zloupotrebiti za cenzuru. Pronaći ravnotežu nije lako. Pristupi, od američkih državnih zakona do EU mandata, biće poligon za testiranje tokom 2025. Donosioci politika će svakako usavršavati ova sredstva kako budemo saznali šta zaista deluje. Međutim, ne učiniti ništa nije opcija: kako ističe jedan izveštaj, „Bez regulative, dipfejkovi će verovatno još više zbunjivati birače i potkopavati poverenje u izbore.” citizen.org citizen.org Sledeće poglavlje daje strateške preporuke zasnovane na ovim naporima, usmerene ka svim akterima demokratskog procesa.

Стратешке препоруке за заштиту избора

Одбрана изборног интегритета у ери вештачке интелигенције захтева вишеслојну стратегију. Ниједан појединачни алат или закон не може решити проблем дипфејкова; уместо тога, неопходан је координисан напор влада, технолошких платформи, медија и цивилног друштва. У наставку су наведене стратешке препоруке за све ове секторе ради ублажавања ризика и обезбеђивања да бирачи могу доносити информисане одлуке 2025. и после:

Владе и доносиоци политика

1. Ојачати законску заштиту и мере одвраћања: Владе треба да донесу или ажурирају законе који ће експлицитно забранити злоупотребу синтетичких медија на изборима. Ово подразумева криминализовање стварања или дистрибуције, у намери да се јавност превари или избори саботирају, било ког дипфејка који лажно приказује кандидата или манипулише информацијама везаним за изборе (као што су процедуре гласања). Прецизно циљање је кључно – закони треба да се односе на намерну обману (дезинформације), уз јасне изузетке за сатиру, пародију или очигледно уметничко изражавање. Казне (новчане или кривичне) ће одвратити потенцијалне креаторе дипфејкова, посебно ако се примењују брзо. На пример, предложена аустралијска забрана обмањујућих дипфејкова током кампања и нови тајвански чланови закона који се боре против AI-маниупулисаног изборног садржаја могу да послуже као модели innovationaus.com policyoptions.irpp.org. У САД, савезно деловање (као што је предложени No AI FRAUD Act) може поставити националну основу, допуњујући законе појединачних савезних држава. Поред тога, владе треба да ажурирају правила финансирања кампања и оглашавања: да захтевају да сваки политички оглас (онлајн или емитован) који садржи синтетичке медије мора имати јасну напомену (на пример: „Ова слика/видео је генерисан AI технологијом“) како би се гледаоци заштитили од обмане. Регулативе о истини у оглашавању за кампање морају се проширити и на AI садржај.

2. Увести инцидентне протоколе за изборе: Изборна тела треба да успоставе формалне протоколе за реаговање на озбиљне дипфејк инциденте у реалном времену. Одличан пример је канадски Протокол за јавност о критичним изборним инцидентима, који окупља високе званичнике ради процене и информисања јавности о страним мешањима или претњама дезинформацијама током избора cetas.turing.ac.uk cetas.turing.ac.uk. И друге демократије треба да примене сличне механизме. Ако се појави опасан дипфејк (рецимо, фабриковани видео кандидата који на дан избора признаје пораз), активирао би се протокол – званичници, обавештајни стручњаци и технолошке платформе брзо би проверили истину и издали јавно саопштење разоткривајући лажни садржај и појашњавајући чињенице cetas.turing.ac.uk. Ова брза контрареакција је од суштинске важности за ублажавање утицаја дезинформација које се експлозивно шире. Владе треба унапред да увежбавају такве одговоре (симулирају сценарије са различитим дипфејковима), како би реаговали брзо и јединствено када је то потребно.

3. Улагати у инфраструктуру за детекцију и аутентификацију: Агенције јавног сектора треба да уложе ресурсе у развој алата за откривање дипфејкова и аутентификацију садржаја. Ово подразумева финансирање истраживања и развоја (на пример, програма по узору на DARPA који се баве AI дезинформацијама), подршку за примену алата за детекцију на изборима и усвајање стандарда за аутентификацију у званичној комуникацији. Конкретан корак је да државни медији (јавни сервиси, званични налози на друштвеним мрежама и слично) почну да додају проверљиву метаподатке о пореклу свим званичним фотографијама, видео и аудио материјалу који објављују cetas.turing.ac.uk. Тако се ствара основа „проверено аутентичних“ информација. Бирачи и новинари ће онда моћи да верују снимцима са званичним државним печатом у метаподацима – и обрнуто, биће скептичнији према сличном материјалу без тог кредибилитета. Владе могу да предњаче овим приступом „аутентичност по дизајну“ cetas.turing.ac.uk, који већ истражују САД и УК. Поред тога, органи полиције и надзорна тела за изборе треба да буду опремљени форензичким анализама за процену сумњивих медија током кампања. Свесност да органи имају техничке могућности да прате и идентификују дипфејкове (и евентуално извршиоце) деловаће као превентива за злонамерне актере.

4. Разјаснити и модернизовати постојеће законе: Многе државе могу установити да се актуелни закони о превари, крађи идентитета, клевети или изборном мешању могу применити у неким дипфејк случајевима – али могу постојати рупе. Владе треба да прегледају свој законски оквир и установе да ли су потребне нове категорије. На пример, постоје ли прописи против AI-генерисаног представљања јавног функционера? Ако не, увести их. Обезбедити да закони о заштити података и приватности покривају неовлашћено коришћење лика/гласа путем AI-а као прекршај. Разјашњење правног статуса штетних дипфејкова (и јавна кампања о томе) је важно како би потенцијални злоупотребљивачи знали да могу бити позвани на одговорност. То такође оснажује жртве (кандидате или грађане) да траже правну заштиту ако су мета. Ова ревизија треба да обухвати и изборне законе: ажурирати дефиниције незаконитог изборног оглашавања или дезинформација у анкетама тако да јасно укључе манипулације синтетичким медијима cetas.turing.ac.uk. Циљ је уклонити сваку нејасноћу – потенцијални дезинформатор не сме бити у могућности да тврди „технички није забрањено јер је AI“. Ако су закони експлицитни, лакша је примена и процесуирање.

5. Јачати међународну сарадњу: Како кампање дезинформација често потичу из иностранства (или се шире преко граница), демократске државе морају да сарађују на овом пољу. Обавештајне и сајбер безбедносне службе треба да размењују податке о новим дипфејк техникама (на пример, ако једна држава открије страну дипфејк операцију, да упозори остале). Форуми као што су Алијанса за обезбеђење демократије, Г7, дијалози ЕУ-САД и слични могу координисати заједничке изјаве и норме против изборних дипфејкова. Дипломатски притисак се може вршити на државе које спонзоришу или толеришу мешање. Постоји простор и за сарадњу у истраживањима – на пример, међународни центар за откривање дипфејкова може заједнички прикупљати податке ради унапређења алгоритама. Органи за мониторинг избора (попут ОЕБС-а или међународних посматрачких мисија) треба да ажурирају своје методологије и у њих укључе праћење утицаја синтетичких медија, а државе да предвиде сценарије са дипфејковима у споразумима о међусобној заштити демократских процеса. Заједнички фронт отежава злоупотребу слабости појединачних држава.

6. Јачање јавне свести и дигиталне писмености: На крају, владе имају важну улогу у образовању бирачког тела о дипфејковима. Многе државе разматрају или већ уводе програме дигиталне писмености у школама и за општу популацију cetas.turing.ac.uk. Ови програми уче људе како да провере информације са интернета, препознају знакове манипулисаних медија и критички размишљају о изворима. С обзиром на то колико уверљиви AI фејкови могу бити, изузетно је важно да сваки бирач зна за постојање таквих фалсификата и да се осећа способним да провери изненађујући садржај (уместо да га насумце поверова или даље дели). Владе треба да сарађују са образовним институцијама и невладиним организацијама како би подигли свест о дипфејковима у школским програмима и јавним кампањама. На пример, емитовање јавних спотова који упоредо приказују стварни и дипфејк снимак политичара и објашњавају разлике може повећати свест. Истраживања показују да особе са вишим медијском писменошћу и критичким размишљањем много боље препознају дипфејкове и одолевају дезинформацијама cetas.turing.ac.uk. Стога је финансирање иницијатива медијске писмености једна од најефикаснијих дугорочних одбрана. Када јавност постане „сензор мрежа“ – препознаје и пријављује фејкове – ефекат дипфејк пропаганде може бити значајно умањен.

Технолошке платформе и AI развојне компаније

1. Ојачати политике платформи и спровођење: Друштвене мреже и онлајн платформе представљају главне канале за ширење вирусних дипфејкова. Ове компаније треба да усвоје строге политике против манипулисаних медија који уводе кориснике у заблуду, нарочито када су у питању избори. Многе платформе су већ започеле са овим: на пример, Facebook и Twitter (X) имају политике за уклањање или означавање „манипулисаних медија“ који могу нанети штету. Али, примена мора бити чврста. Платформе треба да унапреде своју аутоматску детекцију дипфејкова (користећи најновије алате) и осигурају брзу реакцију људских модератора када корисници пријаве сумњиви садржај. Током изборних периода, компаније могу успоставити посебне алате („ратне собе“) и комуникационе канале са изборним комисијама за реаговање на дипфејк инциденте у реалном времену. Када се препозна лажни садржај, платформе треба обавезно да га означе као лажан или да га одмах уклоне, те да га спусте у алгоритамима приказа ради заустављања ширења brennancenter.org brennancenter.org. Транспарентност је такође важна: платформе могу редовно објављивати извештаје о откривеним дипфејковима и предузетим корацима, што гради поверење јавности. Оне такође могу делити узорке откривених дипфејкова са истраживачима како би се унапредило заједничко разумевање.

2. Uvođenje obavezne oznake i praćenja deepfake sadržaja: Po ugledu na vođstvo EU, platforme širom sveta bi trebalo da zahtevaju da AI-generisani sadržaj bude označen i otkriven. Na primer, ako se postavi politički oglas koji sadrži AI-generisanu sliku ili glas, platforma može zahtevati od pošiljaoca da označi polje „ovaj sadržaj ima sintetičke elemente“ – nakon čega se prikazuje obaveštenje gledaocima („Ovaj video je izmenjen ili delimično generisan uz pomoć veštačke inteligencije“). Čak i van formalnih oglasa, platforme mogu koristiti alate za detekciju kako bi vizuelno označile sumnjive deepfake videe (npr. upozorenje preko ekrana da autentičnost videa nije potvrđena). Dodatno, društvene mreže i servisi za poruke mogu integrisati funkcionalnosti za autentičnost sadržaja: koristeći standarde poput C2PA, mogu prikazati korisnicima ikonicu ako su izvor i istorija izmena slike verifikovani, ili obrnuto, upozoriti ukoliko ti podaci nedostaju. Neke tehnološke kompanije (Adobe, Microsoft, Twitter) već učestvuju u ovakvim naporima. Ugrađivanjem signala o poreklu sadržaja u svoje korisničke interfejse, platforme mogu pomoći korisnicima da razlikuju stvarno od lažnog. Takođe bi trebalo da rade na mehanizmima za traganje unazad – na primer, ako se štetan deepfake masovno širi, mogu li da otkriju ko ga je originalno postavio, čak i ako je repostovan hiljadama puta? Saradnja sa organima reda u slučaju većih incidenata (uz poštovanje zakona o privatnosti) biće važna za hvatanje počinilaca.

3. Zabrana zlonamernih deepfake korisnika i mreža: Platforme moraju aktivno nadgledati organizovane aktere koji uporno plasiraju deepfake sadržaj. To znači ne samo uklanjanje pojedinačnih sadržaja, već zatvaranje naloga, stranica ili botova uključenih u koordinisane deepfake kampanje. Ako postoje dokazi da je neka operacija povezana sa državnim akterom ili poznatom fabrikom trolova, platforme bi trebalo to javno da objave i eliminišu njihovo prisustvo. Mnoge dezinformacione mreže su uklonjene poslednjih godina; isti agresivan pristup mora važiti i za AI-posredovane operacije uticaja. Platforme treba da ažuriraju svoja pravila korišćenja kako bi izričito zabranile zlonamerno kreiranje ili deljenje sintetičkih medija sa ciljem obmane drugih. Ta pravila daju osnov za zabranu prekršioca. U političkom oglašavanju, svaka kampanja ili organizacija koja bude uhvaćena da koristi obmanjujuće deepfake sadržaje treba da bude kažnjena, na primer gubitkom prava na oglašavanje. Tehnološke kompanije takođe mogu sarađivati kako bi održavale zajedničku crnu listu poznatih deepfake hešova ili potpisa, pa da jednom kada se lažan sadržaj identifikuje na jednoj platformi, može da se blokira i na ostalim (kao što se to radi za teroristički sadržaj preko konzorcijuma). Suština je da korišćenje deepfake sadržaja na glavnim platformama postane neisplativo – sadržaj će brzo biti uklonjen ili će akter izgubiti nalog.

4. Saradnja sa proveravaocima činjenica i vlastima: Nijedna platforma ne može sama savršeno kontrolisati sadržaj. Saradnja je ključna. Kompanije društvenih medija treba da prodube partnerstva sa nezavisnim organizacijama za proveru činjenica radi procene viralnog sadržaja. Kada proveravaoci dokažu da je video lažan, platforme moraju pojačati tu ispravku – npr. prikačiti link ka članku sa proverom činjenica svaki put kada se video podeli, ili obavestiti sve korisnike koji su prvobitno videli lažnjak. Kompanije poput Facebook-a su to radile za dezinformacije i trebalo bi da nastave za deepfake sadržaje. Takođe, platforme bi trebalo da se usklade sa izbornim komisijama i bezbednosnim agencijama, posebno tokom izbora. Mogu uspostaviti direktne linije ili kanale za prijavu sumnjivih deepfake sadržaja koji utiču na izbore, i obrnuto, platforme mogu obaveštavati vlasti ako primete stranu dezinformacionu kampanju usmerenu protiv zemlje. U nekim jurisdikcijama, postoje formalni dogovori (na primer, EU Kodeks prakse podstiče razmenu informacija sa vladama u pogledu dezinformacija brennancenter.org). Čak i u SAD, odsek za sajber bezbednost Ministarstva unutrašnje bezbednosti sarađuje sa platformama na praćenju dezinformacija tokom izbora. Ta saradnja, naravno, mora poštovati slobodu izražavanja i ne sme preći u cenzuru legitimnog govora. Ali kada je reč o jasno fabrikovanom, štetnom materijalu, brza i koordinisana reakcija između platformi i javnih institucija može zaustaviti širenje lažnjaka. To može uključivati zajednička saopštenja za medije kojima se demantuje viralni lažnjak ili algoritamsko favorizovanje autoritativnih izvora kako bi se neutralisalo širenje.

5. Unapređivanje zaštita u AI modelima: Kompanije koje razvijaju generativne AI modele (OpenAI, Google, Meta itd.) imaju odgovornost na izvoru. One treba da implementiraju zaštite kako bi sprečile zloupotrebu AI za mešanje u izbore. To može uključivati vodene žigove na AI-izlazima, kao što je pomenuto (tako da svaka slika generisana, npr. pomoću DALL-E ili Midjourney, ima ugrađen potpis). Takođe, može uključivati kuriranje podataka za obuku – na primer, obezbeđivanje da su modeli istrenirani da odbiju zahteve da na štetan način imitiraju stvarne osobe. Već neki AI alati odbijaju da generišu deepfake slike pravih političkih figura zbog ugrađenih filtera za sadržaj. Ove zaštite treba stalno unapređivati (mada otvoreni AI modeli predstavljaju izazov jer ih loši akteri mogu fino prilagoditi, izbegavajući ograničenja). AI programeri treba i da ulažu u istraživanja tehnika detekcije deepfake sadržaja i dele ih sa zajednicom. Ohrabruje što su mnoge vodeće AI firme dobrovoljno podržale vodene žigove i autentifikaciju sadržaja. U budućnosti bi mogli da razviju zajednički API kako bi se svaki video ili audio fajl mogao brzo proveriti da li je generisan pomoću nekog od njihovih modela. Suštinski, oni koji prave „problem“ (generativnu tehnologiju) treba da doprinesu i „rešenju“ (sredstvima za identifikaciju njihovog outputa).

6. Transparentnost u političkom oglašavanju: Platforme koje objavljuju političke oglase treba da uvedu strogu transparentnost oko korišćenja veštačke inteligencije. Ako se na Facebook-u ili Google-u promoviše politički oglas koji sadrži AI-generisane elemente, oglasna biblioteka platforme to treba jasno da navede. Platforme čak mogu zahtevati od političkih oglašivača da dostave sirov, neizmenjen materijal radi poređenja. Ambicioznije bi bilo da društvene mreže privremeno zabrane sve političke oglase sa sintetičkim medijima tokom osetljivih zadnjih dana kampanje – slično kao što neke zabranjuju nove političke oglase neposredno pred dan izbora. Ovo bi eliminisalo rizik od ose adova sa deepfake sadržajem u poslednjem trenutku. Iako je sprovođenje zahtevno, princip je jasan: plaćeno promovisanje obmanjujućeg sadržaja je naročito opasno i platforme imaju više slobode da regulišu oglase nego pojedinačne korisničke objave. Obezbeđivanje visoke transparentnosti i brzih uklanjanja u reklamnom domenu je ključno, pošto deepfake plasiran kroz plaćene oglase može dostići milione ljudi targetiranih algoritmom i nepravedno izobličiti informativnu sredinu.

Mediji i novinarske organizacije

1. Rigorozni protokoli verifikacije: Novinarstvo mora prilagoditi svoje metode provere autentičnosti materijala eri deepfake tehnologije. Svaka redakcija – od nacionalnih televizija, preko lokalnih novina, do sajtova za proveru činjenica – treba da ustanovi formalne procedure za autentifikaciju audio-vizuelnog materijala pre emitovanja ili objavljivanja. To podrazumeva obuku novinara za korišćenje forenzičkih alata (npr. provera metapodataka videa, analiza slika) i konsultacije sa ekspertima kada je potrebno. Za svaki senzacionalni ili skandalozni snimak koji se pojavi tokom izbora, urednici treba da ga tretiraju sa zdravim skepticizmom i ne žure sa objavom dok ne potvrde autentičnost. Novinske redakcije treba da duplo potvrde svaki sadržaj koji šalju korisnici: na primer, ako se pojavi video na kojem kandidat čini nešto šokantno, redakcija treba da potraži dodatne dokaze (svedoke, zvanična saopštenja itd.) ili makar izvrši detaljnu, frejm-po-frejm analizu radi provere autentičnosti. Cilj je izbeći nenamerno širenje dezinformacija. Neki mediji su već formirali interne „deepfake taskforce“ timove. U jednom slučaju, novinari u Arizoni su čak sami napravili deepfake (uz dozvolu) kako bi edukovali gledaoce koliko je lako falsifikovati video knightcolumbia.org – pametan način podizanja svesti. Sve redakcije bi trebalo da razmotre da imaju „deepfake eksperta“ na raspolaganju (ili partnerstvo sa tehničkom laboratorijom) za brzu analizu sumnjivog materijala. Ako proveru autentičnosti učine rutinskom kao proveru tačnosti, mediji mogu rano otkriti lažnjake ili makar upozoriti publiku ako nešto nije potvrđeno.

2. Odgovorno izveštavanje o deepfake sadržajima: Kada izveštavaju o slučajevima sintetičkog medija, novinari to treba da čine pažljivo i sa kontekstom. Ako manipulisani video kojim se targetira neki kandidat postane viralan, vest nije u samim lažnim tvrdnjama, već u činjenici da se radi o lažnoj manipulaciji. Medijski izveštaji treba da se uzdrže od detaljnog ponavljanja lažnih tvrdnji ili nekritičkog objavljivanja samog fake videa, jer to može nenamerno dodatno proširiti dezinformaciju. Umesto toga, mogu ga opisati uopšteno i fokusirati se na reakciju (npr: „Manipulisan video koji lažno prikazuje X osobu u situaciji Y je objavljen na internetu; stručnjaci su ga demantovali“). Redakcije mogu odlučiti da zamagle ili ne linkuju direktno na deepfake sadržaj u svojim online tekstovima cetas.turing.ac.uk, kako bi sprečile širenje ili preuzimanje tog materijala radi dalje zloupotrebe. Način izveštavanja je važan: treba istaći pokušaj obmane i činjenicu da je u pitanju deepfake pre nego samu lažnu naraciju cetas.turing.ac.uk. Mediji treba da istaknu ispravke ili istinu (na primer: „Ne, političar Z to nije rekao – video je AI falsifikat; ovo je šta je zapravo izjavio/la po tom pitanju.“). Doslednim sprovođenjem ovakve prakse ugledni mediji mogu ojačati javnost protiv širenja lažnjaka. Potrebno je naći balans između izveštavanja o dezinformaciji (jer ignorisanje ne rešava problem) i izbegavanja njenog nenamernog proširenja. Smernice slične onima za izveštavanje o prevarama ili masovnim pucnjavama (gde se određene informacije minimizuju radi sprečavanja kopiranja) mogu biti razvijene i za izveštavanje o deepfake sadržajima. Britanska Organizacija za standarde nezavisne štampe (Independent Press Standards Organisation) ima zahteve da se njeni kodeksi prošire na ovakve slučajeve cetas.turing.ac.uk.

3. Korišćenje tehnologije za autentifikaciju u redakcijama: Same novinske organizacije mogu iskoristiti infrastrukturu za autentifikaciju koja je u razvoju. Na primer, jedan medij može usvojiti alate Content Authenticity Initiative-a kako bi prikačio kriptografske overene akreditive na sve originalne fotografije i video snimke koje su napravili njihovi novinari. To znači da bi svaki snimak koji napravi, recimo, snimatelj Reuters-a ili AP-a mogao da nosi sigurnosni pečat koji potvrđuje njegovo poreklo i sve eventualne izmene. Kasnije, kada ljudi pogledaju neki video sadržaj za koji se navodi da je iz Reuters-a, mogu lako proveriti da li je autentičan. Ove mere pomažu da se utvrdi šta je stvarno, nudeći javnosti izvor istine. Medijske kuće bi takođe trebalo da sarađuju u izgradnji baza poznatih deepfake-ova (ali i poznatog autentičnog sadržaja) koji mogu da pomognu fakt-čekerima. Na primer, održavanje baze zvaničnih govora i intervjua može brzo razotkriti lažirani klip jednostavnim poređenjem. Glavne novinske agencije mogu koordinisano i brzo obavestiti sve pretplatnike ako se pojavi opasni deepfake – slično kao kada izdaju hitne vesti. Unutar redakcija, urednici moraju biti svesni da politički akteri mogu pokušati da podmetnu lažne medijske materijale novinarima (npr. tip sa “prosurenim” audio snimkom koji je, u stvari, generisao AI). Oprez i visok stepen skepticizma prema digitalnim materijalima iz anonimnih izvora je neophodan.

4. Edukacija publike: Mediji mogu odigrati veliku ulogu u edukaciji birača o sintetičkim medijima. Novinske kuće i novinari treba da prave materijale koji objašnjavaju temu, intervjue sa stručnjacima i segmente koji pokazuju javnosti kako se deepfake-ovi prave i kako ih prepoznati. Demistifikovanjem tehnologije smanjuju njenu moć. Neki TV prilozi u 2024. godini, na primer, prikazivali su AI klonove glasa uživo, kako bi pokazali kako prevara putem poziva može imitirati glas vašeg rođaka. Takođe, izveštavanje tokom izborne sezone može uključiti podsećanja: “Ako u poslednjem trenutku vidite neverovatan snimak o kandidatu, budite oprezni – moguć je lažnjak. Evo kako da proverite…”. Javne kampanje podizanja svesti koje vode mediji (možda u saradnji sa državom ili NVO) mogu značajno unaprediti digitalnu pismenost. Novinari bi, takođe, trebalo da dosledno koriste precizan jezik: nazivati nešto „deepfake“ ili „AI-generisani lažni video“, umesto samo „izmenjeni snimak“, pomaže u tome da se ova nova kategorija osvesti. Postepeno, dobro informisana javnost će biti manje sklona prevarama i više će tražiti dokaze. Mediji, kao posrednik između informacija i javnosti, imaju obavezu da grade tu otpornost.

5. Odgovornost i razotkrivanje: Na kraju, novinari treba da istražuju i otkrivaju ko stoji iza poznatih deepfake operacija. Držanje odgovornih lica na stubu srama u javnosti može obeshrabriti buduće zloupotrebe. Ako se prepozna da su izvor zlonamernog deepfake-a rivalska kampanja, strana trol-farma ili određena onlajn grupa, javno izveštavanje o tome stvara stigmu i rizik za korišćenje takvih taktika. Prilozi o tome kako su kampanje dezinformacija nastale i finansirane mogu im oduzeti efikasnost. Dodatno, ako političar ili javna ličnost sami podele deepfake znajući da je lažan (na primer, kandidat objavi lažni video protiv protivnika), mediji to moraju jasno i čvrsto osuditi – tretirajući to kao ozbiljan prestup. Pregled negativnog publiciteta i narušavanje ugleda može odvratiti političke aktere od “prljavih trikova” kao što je korišćenje deepfake-ova. Ukratko, uloga čuvara javnog interesa koju novinarstvo ima, proteže se i na digitalnu sferu: istražujte, identifikujte i razotkrivajte zlonamerne operacije sa sintetičkim medijima, kao i svaki drugi vid prevare ili korupcije u politici.

Građansko društvo i inicijative birača

1. Digitalna pismenost i edukacija zajednice: Organizacije građanskog društva – uključujući neprofitne organizacije, biblioteke, univerzitete i lokalne grupe – mogu biti predvodnici u edukaciji građana za snalaženje u eri deepfake-ova. Programi koji se lako mogu proširiti trebalo bi da budu obezbeđeni zajednicama kako bi naučile da proveravaju medije. Na primer, NVO mogu organizovati radionice koje ljude uče jednostavnim trikovima poput obrnute pretrage slika (da bi proverili da li je fotografiju generisala veštačka inteligencija ili je izmenjena), traženju potvrde u više izvora vesti i korišćenju sajtova za fact-checking. Već postoje odlično razvijeni alati i kurikulumi od strane grupa za proveru činjenica (npr. First Draft, Media Literacy Now) koji pokrivaju prepoznavanje dezinformacija i deepfake-ova; ovo treba masovno deliti. Takve obuke ne treba da ciljaju samo učenike u školama, već i stariju populaciju, koja je često ranjivija na prevare na internetu. Digitalne kampanje za opismenjavanje na nacionalnom nivou mogu biti pokrenute, možda uz podršku države, ali realizovane kroz zajednice zbog veće poverljivosti. Cilj je da se podigne kolektivni “imunitet stada”: ako kritična masa ljudi ume da prepozna lažnjak ili barem zaustavi sud dok ne proveri, kreatori dezinformacija gube moć. Istraživanja pokazuju da javnost želi ovo znanje – mnogi su zabrinuti što ne mogu da razlikuju lažno od pravog brennancenter.org brennancenter.org. Građansko društvo može popuniti tu prazninu osnažujući građane kroz obrazovanje i praktične veštine.

2. Inicijative za proveru činjenica i razotkrivanje laži: Nezavisni proveravaoci činjenica i organizacije za nadzor građanskog društva će ostati ključni. Treba da se posebno pripreme za izborne periode kroz inicijative kao što su posebni centri za proveru deepfake sadržaja. Na primer, koalicije fact-check organizacija mogle bi da vode javnu tablu tokom izbora koja prati glasine i pojavu novih deepfake tvrdnji, uz brze demantije. News Literacy Project je uradio nešto slično za izbore u SAD 2024, beležeći slučajeve dezinformacija i napominjući kako je mali broj zapravo bio vezan za veštačku inteligenciju knightcolumbia.org knightcolumbia.org. Ovakva transparentna evidencija pomaže javnosti i novinarima da sagledaju širu sliku i da ne preuveličavaju pretnju, dok istovremeno adresiraju prave slučajeve. Organizacije građanskog društva mogu takođe širiti ispravke na društvenim mrežama – npr. odgovarajući na viralne postove tačnim informacijama, uz pomoć funkcija poput community notes. Treba promovisati i “prebunking”: preventivno upozoravanje javnosti da bi se neki lažnjak mogao pojaviti. Ako, na primer, obaveštajne službe ili raniji obrasci sugerišu da bi kandidat mogao biti meta lažnog skandala, građanske grupe (u koordinaciji sa izbornim zvaničnicima) mogu upozoriti birače: “Budite skeptični ako iznenada naiđete na šokantan snimak X-a, postoji mogućnost da je deepfake.” Studije pokazuju da prebunking značajno smanjuje lakovernost i širenje lažnih tvrdnji cetas.turing.ac.uk cetas.turing.ac.uk. Zbog toga, proaktivni pristup građanskog društva, predviđanje i preduzimanje mera protiv deepfake kampanja, može dati odlične rezultate.

3. Građanska tehnologija i detekcija putem zajednice: Tehnički pismene građane moguće je angažovati u borbi protiv deepfake-ova. Već postoje volonteri-„lovci na deepfake“ koji analiziraju sumnjive medije na internetu. Građansko društvo može organizovati ove aktivnosti putem platformi – na primer, poseban portal ili aplikacija gde ljudi mogu slati sumnjive video ili audio snimke na analizu, a mreža stručnjaka ili AI alata daje izveštaj o autentičnosti. Ova kolektivna inteligencija može da dopuni zvanične napore. Dodatno, grupe iz oblasti građanske tehnologije mogu razvijati pretraživačke dodatke ili aplikacije za mobilne telefone koje pomažu korisnicima da identifikuju sintetičke medije. Na primer, aplikacija može omogućiti korisniku da selektuje video na ekranu i odmah dobije analizu od više algoritama detekcije (nešto kao antivirus za deepfake-ove). Iako nije stopostotno pouzdano, može ukazati na problematičan sadržaj. Open-source napori na razvoju ovakvih alata treba da budu podržani grantovima. Još jedna ideja su telefonske linije za prijavu građana – slično linijama za izborna pitanja, mogli bismo imati kanal za prijavljivanje sumnjive dezinformacije ili deepfake-ova, gde bi prijave stizale izbornim organima ili fact-checkerima za dalje reagovanje. Angažujući građane kao aktivne učesnike u uočavanju i prijavljivanju sumnjivog sadržaja, značajno se povećava obim nadzora. Ovakav decentralizovan pristup prepoznaje da će u društvu sa milionima online korisnika neko često prvi zapaziti problem – ključno je usmeriti ta zapažanja brzo do onih koji mogu proveriti i proširiti istinu.

4. Zagovaranje odgovornosti platformi: Građansko društvo treba stalno da vrši pritisak na tehnološke platforme i AI kompanije da se ponašaju odgovorno. Grupe koje zastupaju javni interes i think-tank organizacije odigrale su ključnu ulogu u ukazivanju na opasnosti deepfake-ova i zagovaranju reformi (npr. Access Now, EFF i druge izdale su preporuke). Ovo zagovaranje mora da se nastavi – zahtevajući od platformi da primene politike prethodno pomenute (bolje označavanje, uklanjanje sadržaja itd.) i pritiskajući AI kompanije da uključe etiku već u fazi dizajna. Kampanja organizacije Public Citizen za praćenje zakonodavstva na nivou država i peticiju pred FEC je jedan primer citizen.org citizen.org. Slično, koalicije mogu zahtevati transparentnost platformi: tražeći da objavljuju podatke o količini AI sadržaja na njihovim sajtovima i efikasnosti detekcije. Glasovi građanskog društva mogu pomoći i da se u novim zakonima i propisima zaštite građanska prava i slobode (npr. odupirući se preširokim pravilima koja bi pod izgovorom borbe protiv deepfake-ova mogla suzbiti slobodu izražavanja). Pronalaženje ravnoteže zahteva javne konsultacije, a organizacije građanskog društva predstavljaju interes građana u tim debatama. Sledeće godine mogu doneti nova pravila za AI i sadržaj na internetu – važno je da demokratske vrednosti i principi ljudskih prava budu očuvani, a građansko društvo ima ključnu ulogu čuvara tih vrednosti.

5. Podrška žrtvama i metama: Ako je kandidat ili privatna osoba oklevetana putem dipfejka, građansko društvo može pružiti podršku. Neprofitne organizacije mogu ponuditi pravnu pomoć ili savet kako da uklone klevetnički dipfejk i pozovu počinioce na odgovornost. Mogu postojati telefonske linije za žrtve dipfejk pornografije ili napada na ugled, koje ih povezuju sa policijom i resursima za mentalno zdravlje. Za kandidate pogođene klevetom, građanske organizacije (kao što su lige birača ili grupe za integritet izbora) mogu pomoći da se pojača njihovo osporavanje i demantij, kako bi se umanjila šteta. Brzo okupljanje u odbranu lažno optužene osobe – osiguravanje da istina bude glasnija od laži – nešto je što zajednica i zagovaračke grupe mogu koordinisati, kao što to često čine u borbi protiv klevete ili govora mržnje. Na širem nivou, građansko društvo može podstaći međustranačke dogovore da, ako se pojavi bilo kakav dipfejk, sve strane to osude. Zamislite obećanje koje potpisuju sve veće stranke u zemlji, u kojem se zavetuje da neće koristiti dipfejk tehnologiju i da će brzo osuditi svaku zlonamernu falsifikaciju koja se pojavi. Takve norme, koje neguju grupe poput međustranačkih izbornih komiteta ili etičkih NVO, smanjuju verovatnoću „trke ka dnu“ u kojoj stranke osećaju da moraju uzvratiti istom merom. To stvara zajednički front koji poručuje da napadi na istinu neće biti tolerisani, bez obzira na to protiv koga su usmereni.

Zaključujući, suočavanje sa izazovom dipfejkova zahteva angažovanje svih društvenih odbrambenih mehanizama – tehnoloških, pravnih, institucionalnih i ljudskih. Sprovođenjem gore navedenih koraka, vlade mogu dodatno zaštititi izborni sistem od AI prevara, tehnološke platforme mogu ograničiti širenje lažnog sadržaja, mediji mogu garantovati prevlast istine u izveštavanju, a građani postati pažljivi čuvari stvarnosti. Nema vremena za gubljenje: kako generativna veštačka inteligencija napreduje, izborni ciklus 2025. će testirati otpornost demokratija na sintetičke laži. Ohrabrujuća vest je da nismo bespomoćni. Uz pripremu, transparentnost i saradnju, možemo nadmudriti i nadorganizovati kampanje sa dipfejkovima, čuvajući integritet naših izbora. Kako je zaključeno u CETaS istraživačkom izveštaju o AI i izborima, “letargija ne sme da se uvuče u proces donošenja odluka” – umesto toga, treba iskoristiti aktuelni trenutak za izgradnju otpornosti cetas.turing.ac.uk cetas.turing.ac.uk. Na taj način, branimo princip da dok tehnologija napreduje, naše demokratske vrednosti istine i poverenja će opstati.

Izvori

  1. Stockwell, Sem i dr. “AI-Enabled Influence Operations: Safeguarding Future Elections.” CETaS (Alan Turing Institute) Research Report, 13. novembar 2024. cetas.turing.ac.uk cetas.turing.ac.uk
  2. Stockwell, Sem i dr. Op. cit. (CETaS izveštaj, 2024), Odeljak 2.1 o dipfejkovima u američkim izborima. cetas.turing.ac.uk cetas.turing.ac.uk
  3. Beaumont, Hilari. “’Nedostatak poverenja’: Kako bi dipfejkovi i AI mogli ugroziti američke izbore.” Al Jazeera, 19. jun 2024. aljazeera.com aljazeera.com
  4. Sze-Fung Li. “Kanadi je zakon o dipfejkovima potreban odmah.” Policy Options, 18. mart 2024. policyoptions.irpp.org policyoptions.irpp.org
  5. Goldstin, Džoš A. & Endrju Lon. “Dipfejkovi, izbori i sužavanje profita lažova.” Brennan Center for Justice, 23. januar 2024. brennancenter.org
  6. “Sintetički mediji.” Vikipedija (pristup 2025). en.wikipedia.org en.wikipedia.org
  7. “Dipfejk.” Kaspersky IT Enciklopedija (2023). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
  8. Hamil, Nejtan. “Dipfejkovi su se pokazali kao drugačija pretnja od očekivane. Evo kako da se od njih odbranite.” World Economic Forum, 10. januar 2025. weforum.org weforum.org
  9. “Regulisanje AI dipfejkova i sintetičkih medija u političkoj areni.” Brennan Center for Justice, 4. oktobar 2023. brennancenter.org brennancenter.org
  10. Kolman, Ben. “EU Akt o AI i rastuća hitnost otkrivanja dipfejkova.” Reality Defender Blog, 11. februar 2025. realitydefender.com realitydefender.com
  11. “Pratilac: Državna regulativa dipfejkova na izborima.” Public Citizen, 2025. citizen.org citizen.org
  12. Partnership on AI. “Sintetički mediji i dipfejkovi – Studija slučaja: Slovačka 2023.” (Navedeno u analizi Knight Columbia). brennancenter.org brennancenter.org
  13. Kapoor, Sayash & Arvind Narayanan. “Pregledali smo 78 izbornih dipfejkova. Politička dezinformacija nije AI problem.” Knight First Amendment Institute, 13. decembar 2024. knightcolumbia.org knightcolumbia.org
  14. CETaS izveštaj (2024), preporuke politike (fokus na UK). cetas.turing.ac.uk cetas.turing.ac.uk
  15. CETaS izveštaj (2024), preporuke za detekciju i poreklo. cetas.turing.ac.uk cetas.turing.ac.uk
  16. Public Safety Canada. “Zaštita od dezinformacija uz pomoć veštačke inteligencije” (sažetak iz 2023). policyoptions.irpp.org policyoptions.irpp.org
  17. InnovationAus. “Zabrana izbornih dipfejkova od strane vlade odlaže se do 2026.” (Australija) 2023. innovationaus.com
  18. Dodatne reference: Članci Reutersa, Wireda i CNN-a citirani u gore navedenim izvorima kao primeri pojedinačnih incidenata (npr. Zelenski dipfejk, Hong Kong prevara od 25 miliona $ pomoću Zoom dipfejka weforum.org), i FTC upozorenja potrošačima na prevare putem kloniranih glasova weforum.org. Oni su sadržani u analizi i dostupni kroz linkove u izvorima.

Оставите одговор

Your email address will not be published.

Don't Miss

AI-Powered Cybersecurity: Risks and Solutions

Кибербезбедност покретана вештачком интелигенцијом: ризици и решења

Sajber bezbednost pokretana veštačkom inteligencijom Pregled: Veštačka inteligencija (posebno mašinsko učenje)
EU AI Act 2025: Everything You Need to Know to Stay Ahead

EU zakon o veštačkoj inteligenciji 2025: Sve što treba da znate da biste ostali u prednosti

Увод и законодавни преглед Акт Европске уније о вештачкој интелигенцији