Napredek na področju umetne inteligence je omogočil ustvarjanje sintetičnih medijev – vsebin, ki jih generira ali spreminja umetna inteligenca – v doslej nevidenem obsegu. Ko se demokratične države bližajo volilnemu ciklu leta 2025, uradniki in strokovnjaki opozarjajo na nevarnosti dezinformacij, ki jih poganja umetna inteligenca. V nedavni anketi je 85 % Američanov izrazilo zaskrbljenost zaradi “zavajajočih video in avdio deepfake” vsebin, ki bi lahko vplivale na volitve brennancenter.org. Naslovi v novicah svarijo, da bi lahko z umetno inteligenco ustvarjeni “deepfaki” povzročili razdejanje v kampanjah in omajali zaupanje volivcev brennancenter.org, kar poudarja nujnost zaščite volilne integritete. To poročilo preučuje, kaj so sintetični mediji in deepfaki, kako ogrožajo demokracijo ter kaj je mogoče storiti – od tehnoloških rešitev do politik – za zaščito volitev leta 2025 in v prihodnosti.
Kaj so sintetični mediji in deepfaki?
Sintetični mediji so širok pojem za digitalne vsebine (slike, videi, zvok, besedila), ki so umetno ustvarjene ali spremenjene z avtomatiziranimi sredstvi, še posebej z algoritmi umetne inteligence en.wikipedia.org. Današnji generativni AI sistemi lahko ustvarijo zelo realistične, človeku podobne izhode v vseh medijih – od fotografij ljudi, ki nikoli niso obstajali, do kloniranih glasov in AI-napisanih člankov. Deepfaki so poseben podsklop sintetičnih medijev: izjemno realistične ponarejene slike, videoposnetki ali zvok, izdelani z umetno inteligenco (“globoko” učenje + “ponaredek”), ki posnemajo resnične ljudi encyclopedia.kaspersky.com. V praksi je deepfake lahko video, kjer je obraz politika prepričljivo “prilepljen” na telo nekoga drugega, ali zvočni posnetek, ki posnema kandidatov glas in izgovarja besede, ki jih ta v resnici ni izrekel.
Kako nastanejo deepfaki? Večina nastane z naprednimi pristopi globokega učenja. Pogost način uporablja generativne nasprotujoče si mreže (GAN) – dve nevronski mreži, ki se medsebojno “trenirata” icct.nl. Ena (generator) ustvarja ponarejene vsebine (npr. sliko obraza), druga (diskriminator) pa skuša zaznati, ali je ponarejena. Preko tisočev ponovitev se generator nauči ustvarjati vse bolj prepričljive rezultate, dokler diskriminator ne more več ločiti med ponaredkom in resničnostjo icct.nl. Prvotno je izdelava kakovostnega deepfaka zahtevala veliko podatkov za učenje in zmogljivo strojno opremo – denimo poskus deepfaka igralca Toma Cruisea je potreboval dva meseca učenja na vrhunskih grafičnih procesorjih icct.nl. A orodja so se hitro razvila. Napredna programska oprema za deepfake je danes široko dostopna in veliko hitrejša, včasih deluje celo v realnem času (na primer neposredno spreminja videoprenos ali klic v živo) encyclopedia.kaspersky.com. Poleg GAN so pomembne tudi druge arhitekture umetne inteligence: transformerski modeli lahko ustvarijo deepfake besedila ali pomagajo pri kloniranju glasov encyclopedia.kaspersky.com. Skratka, najnovejši preboji umetne inteligence so omogočili, da je zavajajočo avdio-vizualno vsebino preprosto in poceni ustvariti skoraj vsakomur – s čimer se občutno znižuje prag za operacije z dezinformacijami.
Pomembno je poudariti, da vsi sintetični mediji niso zlonamerni. Z vsebinami, ki jih ustvari umetna inteligenca, si lahko pomagamo pri povsem nedolžnih oziroma ustvarjalnih namenih – osebni avatarji, sinhronizacija govora v druge jezike, satira in zabava itd. Pravzaprav je bila v svetovnih volitvah leta 2024 približno polovica dokumentirane uporabe umetne inteligence v političnih vsebinah ne-zavajajoča (npr. kandidat odkrito uporablja AI glas zaradi izgube svojega, ali novinarji uporabljajo AI avatar za ohranjanje anonimnosti) knightcolumbia.org knightcolumbia.org. Vendar se to poročilo osredotoča na zlonamerno plat sintetičnega medija – deepfaki, ki so namenjeni zavajanju, manipulaciji ali prevari volivcev in javnega mnenja.
Tveganja za demokratične procese
Sintetični mediji in deepfaki predstavljajo pomembno grožnjo demokraciji, zlasti v času volitev, kjer je obveščena volilna baza in zaupanje v informacije ključnega pomena. Glavne nevarnosti so:
- Dezinformacije in manipulacija volivcev: Z umetno inteligenco ustvarjeni ponarejeni video posnetki, slike ali zvok se lahko uporabijo za širjenje neresničnih informacij o kandidatih ali vprašanjih, s čimer se zavaja volivce. Na primer, deepfake lahko prikaže kandidata, ki izreka izjemno sporne izjave, ki jih v resnici nikoli ni podal. Takšna ponarejena vsebina lahko vnese strupene laži v javno razpravo. Strokovnjaki opozarjajo, da deepfaki “predstavljajo veliko tveganje” za volivce, saj omogočajo vnos lažnih vsebin v kampanje in krnijo javno zaupanje aljazeera.com. Prepričljivo prirejen video, objavljen tik pred volitvami – brez časa za preverjanje – lahko celo vpliva na neodločene volivce ali zmanjša udeležbo, kar lahko spremeni izid volitev citizen.org. Ta nevarnost ni zgolj teoretična: kot bo opisano kasneje, je deepfake avdio leta 2024 posnemal ameriškega predsednika, ki je pozival podpornike, naj ne volijo, očitno z namenom zmanjšati udeležbo aljazeera.com aljazeera.com.
- Erozija zaupanja (“Dividenda lažnivca”): Še več, že zgolj obstoj deepfakov lahko omaje javno zaupanje v resnične informacije. Volivci lahko začnejo dvomiti v avtentične dokaze, ker niso več prepričani, ali je viralni video resničen ali plod umetne inteligence. Še huje – pokvarjeni posamezniki lahko izrabijo ta dvom: realne afere ali resnične posnetke se da diskreditirati kot “samo deepfake”, čemur se lahko krivci izognejo odgovornosti. Strokovnjaki so to poimenovali “dividenda lažnivca”, ko večja ozaveščenost o deepfakih olajša lažnivcem, da za prave posnetke trdijo, da so ponaredki brennancenter.org. Z večjim poznavanjem zmogljivosti umetne inteligence lahko politik, ki ga ujamejo pri nečednosti, lažje “prelisiči” javnost z oznako, da je škodljiv video ali avdio zgolj prevara AI brennancenter.org. Ta pojav ogroža temeljno zaupanje, na katerem temelji demokratična razprava. Opazovalci so zabeležili, da so leta 2024 nekateri kandidati in njihovi podporniki preventivno vpili “AI ponaredek”, da bi zavrnili neprijetne zgodbe brennancenter.org brennancenter.org. Če bodo državljani na dolgi rok imeli občutek, da “ne moreš več verjeti ničemur, kar vidiš ali slišiš”, bo to načelo deljeno resničnost, na kateri slonijo svobodne in poštene volitve cetas.turing.ac.uk cetas.turing.ac.uk.
- Krepitev polarizacije in konfliktov: Doslej dokazi kažejo, da deepfake propaganda pogosteje ohranja obstoječa prepričanja ljudi kot pa prepričuje nasprotni tabor cetas.turing.ac.uk. Zlonamerne vsebine AI pogosto sprejemajo in širijo tisti, ki že imajo skrajna stališča, kar še krepi odmevne komore (echo chambers). Med predsedniško tekmo v ZDA leta 2024 so raziskovalci ugotovili, da so lažnive vsebine, ustvarjene z AI, v glavnem še bolj poglobile navijaško naravnost in zaostrile razprave, ne pa spreminjale prepričanja novih volivcev cetas.turing.ac.uk. Na primer, lažni videi, usmerjeni proti predsedniku Bidenu ali podpredsednici Harris, so dosegli milijone ogledov na spletu in so jih večinoma delili že prej sovražno nastrojeni uporabniki cetas.turing.ac.uk cetas.turing.ac.uk. Z konsolidacijo ideoloških taborov z dramatičnimi lažnimi “dokazi” o pokvarjenosti nasprotne strani poglabljajo deepfaki razdore v skupnosti in zastrupljajo predvolilno okolje. Hkrati zmeda in nezaupanje, ki ju vnašajo deepfaki, ustvarjata plodna tla za razmahnitev teorij zarote cetas.turing.ac.uk, saj lahko državljani lažje zavrnejo vso neprijetno realnost kot izmišljotino umetne inteligence.
- Podkopavanje volilne administracije: Tveganje presega zavajanje volivcev o kandidatih – deepfaki lahko zmotijo tudi samo volilno proceduro. Uradniki so si zamislili scenarije, kjer AI klonira glas ali pošilja lažna sporočila v imenu volilnih oblasti, recimo da ukazuje uslužbencem, naj prej zaprejo volišča ali daje napačna navodila volivcem (npr. “volitve so prestavljene”) aljazeera.com. Prebrisan napadalec bi lahko simuliral ukaz volilne komisije ali glasu zaupanja vrednega uradnika za sabotažo volilnega procesa. Takšne taktike lahko zmanjšajo udeležbo ali povzročijo kaos na dan volitev. Ameriški Brennan Center opozarja, da se lahko manipulirani mediji uporabijo ne le za zavajanje javnosti, temveč tudi volilnih uslužbencev, ki bodo zaradi tega potrebovali nova usposabljanja in protokole aljazeera.com.
- Nadlegovanje in medijsko uničenje značaja: Deepfaki nudijo izjemno učinkovito orožje za osebne napade na kandidate, aktiviste ali novinarje. Še posebej zahrbtna je pojavnost neprostovoljne sintetične pornografije – obraz osebe se prilepi v eksplicitno erotične posnetke. Ta taktika se že uporablja za nadlegovanje novinark in političark po vsem svetu. Najskrajnejša oblika deepfake nadlegovanja je ponarejena intimna slika, uporabljena za javno ponižanje ali izsiljevanje posameznika weforum.org. V političnem boju lahko operativec tik pred volitvami objavi izmišljeni kompromitirajoč video kandidata (npr. deepfake spolni posnetek ali ponaredek, kjer se kandidat vede nezakonito). Tudi če je hitro razkrinkan, je škoda za ugled kandidata lahko že narejena. Ženske in manjšine so še posebej izpostavljene takim “sintetičnim obrekljivim” kampanjam, kar jih lahko odvrača od kandidature policyoptions.irpp.org policyoptions.irpp.org. Skratka, deepfaki zagotavljajo novo gorivo za stare umazane trike – od lažnih afer do ponarejenih izjav – in zaostrujejo napade na značaj med volitvami.
Na koncu je treba poudariti, da doslej še nismo doživeli volilne katastrofe zaradi deepfaka. Empirične analize volitev 2024 po svetu so našle malo dokazov, da bi AI-generirane dezinformacije spremenile izid volitev cetas.turing.ac.uk weforum.org. Tradicionalne dezinformacije (ceneni “cheapfaki”, govorice, strankarsko pristransko tolmačenje) so bile še vedno bistveno večji vir laži kot visokotehnološki deepfaki knightcolumbia.org knightcolumbia.org. Strokovnjaki pa opozarjajo, da odsotnost katastrofe zaenkrat ne pomeni razlogov za samozadovoljstvo cetas.turing.ac.uk weforum.org. Tehnologija se hitro razvija, sovražni akterji pa se učijo. Čeprav deepfaki morda niso odločilno vplivali na izid večjih volitev 2024, so vsekakor oblikovali razpravo – na primer viralne laži o kandidatih, ustvarjene z AI, so postale teme v osrednjih javnih debatah cetas.turing.ac.uk. Poleg tega je že sama percepcija deepfakov dodatno prispevala k javni tesnobi in nezaupanju do volitev cetas.turing.ac.uk cetas.turing.ac.uk. Možnost resnejšega incidenta ostaja, zlasti ko se približujemo volitvam z visokimi vložki v letu 2025. Demokratične družbe morajo zato treatirati deepfake kot resno varnostno in integritetno vprašanje ter se soočiti tako z neposrednim tveganjem ponarejenih medijev kot tudi širšo erozijo resnice v prostoru volitev.
Nedavni incidenti: Globoki ponaredki motijo politiko
Resnični primeri iz zadnjih nekaj let prikazujejo, kako so sintetični mediji že postali orožje v političnih kontekstih. Spodaj predstavljamo nekaj vidnih incidentov in študij primerov globokih ponaredkov in z umetno inteligenco ustvarjenih dezinformacij, ki so vplivali na volitve ali javno razpravo:
- Ukrajina (marec 2022) – Video “Predajte se”: V zgodnjih dneh ruske vojne proti Ukrajini se je pojavil video, ki je prikazoval ukrajinskega predsednika Volodimirja Zelenskega, kako poziva svoje vojake, naj odložijo orožje in se predajo. Video je bil globoki ponaredek, Zelenskega podoba in glas sta bila sintetično spremenjena icct.nl. Značilne pomanjkljivosti (zabrisani robovi, neujemanje barve vratu) so ga razkrile, ukrajinski mediji pa so prevaro hitro izpostavili. Ta incident – prvi znan primer uporabe globokega ponaredka v oboroženem konfliktu – je napovedal, kako bi se lahko AI propaganda uporabila za spodkopavanje voditeljev v krizah icct.nl. Čeprav lažni video Zelenskega ni uspel demoralizirati ukrajinskih borcev, je pokazal namero in sposobnost zlonamernih akterjev (v tem primeru domnevno ruskih operativcev), da uporabijo globoke ponaredke za informacijsko vojno.
- Slovaška (september 2023) – Volilna dezinformacija: Tik pred parlamentarnimi volitvami na Slovaškem so globoko ponarejeni zvočni posnetki postali viralni, v katerih naj bi vodja Progresivne Slovaške, Michal Šimečka, priznal volilno prevaro in celo predlagal podvojitev cene piva brennancenter.org. Nekatere različice so imele bežno opozorilo o AI izvoru, a šele na koncu posnetka – kar je bil verjetno premišljen poskus zavajanja poslušalcev brennancenter.org. Čas objave je bil jasno strategičen, tik pred volitvami. Šimečkova pro-zahodna stranka je tesno izgubila proti pro-kremeljskemu tekmecu in nekateri komentatorji so ugibali, da je umik zadnjega trenutka zaradi globokega ponaredka lahko vplival na izid brennancenter.org. Ta primer poudarja, kako lahko tujci ali domači akterji uporabijo globoke ponaredke za vpliv na tesen rezultat in kako težko je v zadnjih trenutkih kampanje nevtralizirati lažne pripovedi.
- Tajvan (januar 2024) – Operacije tujih vplivov: Pred predsedniškimi volitvami leta 2024 na Tajvanu so opazovalci dokumentirali kitajsko dezinformacijsko kampanjo z uporabo globokih ponaredkov za spodkopavanje kandidata Lai Ching-teja. Po spletu so krožili lažni videi, ki so prikazovali Laija (iz vladajoče pro-neodvisnosti stranke), kako izreka izjave, ki jih nikoli ni dal – na primer, lažno sugerirajoč, da podpira programe svojih nasprotnikov policyoptions.irpp.org. V enem primeru je izšel z umetno inteligenco ustvarjen zvočni posnetek Laija, v katerem je, kot bi kritiziral svojo stranko policyoptions.irpp.org, kar je poskusilo razklati njegove podpornike. Ti napadi s sintetičnimi mediji, ki izvirajo iz Kitajske, so želeli vplivati na javno mnenje in zasejati zmedo v tajvanski demokraciji policyoptions.irpp.org. Lai je na koncu zmagal na volitvah in analitiki menijo, da kitajska kampanja globokih ponaredkov ni bistveno spremenila izida policyoptions.irpp.org. Vendar pa je to učbeniški primer sovražne tuje sile, ki uporablja AI propagando proti demokratičnim volitvam policyoptions.irpp.org policyoptions.irpp.org. Ostaja skrb, da bi v tesnejših volitvah drugje takti lahko imele večji vpliv.
- Združene države (2024) – Globoki ponaredki v kampanji: Volilno leto 2024 v ZDA je zaznamoval porast političnih vsebin, ustvarjenih z umetno inteligenco, ki sicer niso spodnesle volitev, so pa vzbudile zaskrbljenost. V začetku leta 2024 so volivci v New Hampshiru prejeli zmeden roboklic: glas, ki je zvenel kot predsednik Joe Biden, ki je demokratom naročal »prihranite svoj glas, ne uporabite ga na teh volitvah«. Glas se je nekaterim zdel pristen, a sporočilo je bilo očitno sumljivo – Biden svojih podpornikov nikoli ne bi pozval, naj ne glasujejo. V resnici je šlo za globo ponarejen glasovni posnetek Bidena, poslan na tisoče volivcev z očitnim namenom zatreti volilno udeležbo aljazeera.com aljazeera.com. Ta incident je dosegel približno 5.000 telefonskih številk v New Hampshiru in pokazal, kako poceni in enostavno je moč izvesti takšne zvijače – svetovalec, ki je ustvaril Bidenov globo ponaredek, je dejal, da je porabil le 20 minut in okoli 1 dolar računalniških stroškov policyoptions.irpp.org policyoptions.irpp.org. Medtem so se na družbenih omrežjih AI ustvarjene slike pojavile v uradnih volilnih materialih. Zlasti je ekipa guvernerja Floride Rona DeSantisa objavila napadalni oglas, ki je vključeval ponarejene slike Donalda Trumpa, kako objema dr. Anthonyja Faucija – z namenom prikazati Trumpa kot preveč prijaznega do nekdanjega COVID svetovalca, ki med desničarji ni priljubljen. Izkazalo se je, da so bile Trumpove slike z objemanjem Faucija lažni globoki ponaredki, vstavljeni v video s strani kampanje brennancenter.org, kar je po razkritju sprožilo javne kritike. V drugem primeru se je po spletu razširil AI video predsednika Bidena, ki »nagovarja« narod s zamegljenim govorom, a ga je bilo kmalu mogoče ovreči. Nekateri lažni video posnetki Bidena in podpredsednice Harrisove so na družabnih omrežjih dosegli milijone ogledov cetas.turing.ac.uk, kar kaže, kako hitro se lahko takšna vsebina razširi. Sodelovali so tudi tehnološki mogotci: Elon Musk je zloglasno ponovno delil grobo prirejen video podpredsednice Harrisove (označen kot »satira«), ki jo prikazuje, kako govori nesmisle – s tem zabrisal mejo med memes humorjem in dezinformacijami cetas.turing.ac.uk cetas.turing.ac.uk. Čeprav ti globoki ponaredki niso spremenili poteka volitev, so okrepili lažne pripovedi (na primer o Bidenovih umskih sposobnostih ali Trumpovi zvestobi) in še dodatno zastrupili informacijsko okolje. Ameriški uradniki se bojijo tudi globokih ponaredkov, usmerjenih v volilno infrastrukturo – npr. lažnih zvočnih posnetkov volilnih nadzornikov, ki osebju naročajo nepravilna dejanja aljazeera.com – čeprav takšnega večjega incidenta v letu 2024 javno niso potrdili.
Ti primeri poudarjajo svetovni obseg grožnje. Globoke ponaredke so uporabljali državni akterji v geopolitičnih konfliktih, provokatorji na domačih volitvah od Evrope do Azije ter kampanje in podporniki v Združenih državah. Pojavljali so se kot lažni govori, slike, telefonski klici in videi – ciljajoč tako volivce kot volilne uradnike. Incidenti doslej prinašajo tudi nekaj naukov: mnoge globoke ponaredke je bilo mogoče dokaj hitro odkriti in razkrinkati (pogosto s strani budnih novinarjev ali preverjevalcev dejstev), v več primerih pa je odziv proti uporabi globokih ponaredkov (npr. DeSantisov oglas) povzročil negativno propagando za storilce. To kaže, da lahko preglednost in pozornost zmanjšata škodo. Vendar pa je trend jasen – takšne sintetične laži postajajo pogostejše in jih je vedno težje takoj razločiti od resničnosti. Vsake volitve prinesejo nove “prvo-kratne” primere (2024 je na primer prineslo prve AI “roboklice” za vpliv na volilce, prvo uporabo globokih ponaredkov v uradnih volilnih oglasih itd.), tveganje bolj škodljivega incidenta z globokimi ponaredki pa je vse večje z vsakimi naslednjimi volitvami, ko se bližamo letu 2025.
Prepoznavanje in preprečevanje deepfake-ov: Orodja in tehnologije
Kritičen del zaščite volitev je razvoj zanesljivih orodij za prepoznavanje in preprečevanje deepfake-ov. Raziskovalci, tehnološka podjetja in vlade tekmujejo pri ustvarjanju tehnologij, ki lahko prepoznajo ponaredke z umetno inteligenco in avtentično vsebino. Tukaj podajamo pregled trenutne krajine detekcije deepfake-ov in povezanih protiukrepov:
- Avtomatski detektorji deepfake-ov: Prva obrambna linija je umetna inteligenca proti umetni inteligenci – algoritmi, ki so naučeni analizirati medijske vsebine in identificirati značilne znake manipulacije. Ti sistemi iščejo subtilne sledi ali nedoslednosti, ki jih zapustijo generativni modeli. Prvi deepfake-i so imeli na primer nepravilno mežikanje ali nepopolno sinhronizacijo ustnic. Današnji detektorji uporabljajo globoke nevronske mreže za natančno preučevanje osvetlitve in senc na obrazih, vzorcev frekvenc zvoka ali bioloških znakov (npr. pulz v videu), ki jih umetna inteligenca težko ponovi. Tehnološka podjetja so razvila interna orodja – Microsoft je denimo leta 2020 predstavil “Video Authenticator”, ki lahko zazna ponarejene videe s pomočjo analize sličic. Platformi, kot sta Facebook in X (Twitter), vlagata v raziskave detekcije in uporabljata filtre za prepoznavanje znanih ponaredkov. Akademske pobude in tekmovanja (kot je Facebook Deepfake Detection Challenge in IEEE konference) spodbujajo napredek, zagonska podjetja kot Sensity in Reality Defender pa ponujajo komercialne storitve prepoznavanja deepfake-ov za stranke. A to je pravzaprav oboroževalna tekma: ko se detekcija izboljšuje, ustvarjalci deepfake-ov razvijajo vedno bolj neopazne ponaredke, ki uidejo avtomatskim preverjanjem. Opazno je, da je Meta v poročilu iz 2023 ugotovila, da je od vse označene dezinformacije v volilnem ciklu 2024 “manj kot 1 %” bilo identificirane kot vsebina, ustvarjena z umetno inteligenco weforum.org, kar nakazuje, da so bile deepfake-i bodisi redke ali pa jih je veliko ušlo neprepoznanih.
- Vodni žig in izvor vsebine: Druga strategija je, da že ob ustvarjanju posebej označimo vsebino, ki jo ustvari umetna inteligenca, tako da lahko uporabniki nižje v verigi to prepoznajo kot sintetično. EU močno promovira ta pristop – novi Zakon EU o umetni inteligenci izrecno zahteva, da mora biti vsak AI-ustvarjen ali AI-manipuliran material jasno označen oziroma opremljen z vodnim žigom realitydefender.com. Podjetja bi morala vdelati indikator (digitalni vodni žig ali metapodatkovni označevalec), ko AI ustvari sliko, video ali zvok. Teoretično bi potem brskalniki ali družbena omrežja lahko avtomatsko označili ali filtrirali takšno vsebino. Vodni žig je obetaven, predvsem za preprečevanje priložnostne zlorabe. Večji ponudniki AI-modelov (OpenAI, Google in drugi) razpravljajo o prostovoljnem označevanju slik ali besedil, ki jih generirajo njihovi sistemi. Poleg tega koalicija medijskih in tehnoloških organizacij razvija standarde izvora vsebine (npr. C2PA, Coalition for Content Provenance and Authenticity), ki kriptografsko zabeležijo izvor in zgodovino urejanja digitalnih medijev. Tako bi lahko na primer novinarska fotografija ali volilni oglas nosila varen certifikat avtentičnosti, ki omogoča vsakomur, da preveri, kdo ga je ustvaril in da posnetek ni bil manipuliran cetas.turing.ac.uk. To sprejema tudi ameriška vlada; Bela hiša je naročila zveznim agencijam, naj do leta 2025 sprejmejo smernice za “avtentičnost pri zasnovi”, z vdelanimi metapodatki izvora v vsak digitalni material, ki ga izdelajo cetas.turing.ac.uk. Če bi to bilo široko sprejeto, bi lažno vsebino bistveno težje izdalo za pristno.
- Omejitve označevanja: Čeprav so orodja za transparentnost nujna, niso nezmotljiva. Vodnih žigov se lahko odločen napadalec znebi ali jih spremeni. Raziskovalci so že pokazali načine za odstranjevanje ali prikrivanje AI vodnih žigov realitydefender.com, zlonameren ustvarjalec pa lahko v svojo generativno platformo enostavno sploh ne vključi označevanja. Tudi metapodatki o izvoru pomagajo le, če so široko uporabljeni in uporabniki to dejansko preverjajo. Ustvarjalec deepfake-a lahko uporabi trik “pripenjanja izvora” – vzame pristno fotografijo ali video in nanjo doda ponarejene elemente, rezultat pa še vedno nosi digitalni podpis izvirne datoteke. Zaradi teh izzivov ne moremo biti odvisni le od označevanja vsebine. Kot je navedlo eno od podjetij za AI varnost, vodni žig in izvor delujeta le, če ustvarjalci sodelujejo in označujejo svoj izdelek – kar ne ustavi zagrizenih storilcev realitydefender.com. Zato je ključno tudi detekcijo na osnovi sklepov (analiziranje vsebine same za znake AI manipulacije) realitydefender.com še naprej uporabljati. Najboljša obramba bo verjetno kombinacija obeh pristopov: robustni avtomatizirani detektorji in sistemi za avtentikacijo legitimnih medijev.
- Prepoznavanje v realnem času pri video/avdio prenosih: Pojavlja se potreba po orodjih, ki lahko zaznajo deepfake v živo. Denimo, v hipotetični situaciji lažnega “v živo” videoklica s kandidatom ali uradnikom – kot se je zgodilo leta 2023, ko so kriminalci v Hong Kongu deepfake-ali videz direktorja na Zoomu, da so odobrili lažni prenos 25 milijonov dolarjev weforum.org. Tam je bilo na klicu več oseb – vključno s prevarantom, ki je “igral” finančnega direktorja – vsi AI-generirani. Detekcija deepfake-ov v živo je izredno zahtevna. Podjetja razvijajo rešitve, kot so vtičniki za videokonference, ki opozorijo uporabnika, če je slika ali glas sintetično spremenjen (npr. z analizo zakasnitve zvoka, spektralnih anomalij ali preverjanjem, ali se obraz na ekranu natančno ujema z gibi resničnega obraza). Nekatera zagonska podjetja ponujajo API-je za detekcijo deepfake-ov v realnem času, ki bi jih lahko vključili na pretočne platforme ali celo za preverjanje govorcev na dogodkih v živo. Za zdaj pa prepoznavanje v živo zaostaja za napadalci, poudarek je na preventivi (uporaba gesel ali skupnih “kodnih besed” pri telefonskih klicih, za preverjanje identitete, kot jih svetujejo organi pregona weforum.org).
- Človeško preverjanje dejstev in opozorila skupnosti: Tehnologija sama po sebi ni vsemogočna. Pomembna ostaja tudi človeška budnost. Novinarske organizacije, skupine za preverjanje dejstev in platforme oblikujejo posebne ekipe za nadzor viralnih deepfake-ov v času volitev. Te ekipe uporabljajo OSINT (odprto kodno obveščevalno orodje) in forenzična orodja za analizo sumljivih medijev – npr. preverjajo časovne žige, iščejo neskladja (kot so neujemajoči se uhani na politiku v videu ali čudni gibi ustnic) in hitro objavljajo razkrinkanja. Pomagajo tudi skupnostne pobude: na X/Twitterju je funkcija “Community Notes” služila za označevanje objav z AI-generiranimi slikami ali videom in dodajanjem pojasnil. Ob nedavnih volitvah so uporabniki pogosto v nekaj urah po pojavu deepfake-a objavili primerjave ali pokazali na pomanjkljivosti. Takšna zbirna budnost, okrepljena z digitalno pismenostjo, je mogočno orodje. Platforme se v vse večji meri zanašajo na uporabnike in neodvisne preverjevalce za hitro prepoznavo dvomljive vsebine, ker je obseg, ki ga morajo skenirati avtomatski filtri, ogromen. Slabost je, da lahko deepfake postane viralen preden je razkrinkan. Kljub temu bosta hitrejši odziv in širša ozaveščenost (da več uporabnikov samih prepozna ponaredek) zmanjšala škodo.
Povzetek: prepoznavanje deepfake-ov je živahno in hitro razvijajoče se področje. Napredek je viden – denimo, današnji detektorji so mnogo boljši kot leta 2018, pobude, kot je Content Authenticity Initiative, pa si prizadevajo, da bi preverjanje postalo standard. A izzivi ostajajo, ker se nasprotniki neprestano prilagajajo in ker je potrebna množična uporaba orodij. Pričakovati je, da se bo tehnologija prepoznavanja bolj vključevala v družbena omrežja, novinarske delovne tokove in celo naprave (predstavljajte si, da bi vam pametni telefon obvestil, da je dohodni video verjetno ustvarjen z umetno inteligenco). Ključno je, da so orodja za prepoznavanje in izvor vsebine povezana z javno izobrazbo, da bodo uporabniki razumeli in ustrezno ukrepali, ko se pojavi opozorilo ali oznaka. Ta tehnološki segment je le eden od stebrov širše strategije za boj proti grožnjam sintetičnih medijev.
Odgovori politike in regulatorni okviri
Odločevalci po svetu so prepoznali grožnjo deepfake-ov in začeli oblikovati zakone ter predpise za spopadanje z njimi. Čeprav gre za nov pojav, se po večjih demokracijah oblikuje prepletena mreža odzivov. Spodaj je pregled zakonodajnih in regulatornih prizadevanj v teku:
- Združene države Amerike: V ZDA trenutno ni celovitega zveznega zakona proti političnim deepfakom, a narašča pritisk, da bi zapolnili to vrzel. Predloženih je več zakonov v Kongresu, ki želijo omejiti zlonamerne deepfake-e. Na primer, v začetku 2024 so predlagali zakon No AI FRAUD Act kot odziv na odmevne incidente (npr. AI-generirane eksplicitne podobe znanih oseb policyoptions.irpp.org). Zakon predvideva vzpostavitev zveznega okvira, ki kriminalizira nekatere škodljive uporabe umetne inteligence, kot so lažni politični deepfake-i in zavajajoči pornografski ponaredki policyoptions.irpp.org. Razmišljajo tudi o obvezi razkrivanja AI-generirane vsebine v volilnih oglasih (da kampanje jasno označijo sintetično vsebino v oglasu). Medtem je Federal Communications Commission (FCC) sprejela usmerjen ukrep z prepovedjo uporabe AI glasovnih klonov v samodejnih klicih, ki imajo namen goljufije ali povzročanja škode policyoptions.irpp.org. To je posledica prevar, kjer so posnemovalci oponašali glasove resničnih oseb. Ukrep prepoveduje, da bi telemarketarji ali politični operaterji uporabljali sintetična glasovna sporočila za zavajanje prejemnikov. Veliko deepfake regulacije v ZDA poteka na ravni zveznih držav. Od 2019 so države, kot so Kalifornija, Teksas in druge, sprejele zakone o volilnih deepfake-ih. Kalifornija prepoveduje širjenje zavajajočih deepfake videov kandidatov v 60 dneh pred volitvami (z izjemami za satiro/parodijo) brennancenter.org. Teksas je uvedel zvezno kazen za ustvarjanje ali deljenje deepfake videov s ciljem diskreditacije kandidata ali vpliva na volivce brennancenter.org. Do sredine 2025 je najmanj štirinajst ameriških držav sprejelo ali razpravlja o zakonih o deepfake-ih v volilnih kontekstih citizen.org. Opazno je, da imajo ta prizadevanja dvostrankarsko podporo – zakonodajalci obeh strani se strinjajo, da so AI-manipulirane volilne dezinformacije grožnja demokraciji citizen.org citizen.org. Državni zakoni so raznoliki: nekateri uvajajo kazensko odgovornost za širjenje škodljivih deepfake-ov o kandidatu, drugi se osredinjajo na zahteve za označevanje sintetičnih medijev v kampanjskih oglasih. Skupina Public Citizen je tudi pozvala Federal Election Commission, naj posodobi svoja pravila in prepove zveznim kandidatom širjenje zavajajočih deepfake-ov v kampanjah brennancenter.org. Čeprav FEC še ni izdal novih predpisov, je tema na dnevnem redu. Ameriški zakonodajalci morajo prav tako tehtati vprašanja svobode govora – pretirano široke prepovedi manipuliranih medijev lahko trčijo v Prvi amandma. Satira in parodija (zaščitena politična izražanja) pogosto vključujeta obdelane slike ali videe; zakoni morajo biti natančno usmerjeni le na škodljivo zavajanje. To se odraža v številnih državnih zakonih, ki izrecno določajo izjeme za parodijo, satiro ali novinarske namene brennancenter.org brennancenter.org. Splošno soglasje pa je, da lažna AI-generirana vsebina, ki namerno zavaja volivce ali podžiga motnje, v demokraciji nima legitimnega mesta in je mogoče njeno širjenje omejiti brez posega v svobodo izražanja brennancenter.org brennancenter.org.
- Evropska unija: EU agresivno sprejema obsežno regulacijo umetne inteligence, vključno z ukrepi, ki neposredno zadevajo deepfake-e. Temeljni EU AI Act, dogovorjen 2024 (popolnoma začne veljati 2026, nekateri členi že prej), vključuje zahtevo po transparentnosti za sintetične medije. Zakon zahteva, da mora vsak sistem, ki lahko ustvari “deepfake” vsebino, zagotoviti, da je ta označena kot ustvarjena z AI (razen če gre za določena oproščena področja, kot sta umetnost ali varnostne raziskave) realitydefender.com. To v praksi pomeni, da bodo morali razvijalci generativnih slikovnih ali video modelov v EU obvezno vdelati vodni žig ali metapodatke, ki nakazujejo, da je izdelek sintetičen. Opustitev tega prinese visoke globe po zakonu. Poleg tega posodobljeni Kodeks ravnanja o dezinformacijah (prostovoljni kodeks, ki ga podpirajo največje spletne platforme) izrecno omenja deepfake-e kot grožnjo in narekuje platformam, naj razvijajo “politike, ukrepe in orodja za obravnavo manipulirane vsebine” brennancenter.org brennancenter.org. Tako so se platforme zavezale, da bodo uvajale sisteme za detekcijo in bodisi označevanje ali odstranjevanje deepfake videov, ki bi lahko povzročili javno škodo, ter sodelovale s preverjevalci za hitro razkrinkavanje lažnih AI vsebin. V okviru Digital Services Act (DSA) – ki velja od 2023 – morajo zelo velike spletne platforme v EU ocenjevat in zmanjševali “sistemska tveganja” (vključno z AI-generirano dezinformacijo). Zaradi tega pritiska so Meta, Google in TikTok napovedali nove zaščite za evropsko volilno sezono 2024–2025: od boljše detekcije deepfake-ov do bolj vidnega označevanja sintetičnih vsebin. Skratka, Evropa zagovarja transparentnost kot osnovno regulativno načelo: zahteve po označevanju AI proizvodov in odgovornost platform za omejevanje deepfake dezinformacij. Kritiki opozarjajo, da bo uveljavljanje zahtevno (kako odkriti vse neoznačene ponaredke v poplavi spletne vsebine?), toda EU jasno sporoča, da so neomejeni deepfake-i nesprejemljivi in neskladni z njenimi digitalnimi standardi upravljanja realitydefender.com realitydefender.com.
- Združeno kraljestvo: Združeno kraljestvo še ni sprejelo zakonov, ki bi posebej urejali volilne deepfake-e, a obravnava to temo s širšimi pobudami za spletno varnost in AI. Leta 2023 je sprejelo Online Safety Act, obsežen zakon proti škodljivi spletni vsebini. Med drugim je kriminaliziral deljenje neprostovoljnih deepfake pornografskih posnetkov – torej prepovedal ustvarjanje ali širjenje eksplicitnih sintetičnih vizualnih materialov nekoga brez njegove privolitve policyoptions.irpp.org. S tem so naslovili zlorabe deepfake-ov za nadlegovanje. Glede volilne dezinformacije zakon pooblašča Ofcom (regulatorja za komunikacije), da sprejme kodekse ravnanja za dezinformacije. Strokovnjaki pozivajo Ofcom, naj oblikuje Kodeks ravnanja o dezinformacijah, ki bi vključeval standarde za ravnanje z AI-manipulirano vsebino cetas.turing.ac.uk. Tak kodeks, po vzoru EU, bi lahko spodbudil platforme in politične akterje v Veliki Britaniji k vzdržnosti pri širjenju deepfake-ov in k jasnemu označevanju sintetičnih materialov. Predlagajo tudi, naj volilna komisija izda smernice političnim strankam o odgovorni rabi umetne inteligence in postavi rdeče črte glede zavajajočih deepfake-ov v kampanjah cetas.turing.ac.uk. Konec leta 2024 je večstranski odbor poslancev predlagal zaostritev volilne zakonodaje zaradi deepfake dezinformacij, a zakon še ni bil vložen. Vlada pregleduje, ali so obstoječi zakoni (npr. o obrekovanju, prevari in volilnih prekrških) dovolj za pregon zlonamerne rabe deepfake-ov ali bodo potrebni novi cetas.turing.ac.uk. Tudi Velika Britanija ustanavlja AI Safety Institute in je gostila Gobal AI Safety Summit 2023, kjer je bila manipulacija informacij tema razprav. Britanske oblasti se zdi stavijo na krepitev tehnične obrambe in medijske pismenosti (o katerih več v priporočilih), poleg zakonskih prepovedi. Kljub temu UK-ovi koraki, kot so prepoved deepfake pornografije in krepitev pooblastil regulatorjev, kažejo, da je lažna vsebina z umetno inteligenco politično vprašanje, ki zahteva urejanje.
- Kanada: Kanada leta 2024 ni imela posebnega zakona proti uporabi deepfake-ov v volitvah. Volilni zakon Kanade izrecno ne prepoveduje dezinformacije ali deepfake-ov, ustrezno bi jih morali preganjati na podlagi splošnih določb (npr. zakonov o prevari ali lažnem predstavljanju), ki pa morda niso povsem primerne cef-cce.ca. Strokovnjaki opozarjajo, da je Kanada “korak oz. dva zaostala” za drugimi demokracijami na tem področju policyoptions.irpp.org. Jeseni 2023 je v Kanadi krožil manjši incident povezan z deepfake-om, kjer je krožil lažen zvočni posnetek s političnim sporočilom. Dogodek sicer ni povzročil večje škode, a je povečal ozaveščenost. Elections Canada (volilna avtoriteta) je nato deepfake-e označila kot novo grožnjo in preučuje morebitne odzive cef-cce.ca. Analitiki pozivajo k sprejetju zakonodaje “že včeraj” – morda z dodatnimi pooblastili za komisijo, ki nadzira volitve, da lahko ukrepa proti zavajajočim sintetičnim medijem v kampanjah policyoptions.irpp.org. Kanada lahko črpa iz rešitev zaveznikov: uveljavi pravila o razkrivanju AI oglasov na volitvah ali uvede prekršek za širjenje materiala, za katerega je znano, da gre za deepfake za zavajanje volivcev. Do sredine 2025 zakon še ni bil predlagan, pritisk za ukrepanje pa narašča policyoptions.irpp.org.
- Druge demokracije: Po svetu številne druge demokracije uvajajo ukrepe:
- Avstralija: Avstralska vlada zaradi AI “razkroja resnice” pred volitvami načrtuje zakon o “resnici v političnem oglaševanju”, ki bi prepovedoval zavajajoče deepfake video in zvočne posnetke v kampanji innovationaus.com. Predlog je leta 2023 vložila Albanesejeva vlada in bi prepovedoval javno objavo sintetičnih medijev, ki posnemajo kandidate ali bi lahko zavajali volivce, v času volilnih obdobij innovationaus.com. A zakonodajni postopek je počasen – kaže, da določbe o deepfake-ih ne bodo polno veljale pred letom 2026 innovationaus.com, kar pomeni, da bodo volitve 2025 še brez popolne zaščite. V vmesnem času je avstralska volilna komisija izdala smernice in poudarila, da je pretirano poudarjanje deepfake-ov lahko nevarno (komisija opozarja, da bi lahko s tem nehote zmanjšali zaupanje tudi v resnične informacije) ia.acs.org.au. Avstralski politiki vseh barv podpirajo ukrepe proti AI dezinformacijam, razprava pa teče o ravnotežju s svobodo političnega izražanja theguardian.com sbs.com.au.
- Tajvan: Po izkušnjah z deepfake-vmešavanjem iz Kitajske je Tajvan dopolnil volilno zakonodajo. Leta 2023 je zakonodaja na Tajvanu spremenila Zakon o volitvah in odpoklicu tako, da izrecno prepoveduje deljenje ponarejenih zvočnih ali video posnetkov kandidatov z namenom lažnega vplivanja na izid policyoptions.irpp.org. S tem imajo jasen pravni okvir za pregon napadalcev, kakršne so doživeli 2024. Tajvan je dodatno vlagal v javno izobraževanje in sistem za hiter odziv (ki vključuje vlado, civilno družbo in platforme), s katerim so hitro razkrinkali lažne informacije, kar je omejilo učinek policyoptions.irpp.org policyoptions.irpp.org.
- Evropske demokracije: Posamezne evropske države (poleg uredb EU) deepfake-e naslavljajo preko obstoječih zakonov. Francoski zakon o “lažnih informacijah” med volitvami (sprejet 2018) bi se lahko uporabil za deepfake videe, ki so širjeni z namenom vpliva na glasovanje, nemški strogi zakoni o obrekovanju in volitvah prav tako. Prav tako pa nastajajo predlogi za nove ukrepe: v Nemčiji uradniki predlagajo, da bi morale politične stranke prijavljati uporabo sintetičnih medijev v svojih materialih. V Veliki Britaniji, kot omenjeno, bi prihodnje spremembe volilne zakonodaje (npr. zahteve za podpise digitalnih oglasov) lahko vključevale tudi razkritja AI vsebine cetas.turing.ac.uk.
- Mednarodne pobude: Zmeraj več je zavedanja, da je potrebna globalna sodelovanje, saj dezinformacije ne poznajo meja. G7 ima delovno skupino za “upravljanje umetne inteligence”, ki je 2024 izdala izjavo o boju proti zlonamerni uporabi AI v informacijskem prostoru. Administracija predsednika Bidna je v ZDA pridobila prostovoljne zaveze največjih AI razvijalcev (OpenAI, Google, Meta ipd.), da uvedejo vodne žige in vlagajo v preprečevanje zlorab. Čeprav to ni zavezujoče, nakazuje vzpostavljanje mednarodne norme v prid transparentnosti in odgovornosti pri rabi AI.
Povzetek: odzivi politike na deepfake-e se pospešujejo. Zakonodaja še lovi tehnološki napredek, a smer je jasna: vlade postopoma kriminalizirajo najbolj škodljivo uporabo sintetičnih medijev v volitvah, zahtevajo transparentnost (označevanje/razkritja) AI-generirane vsebine in omogočajo regulatorjem ali volilnim organom, da ukrepajo proti digitalnim ponaredkom. Ob tem morajo ščititi legitimno izražanje, kot je satira, in se izogniti drastičnim pravilom, ki bi lahko omogočila zlorabe cenzure. Najti pravo ravnotežje je težavno. Prakse od ameriških državnih zakonov do mandatov EU bodo 2025 pomemben preizkus. Odločevalci bodo gotovo še prilagajali ta orodja, ko bomo bolje razumeli, kaj deluje. A nedelovanje ni možnost: kot pravi eden izmed sledilcev politike, “Brez regulacije bodo deepfake-i najverjetneje še bolj begali volivce in zmanjševali zaupanje v volitve.” citizen.org citizen.org Naslednji razdelek ponuja strateška priporočila, ki gradijo na teh naporih in nagovarjajo vse deležnike v demokratičnem procesu.
Strateška priporočila za zaščito volitev
Obramba volilne integritete v dobi umetne inteligence bo zahtevala večplastno strategijo. Nobeno posamezno orodje ali zakon ne more odpraviti težave deepfake tehnologije; namesto tega je potrebna usklajena prizadevanja vlad, tehnoloških platform, medijev in civilne družbe. Spodaj so predstavljena strateška priporočila za različne sektorje, ki lahko pomagajo omiliti tveganja in zagotoviti, da bodo volivci lahko sprejemali informirane odločitve v letu 2025 in v prihodnje:
Vlade in oblikovalci politik
1. Okrepite pravno zaščito in odvračanje: Vlade bi morale sprejeti ali posodobiti zakone, s katerimi izrecno prepovejo zlonamerno uporabo sintetičnih medijev v volilnem procesu. To vključuje prepoved ustvarjanja ali distribucije deepfake vsebin z namenom zavajanja javnosti ali sabotaže volitev, še posebej tistih, ki lažno prikazujejo kandidate ali manipulirajo z informacijami v zvezi z volitvami (na primer postopki glasovanja). Pomembno je, da so zakoni ozko usmerjeni – ciljajo na namerno zavajanje (dezinformacije), z jasnimi izjemami za satiro, parodijo ali očitno umetniško izražanje. Kazni (denarne globe ali kazenski postopki) bodo ustvarile odvračilni učinek za morebitne razpečevalce deepfake vsebin, še posebej, če bodo izvajane hitro. Na primer, predlagana avstralska prepoved zavajajočih deepfake vsebin med kampanjami in novi tajvanski členi proti volilni vsebini, manipulirani z AI, lahko služijo kot vzorec innovationaus.com policyoptions.irpp.org. V ZDA bi lahko federalni ukrepi (kot je predlagani No AI FRAUD Act) postavili osnovni standard na nacionalni ravni, ki bi dopolnjeval državne zakone. Prav tako naj vlade posodobijo pravila o financiranju kampanj in oglaševanju: zahtevajo naj, da vsak politični oglas (na spletu ali v medijih), ki vsebuje sintetične medije, vključuje jasno izjavo o poreklu (npr. »Ta slika/video je ustvarjen z umetno inteligenco«), da gledalci niso zavedeni. Pravila o resničnosti oglaševanja v kampanjah se morajo nujno razširiti tudi na vsebino, ustvarjeno z AI.
2. Izvedite protokole odzivanja na incidente v volilnem procesu: Volilni organi naj vzpostavijo formalne protokole za odzivanje na resne incidente deepfake vsebin v realnem času. Odličen primer je kanadski Protokol za javno obravnavo kritičnih incidenc v volilnem procesu, ki združuje visoke uradnike za oceno in obveščanje javnosti o grožnjah tujega vmešavanja ali dezinformacij med volitvami cetas.turing.ac.uk cetas.turing.ac.uk. Druge demokracije naj sprejmejo podobne mehanizme. Če se pojavi nevaren deepfake (na primer izmišljeni video kandidata, ki naj bi na dan volitev priznal poraz), bi se protokol takoj sprožil – uradniki, strokovnjaki za obveščevalne zadeve in tehnološke platforme bi hitro preverili resničnost in javno objavili ovrženje lažne vsebine ter pojasnili dejstva cetas.turing.ac.uk. Ta hitri odziv je ključen za zmanjšanje vpliva obsežnih dezinformacij. Vlade naj tovrstne odzive vadijo vnaprej (simulirajo različne scenarije z deepfake napadi), da bodo pripravljene na hitro in enotno reakcijo, ko bo to potrebno.
3. Investirajte v infrastrukturo za zaznavanje in avtentikacijo: Javni sektor naj vlaga sredstva v razvoj orodij za zaznavanje deepfake vsebin in preverjanje avtentičnosti. To vključuje financiranje raziskav in razvoja (npr. programi v slogu DARPA, osredotočeni na dezinformacije, posredovane z AI), podporo uvajanju orodij za zaznavanje pri volitvah in sprejemanje standardov za avtentikacijo v komunikacijah državnih organov. Konkretni korak je, da državni mediji (državne televizije, uradni profili na družbenih omrežjih ipd.) pri vseh uradnih fotografijah, videih in zvočnih posnetkih dodajajo preverljive podatke o izvoru cetas.turing.ac.uk. Tako ustvarijo temelj »preverjenih verodostojnih« informacij. Volivci in novinarji bi potem lahko zaupali, da je vsak video z državnim žigom v metapodatkih avtentičen – hkrati pa bi bili bolj skeptični do podobnih posnetkov, ki tega žiga nimajo. Vlade lahko z zgledom vodijo ta pristop »avtentičnost-po-oblikovanju« cetas.turing.ac.uk, ki ga že preučujeta ZDA in Združeno kraljestvo. Poleg tega morajo biti organi pregona in telesa za nadzor volitev opremljeni s forenzičnimi analiznimi enotami za oceno sumljivih medijskih vsebin med kampanjami. Zavedanje, da imajo oblasti tehnična sredstva za sledenje in identifikacijo deepfake vsebin (in morebiti tudi storilcev), bo prav tako odvračalo zlonamerne akterje.
4. Poenostavite in posodobite obstoječo zakonodajo: Mnoge države bodo ugotovile, da je mogoče nekatere zakone o goljufijah, kraji identitete, obrekovanju ali vmešavanju v volitve uporabiti tudi za primere deepfake vsebin – vendar obstajajo vrzeli. Vlade naj pregledajo svojo zakonodajo in preverijo, ali so potrebne nove pravne kategorije. Na primer: Ali je zakonodaja zajela primere, kjer AI generira imitacijo javnega uradnika? Če ne, naj jih uvedejo. Poskrbite tudi, da zakonodaja o varstvu podatkov in zasebnosti vključuje nepooblaščeno uporabo podobe ali glasu posameznika z umetno inteligenco kot kršitev. Jasno opredeliti pravni status škodljivih deepfake vsebin (in to tudi predstaviti javnosti) je bistvenega pomena, da bodo morebitni slabi akterji vedeli, da jih lahko doleti odgovornost. Prav tako to omogoča žrtvam (kandidatom ali državljanom), da zahtevajo pravno varstvo, če so tarča. Pregled naj zajema tudi volilno zakonodajo: posodobite definicije nedovoljenega volilnega oglaševanja ali zavajajočih informacij o anketah tako, da izrecno zajemajo manipulacije s sintetičnimi mediji cetas.turing.ac.uk. Cilj je, da odpravimo vso dvoumnost – posameznik, ki širi dezinformacije, ne sme trditi »tehnično ni nezakonito, ker je ustvarjeno z AI«. Če so zakoni jasni in eksplicitni, je izvajanje in pregon bistveno poenostavljen.
5. Okrepite mednarodno sodelovanje: Ker se dezinformacijske kampanje pogosto začnejo v tujini (ali se hitro razširijo prek meja), morajo demokratične vlade pri tem sodelovati. Obveščevalne službe in enote za kibernetsko varnost naj delijo podatke o zaznanih novih deepfake taktikah (npr. če ena država odkrije tujo deepfake operacijo, naj nemudoma opozori druge). Forumi, kot so Zavezništvo za zaščito demokracije, G7, pogovori med EU in ZDA ter drugi, lahko uskladijo skupne izjave in norme proti volilnim deepfake vsebinam. Diplomatki pritiski lahko ciljajo na državne akterje, ki podpirajo ali dopuščajo tovrstno vmešavanje. Možno je tudi skupno raziskovanje – npr. mednarodni center za zaznavanje deepfake vsebin bi lahko združeval podatke za izboljšanje algoritmov. Organizacije za spremljanje volitev (npr. OVSE ali mednarodne opazovalne misije) naj posodobijo svoje metode z iskanjem vpliva sintetičnih medijev, države pa naj vključijo deepfake scenarije v vzajemne dogovore o zaščiti demokratičnih procesov. Združena fronta bo otežila zlonamernim akterjem izkoriščanje ranljivosti posamezne države.
6. Spodbujajte javno ozaveščenost in digitalno pismenost: Na koncu imajo vlade pomembno vlogo pri izobraževanju volivcev o deepfake vsebinah. Številne države razmišljajo o programih digitalne pismenosti v šolah in za širšo javnost cetas.turing.ac.uk. Takšni programi učijo ljudi preverjanja spletnih informacij, prepoznavanja znakov manipuliranih medijev in kritičnega razmišljanja o virih. Glede na to, kako prepričljive so postale AI lažne vsebine, je ključno, da vsak volivec ve, da takšne ponaredbe obstajajo, in se počuti sposobnega preveriti sumljive informacije (namesto da bi jim slepo verjel ali jih delil). Vlade naj sodelujejo z izobraževalnimi ustanovami in nevladnimi organizacijami, da vključijo ozaveščanje o deepfake tehnologiji v učne načrte in javne kampanje. Na primer, predvajanje oglasov, ki prikazujejo resnične in lažne posnetke politikov ter razlagajo razliko med njimi, lahko močno poveča ozaveščenost. Raziskave kažejo, da so posamezniki z višjo stopnjo medijske pismenosti in kritičnega razmišljanja bistveno uspešnejši pri prepoznavanju deepfake vsebin ter odpornejši na dezinformacije cetas.turing.ac.uk. Zato je financiranje pobud za medijsko pismenost ena najučinkovitejših dolgoročnih obramb. Ko javnost postane aktivna mreža za zaznavanje – hitro prepozna in opozori na ponaredke – se lahko vpliv deepfake propagande bistveno zmanjša.
Tehnološke platforme in razvijalci umetne inteligence
1. Okrepite platformne politike in njihovo izvajanje: Družbena omrežja in spletne platforme so glavni kanali za širjenje viralnih deepfake vsebin. Ta podjetja bi morala sprejeti stroge politike proti manipuliranim vsebinam, ki zavajajo uporabnike, še posebej v kontekstu volitev. Veliko platform je s tem že začelo: na primer Facebook in Twitter (X) imata politike odstranjevanja ali označevanja »manipuliranih medijev«, ki bi lahko povzročili škodo. Vendar pa mora biti izvajanje teh pravil učinkovito. Platforme naj izboljšajo samodejno zaznavanje deepfake vsebin (z uporabo najnovejših prijemov, omenjenih zgoraj) in poskrbijo, da bodo sumljive vsebine v času volitev hitro pregledali moderatorji. Med volilnimi obdobji lahko podjetja vzpostavijo posebne krizne skupine in kanale za sodelovanje z volilnimi komisijami za hitro reševanje morebitnih incidentov z deepfake vsebinami v realnem času. Ko je lažna vsebina identificirana, naj jo platforme jasno označijo kot napačno ali jo nemudoma odstranijo ter jo znižajo v algoritmih za priporočila, da preprečijo nadaljnje širjenje brennancenter.org brennancenter.org. Ključna je tudi transparentnost: platforme lahko objavljajo redna poročila o zaznanih deepfake vsebinah in sprejetih ukrepih, s čimer gradijo zaupanje javnosti. Prav tako naj vzorce zaznanih deepfake vsebin delijo z raziskovalci zaradi izboljšanja skupnega razumevanja.
2. Uvedba razkritja in sledenja deepfake vsebine: Po vzoru EU bi morale platforme po vsem svetu zahtevati, da je z AI-generirana vsebina označena in razkrita. Na primer, če je naložen politični oglas, ki vsebuje AI-generirano sliko ali glas, bi lahko platforma zahtevala, da naložnik označi polje »ta vsebina vsebuje sintetične elemente« – nato pa gledalcem prikaže obvestilo (»Ta video je bil spremenjen ali delno generiran z umetno inteligenco«). Celo zunaj formalnih oglasov lahko platforme uporabijo detekcijska orodja za vizualno označevanje sumljivih deepfake videov (npr. s prekrivanjem opozorila, da pristnost videa ni potrjena). Poleg tega lahko družbena omrežja in sporočilne storitve integrirajo funkcije preverjanja pristnosti vsebine: s standardi, kot so C2PA, uporabnikom prikažejo ikono, če je vir slike in zgodovina urejanja preverjena, ali pa označijo, če teh podatkov ni. Nekatera tehnološka podjetja (Adobe, Microsoft, Twitter) so že vključena v take pobude. Z vgrajevanjem signalov o izvoru vsebine v uporabniški vmesnik lahko platforme uporabnikom pomagajo razločiti resnično od lažnega. Prav tako morajo delati na mehanizmih sledenja – na primer, če se nevaren deepfake širi, lahko ugotovijo, kdo ga je prvotno naložil, četudi je bil kasneje več tisočkrat ponovno deljen? Sodelovanje z organi pregona pri večjih incidentih (ob spoštovanju zakonov o zasebnosti) bo pomembno za prijetje storilcev.
3. Prepoved zlonamernih uporabnikov in omrežij deepfake vsebin: Platforme morajo biti pozorne na organizirane akterje, ki večkrat uporabljajo deepfake vsebine. To pomeni, da ne odstranjujejo le posameznih vsebin, ampak tudi zapirajo račune, strani ali bote, ki sodelujejo v usklajenih deepfake kampanjah. Če dokazi povezujejo operacijo z državno sponzoriranim naporom ali znano “troll” farmo, naj platforme to javno objavijo in jim onemogočijo prisotnost. V zadnjih letih je bilo razbitih že veliko dezinformacijskih omrežij; enako odločen pristop mora veljati tudi za AI-podprte vplivne operacije. Platforme morajo svoje pogoje uporabe izrecno dopolniti s prepovedjo zlonamernega ustvarjanja ali širjenja sintetičnih vsebin z namenom zavajanja drugih. Ta pravila so podlaga za izključitev kršiteljev. V političnem oglaševanju naj bi vsaka kampanja ali politični odbor, ki je zasačen pri uporabi zavajajočih deepfake vsebin, utrpel kazen, kot je izguba oglaševalskih pravic. Tehnološka podjetja bi lahko tudi sodelovala pri skupnem črnem seznamu znanih hash-ov ali podpisov deepfake vsebin, tako da če je neka lažna vsebina prepoznana na eni platformi, jo lahko blokirajo tudi druge (tako kot se deli hashe terorističnih vsebin preko konzorcijev). Ključno je: uporaba deepfake vsebin na večjih platformah se preprosto ne sme izplačati – bodisi bo vsebina hitro odstranjena bodisi bo kršitelj izgubil račun.
4. Sodelovanje s preverjevalci dejstev in organi oblasti: Nobena platforma ne more sama popolnoma nadzorovati vsebine. Sodelovanje je ključnega pomena. Družbena omrežja naj še okrepijo partnerstva z neodvisnimi organizacijami za preverjanje dejstev pri ocenjevanju viralnih vsebin. Ko preverjevalci dokazano ovržejo video kot lažen, mora platforma to popravek okrepiti – npr. pripeti povezavo do članka s pojasnilom ob vsakem deljenju videa ali obvestiti vse uporabnike, ki so lažno vsebino videli prvotno. Pri dezinformacijah je to že izvajal, denimo, Facebook in tako naj postopa tudi z deepfaki. Poleg tega naj platforme sodelujejo z volilnimi komisijami in varnostnimi organi, posebej v času volitev. Lahko vzpostavijo neposredne kontakte za uradnike, da prijavijo sumljive deepfake primere, prav tako pa platforme lahko opozarjajo vlade, če zaznajo tujo dezinformacijsko kampanjo v državi. V nekaterih jurisdikcijah so formalni dogovori že v veljavi (na primer, Kodeks ravnanja EU spodbuja delitev informacij med vladami in platformami glede groženj dezinformacijam brennancenter.org). Tudi v ZDA enota kibernetske varnosti Ministrstva za domovinsko varnost sodeluje s platformami pri spremljanju volilnih dezinformacij. To sodelovanje mora seveda spoštovati svobodo izražanja in ne sme preiti v cenzuro legitimnih vsebin. A pri očitno lažnem in škodljivem materialu lahko hitra, usklajena akcija med platformami in javnimi institucijami prepreči širjenje laži. To lahko vključuje skupne izjave za javnost v razkrivanju viralne lažne vsebine ali pa algoritme za okrepitev verodostojnih virov v boju proti njeni širjenju.
5. Napredek pri zaščiti AI modelov: Podjetja, ki razvijajo generativne AI modele (OpenAI, Google, Meta itd.), nosijo odgovornost že pri izvoru. Uvesti bi morali varovalke za preprečevanje zlorabe svojih AI za volilno vmešavanje. To lahko vključuje tudi vodna znamenja na izhodih AI, kot je bilo omenjeno (tako vsak sliko, ki jo denimo ustvari DALL-E ali Midjourney, vsebuje vtisnjeno digitalno podpisano sled). To lahko vključuje tudi kuracijo učnih podatkov – denimo zagotovilo, da modeli znajo zavrniti zahteve po škodljivem posnemanju resničnih oseb. Že zdaj nekatera AI orodja ne omogočajo ustvarjanja deepfake slik resničnih političnih osebnosti zaradi vgrajenih vsebinskih filtrov. Te zaščitne mehanizme je treba stalno nadgrajevati (čeprav odprtokodni modeli predstavljajo poseben izziv, saj jih lahko slabi akterji prilagodijo brez teh omejitev). Razvijalci AI naj vlagajo tudi v raziskave tehnik za zaznavanje deepfake vsebin in jih delijo s skupnostjo. Pozitivno je, da so številna vodilna AI podjetja prostovoljno podpisala podporo vodnim znamenjem in preverjanju pristnosti vsebin. V prihodnje bi lahko sodelovali pri razvoju standardiziranega API-ja, ki bi omogočil hitro preverjanje videoposnetka ali zvoka, ali je nastal z njihovimi modeli. Skratka, tisti, ki ustvarjajo »problem« (generativno tehnologijo), naj pomagajo ustvariti tudi »rešitev« (načine za identifikacijo izhodov AI).
6. Transparentnost v političnem oglaševanju: Platforme, ki gostijo politične oglase, morajo zagotavljati strogo transparentnost glede uporabe AI. Če je na Facebooku ali Googlu izpostavljen politični oglas, ki vsebuje AI-generirane elemente, naj bo to jasno označeno v knjižnici oglasov platforme. Platforme bi celo lahko zahtevale, da politični oglaševalci predložijo neobdelan, originalen material v primerjavo. Še ambiciozneje, družbena omrežja bi lahko razmislila o začasni prepovedi vseh političnih oglasov, ki vsebujejo sintetično vsebino v najbolj občutljivih dneh pred volitvami – podobno kot nekatere platforme že prepovedujejo nove politične oglase tik pred volilnim dnem. To bi odpravilo nevarnost zadnjega trenutka s serijo deepfake oglasov. Čeprav je uveljavitev tega zahtevna, je ključna misel ta, da je plačljivo promoviranje zavajajoče vsebine še posebej nevarno in imajo platforme na tem področju večja pooblastila kot pri uporabniških objavah. Zagotavljanje visoke transparente in hitrih odstranitev v oglaševalski domeni je ključnega pomena, saj lahko deepfake, ki ga razširjajo plačani oglasi, doseže milijone ciljno usmerjenih z algoritmom, kar izkrivlja informacijsko okolje.
Mediji in novinarske organizacije
1. Strogi protokoli preverjanja: Mediji morajo svoje preverjevalne prakse prilagoditi dobi deepfa kov. Vsaka redakcija – od nacionalnih TV mrež do lokalnih časopisov in portalov za preverjanje dejstev – naj vzpostavi formalne postopke za potrjevanje avdiovizualnega gradiva pred objavo ali predvajanjem. To vključuje usposabljanje novinarjev za uporabo forenzičnih orodij (npr. preverjanje metapodatkov videoposnetkov, analiza slik) ter posvetovanje s strokovnjaki po potrebi. Za vsak senzacionalen ali škandalozen posnetek, ki se pojavi v času volitev, naj uredniki ravnajo z zdravo mero skepse in ga ne objavijo brez potrditve. Mediji naj z dvojnim virom preverijo uporabniško generirano vsebino: če se npr. pojavi video, ki kandidata prikazuje v spornem dejanju, mora uredništvo iskati potrditve (priče, uradne izjave ipd.) ali vsaj opraviti analizo okvir-po-okvir, da se prepričajo, da ni deepfake. Cilj je, da mediji ne postanejo nehote ojačevalci dezinformacij. Nekatere institucije so že uvedle interne “deepfake task force” skupine. V nekaterih primerih so novinarji v Arizoni celo sami ustvarili deepfake (z dovoljenjem), da bi gledalcem pokazali, kako enostavno je video manipulirati knightcolumbia.org – to je pameten način za ozaveščanje. Vsi uredniški kolektivi bi morali imeti “deepfake strokovnjaka” na voljo (ali sodelovati s tehničnim laboratorijem) za hitro analizo sumljivih posnetkov. Če je preverjanje tako rutinsko kot preverjanje dejstev, lahko mediji lažne vsebine ujamejo pravočasno ali pa opozorijo svojo publiko, če česa niso uspeli potrditi.
2. Odgovorno poročanje o deepfakih: Pri poročanju o primerih sintetične vsebine naj novinarji ravnajo previdno in v kontekstu. Če deepfake, ki napada določenega kandidata, postane viralen, zgodba ni v samih lažnih trditvah, temveč v tem, da gre za potvorbo. Novinarska poročila naj ne ponavljajo podrobno lažnega narativa ali nekritično predvajajo lažni video, saj to lahko nenamerno širi dezinformacijo naprej. Namesto tega naj jo splošno opišejo in se osredotočijo na odziv (npr. »Manipulirani video, ki lažno prikazuje, da X počne Y, je bil objavljen na spletu, pri čemer so ga strokovnjaki ovrgli.«). Spletni mediji se lahko odločijo, da zabrišejo ali ne povežejo neposredno na deepfake vsebino v svojih člankih cetas.turing.ac.uk, da ne bi povečali njenega dosega ali olajšali prenos in ponovno objavo zlonamernim uporabnikom. Oblikovanje prispevka je bistveno: poudarite poskus zavajanja in dejstvo izdelave deepfake bolj kot samo lažno vsebino v njej cetas.turing.ac.uk. Hkrati naj mediji izpostavijo popravke oziroma resnico (na primer: »Ne, politik Z tega ni izrekel – video je AI ponaredek; tukaj je, kaj je dejansko povedal na to temo.«). S doslednim pristopom lahko ugledni mediji okrepijo odpornost javnosti proti verjetju ali širjenju laži. Gre za občutljivo ravnovesje med obravnavo dezinformacije (ker ignoriranje ne prinese rešitve) in nenamernim krepitvijo njene razširjenosti. Podobno kot obstajajo pravila za poročanje o prevarah ali množičnih streljanjih (kjer se nekateri podatki zamolčijo zaradi preprečevanja posnemanja), bi lahko razvili smernice tudi za poročanje o deepfakih. Organ za neodvisne novinarske standarde v Veliki Britaniji je bil že pozvan, naj posodobi svoja pravila za take situacije cetas.turing.ac.uk.
3. Uporaba tehnologije za preverjanje pristnosti v novinarskih redakcijah: Tudi novinarske organizacije lahko izkoristijo nastajajočo infrastrukturo za preverjanje pristnosti. Medijska hiša bi na primer lahko sprejela orodja Pobude za pristnost vsebin (Content Authenticity Initiative), da priloži kriptografske podatke o pristnosti vsebine vsem originalnim fotografijam in videoposnetkom, ki jih posnamejo njeni novinarji. To pomeni, da bi lahko vsak posnetek, ki ga na primer posname kameraman Reuters ali AP, nosil varnostni žig, ki potrjuje njegov izvor in vse morebitne spremembe. Nadalje, ko si ljudje ogledajo videoposnetek Reuters, lahko preverijo, ali ni bil spremenjen. Takšni ukrepi pomagajo potrditi, kaj je resnično ter javnosti ponuditi vir resnice. Mediji bi morali tudi sodelovati pri oblikovanju baz podatkov znanih deepfakov (in znanih pristnih vsebin), ki lahko pomagajo preverjevalcem dejstev. Na primer, vzdrževanje zbirke uradnih govorov in intervjujev omogoča hitro razkritje ponarejenega posnetka s primerjavo. Večje tiskovne agencije in novičarske hiše se lahko uskladijo in vse svoje naročnike hitro opozorijo, če zaznajo nevaren deepfake – podobno kot objavljajo nujna novičarska obvestila. Uredniki pa morajo biti tudi sami previdni, saj politični operativci lahko poskušajo novinarjem podtakniti lažne vsebine (npr. “pridobljen” avdio, ki je v resnici ustvarjen z umetno inteligenco). Priporočljiva je visoka stopnja skepsisa do kakršnegakoli anonimno pridobljenega digitalnega materiala.
4. Izobraževanje javnosti: Mediji lahko močno prispevajo k izobraževanju volivcev o sintetičnih medijih. Novinarji in uredništva naj pripravijo pojasnjevalne članke, intervjuje s strokovnjaki in prispevke, ki javnost poučijo, kako nastanejo deepfaki in kako jih prepoznati. Če tehnologijo razkrijejo in pojasnijo, zmanjšajo njeno moč. Nekateri televizijski prispevki leta 2024 so na primer prikazali AI posnemanje glasu v živo in s tem pokazali, kako lahko prevarantski klic posnema glas vaše sorodnice. Podobno lahko novinarsko poročanje v času volitev vključuje opomnike: “Če v zadnjem trenutku vidite izjemno sporen videoposnetek kandidata, bodite previdni – morda je lažen. Tukaj je način preverjanja…”. S strani medijev vodene kampanje ozaveščanja javnosti (morda v sodelovanju z državo ali nevladnimi organizacijami) bi lahko pomembno povečale digitalno pismenost. Novinarji naj pri poročanju dosledno uporabljajo natančno terminologijo: poimenovanje nečesa kot “deepfake” ali “z umetno inteligenco ustvarjen lažni posnetek” namesto zgolj “ponarejen video” pomaga okrepiti zavedanje, da gre za novo kategorijo. Sčasoma bolje informirana javnost težje nasede lažem in bo pogosteje zahtevala dokaze. Mediji imajo kot vmesnik med informacijami in javnostjo dolžnost graditi to odpornost.
5. Odgovornost in razkrivanje virov: Na koncu naj novinarji raziskujejo in razkrivajo, kdo stoji za odmevnimi deepfake operacijami. Kaznovanje krivcev v sodbi javnosti ima lahko odvračilni učinek. Če je kot vir zlonamernega deepfaka identificiran konkurenčni volilni štab, tuja trol tovarna ali določena spletna skupnost, naj bo to izpostavljeno, saj taka taktika postane stigmatizirana in bolj tvegana. Raziskovalni prispevki o nastanku in financiranju dezinformacijskih kampanj lahko zmanjšajo njihovo učinkovitost. Če politik ali javna osebnost sam(a) razširja deepfake, čeprav ve, da je lažen (na primer kandidat objavi ponarejen video tekmeca), morajo novinarji to jasno obsoditi – in takšno dejanje obravnavati kot resno kršitev. Perspektiva negativnega poročanja in ugledna škoda lahko odvračata politične akterje od “umazane igre”, kot je uporaba deepfake vsebin. Skratka, nadzorna funkcija novinarstva sega tudi v digitalni svet: raziskujte, pripišite krivdo in razkrivajte zlonamerne operacije s sintetičnimi mediji tako, kot bi ravnali z drugimi prevarami ali korupcijo v politiki.
Civilna družba in pobude volivcev
1. Digitalna pismenost in izobraževanje skupnosti: Organizacije civilne družbe – vključno z nevladnimi organizacijami, knjižnicami, univerzami in lokalnimi skupinami – lahko vodijo aktivnosti za izobraževanje državljanov pri soočanju z obdobjem deepfakov. Skupnostim je treba ponuditi obsežne programe za preverjanje medijskih vsebin. Nevladne organizacije lahko na primer organizirajo delavnice, kjer ljudi naučijo preprostih prijemov, kot denimo vzvratno iskanje slik (za preverjanje, ali je fotografija ustvarjena z umetno inteligenco ali bila spremenjena), iskanje potrditve v drugih medijih ter uporaba spletnih orodij za preverjanje dejstev. Dejansko že obstajajo odlični priročniki in kurikulumi preverjevalnih organizacij (npr. First Draft, Media Literacy Now) o prepoznavanju dezinformacij in deepfakov; razširiti jih je treba čim širše. Takšno usposabljanje naj ne bo omejeno zgolj na šole, temveč naj cilja tudi starejše odrasle, ki so pogosto bolj ranljivi za spletne prevare. Vsodržavne kampanje digitalne pismenosti se lahko uvedejo, morda z državnimi sredstvi, a naj jih zaradi zaupanja izvedejo skupnostne organizacije. Cilj je dvigniti “kolektivno imunost” družbe: če zna dovolj velik del prebivalstva prepoznati laž ali vsaj počaka z oceno do preverjanja, lažnivci izgubijo večino svoje moči. Raziskave kažejo, da si javnost želi tega znanja – marsikdo je zaskrbljen, ker ne zna ločiti resničnega od lažnega brennancenter.org brennancenter.org. Civilna družba lahko zapolni to vrzel z opolnomočenjem državljanov prek izobraževanja in praktičnih znanj.
2. Preverjanje dejstev in pobude za razkrivanje laži: Neodvisni preverjevalci dejstev in civilni nadzorniki ostajajo ključni. Za volilna obdobja naj uvedejo posebne akcije kot so centri za preverjanje deepfake vsebin. Na primer, koalicije organizacij za preverjanje dejstev lahko v času volitev vodijo javno dostopno nadzorno ploščo, ki spremlja govorice in nove trditve o deepfake vsebinah ter sprotno objavlja demantije. Projekt News Literacy Project je za volitve v ZDA 2024 beležil primere dezinformacij in pokazal, kako malo jih je v resnici vključevalo umetno inteligenco knightcolumbia.org knightcolumbia.org. Takšno transparentno spremljanje omogoča medijem in javnosti širši pogled, da ne precenjujejo tveganja, a vseeno prepoznajo pravične primere. Organizacije civilne družbe lahko tudi same objavljajo popravke na družbenih omrežjih – denimo, da se odzovejo na viralne objave s pravilnimi informacijami, ob pomoči skupnostnih opomb ali podobnih funkcij. Pomembno je tudi “predhodno razkrivanje” (prebunking): javnost vnaprej opozoriti, da se lahko pojavi lažna vsebina. Če npr. obveščevalni podatki ali pretekli vzorci nakazujejo, da bi bil lahko kandidat tarča lažnega škandala, lahko civilne skupine (v sodelovanju z volilnimi organi) volilce opozorijo: “Če nenadoma zagledate šokanten video osebe X, bodite previdni – možno je, da gre za deepfake.” Raziskave kažejo, da predhodno opozarjanje bistveno zmanjša verjetnost, da bodo ljudje verjeli lažem in jih širili cetas.turing.ac.uk cetas.turing.ac.uk. Torej lahko proaktiven pristop civilne družbe, ki pričakuje in vnaprej preprečuje deepfake kampanje, pomembno prispeva k zaščiti družbe.
3. Civilno-tehnološke pobude in množično zaznavanje: Tehnološko dobro podkovani državljani se lahko organizirano vključijo v boj proti deepfakom. Že danes obstajajo prostovoljci “lovci na deepfake”, ki analizirajo sumljive spletne vsebine. Civilna družba lahko ta prizadevanja usmeri prek platform – denimo z namenskim portalom ali aplikacijo, kjer lahko ljudje za analizo prijavijo videe ali avdio posnetke, ki jim ne zaupajo; mreža strokovnjakov ali orodij z umetno inteligenco pa jim pripravi poročilo o pristnosti. Ta množično zbrana inteligenca lahko dopolni uradna prizadevanja. Civilno-tehnološke skupine lahko razvijejo tudi vtičnike za brskalnike ali mobilne aplikacije, ki pomagajo uporabnikom prepoznavati sintetične medije. Na primer, aplikacija, s katero uporabnik izbere video posnetek na zaslonu in dobi takojšnjo analizo več algoritmov za zaznavanje (nekakšna protivirusna zaščita za deepfake). Čeprav takšna orodja niso nezmotljiva, lahko zaznajo sumljive vsebine. Odprto-kodne projekte je treba podpreti s finančnimi spodbudami. Druga zamisel so državljanske prijavne linije – podobno kot obstajajo volilne telefonske linije za težave pri glasovanju, bi lahko vzpostavili kanal za prijavo sumov na dezinformacije ali deepfake vsebine, kar bi posredovali volilnim oblastem ali preverjevalcem dejstev, ki bi potem lahko ukrepali. Če državljane vključimo kot aktivne opazovalce in prijavitelje spornih vsebin, se obseg nadzora močno poveča. Ta razpršen pristop upošteva, da bo v milijonski družbi nekdo pogosto hitro opazil sumljivo vsebino – ključ je, da se takšno opažanje čim prej posreduje tistim, ki ga lahko preverijo in javno sporočijo resnico.
4. Zagovorništvo za odgovornost platform: Civilna družba naj stalno pritiska na tehnološke platforme in podjetja umetne inteligence za odgovorno ravnanje. Javne interesne skupine in inštituti so bili ključni pri razkrivanju nevarnosti deepfakov in zagovarjanju reform (npr. Access Now, EFF in drugi so izdali priporočila). To zagovorništvo se mora nadaljevati – spodbujajoč platforme k uvedbi prej omenjenih sprememb (boljše označevanje, odstranjevanje vsebine ipd.) ter proizvajalce umetne inteligence k etičnemu oblikovanju orodij. Kampanja organizacije Public Citizen za spremljanje zakonodaje o deepfake vsebinah in peticije pri FEC je primer takega delovanja citizen.org citizen.org. Podobno lahko koalicije zahtevajo odprtost platform: naj razkrijejo podatke o deležu AI vsebin na svojih straneh ali uspešnosti svojega zaznavanja. Glasovi civilne družbe naj tudi skrbijo, da nove zakonske ureditve pravilno varujejo državljanske svoboščine (npr. da se uprejo preveč širokim ukrepom, ki bi lahko pod pretvezo boja proti deepfakom omejevali svobodo govora). Iskanje ravnotežja zahteva posvetovanje z javnostjo, pri čemer zagovorniške skupine zastopajo državljane v teh razpravah. V prihodnjih letih se lahko pojavijo novi regulativni okviri za umetno inteligenco in spletne vsebine – ključno je, da bodo v njih spoštovane demokratične vrednote in človekove pravice, civilna družba pa ima ključno vlogo nadzornika.
5. Podpora žrtvam in tarčam: Če je kandidat ali zasebnik očrnjen z deepfake vsebino, lahko civilna družba nudi podporo. Neprofitne organizacije lahko ponudijo pravno pomoč ali nasvete glede odstranitve obrekljivih deepfakov in prevzema odgovornosti storilcev. Obstajajo lahko telefonske linije za žrtve deepfake pornografije ali napadov na značaj, ki jih povezujejo s policijo in viri za duševno zdravje. Kandidatom, ki jih prizadene gonja, lahko civilne organizacije (npr. Liga volivk ali skupine za integriteto volitev) pomagajo okrepiti njihove zanikanje in razkrinkane informacije, da bi zmanjšale škodo. Hitro združevanje v bran nekoga, ki je lažno tarča – poskrbeti, da bo resnica glasnejša od laži – je nekaj, čemur se lahko skupnost in zagovorniške skupine usklajeno posvetijo, kot pogosto storijo v primerih obrekovanja ali sovražnega govora. Na širši ravni lahko civilna družba spodbuja medstrankarske zaveze, da bodo v primeru pojavitve deepfaka vse strani to obsodile. Predstavljajte si prisego, ki jo podpišejo vse glavne stranke v državi, s katero se zavežejo, da ne bodo uporabljale deepfakov in da bodo hitro obsodile vsako zlonamerno ponarejanje, ki se pojavi. Takšne norme, ki jih spodbujajo skupine, kot so medstrankarski volilni odbori ali etične nevladne organizacije, zmanjšajo verjetnost “spuščanja standardov,” kjer bi stranke občutile pritisk, da odgovorijo na enak način. Ustvarja se enotna fronta, da napadi na resnico ne bodo tolerirani, ne glede na to, koga ciljajo.
Skratka, spopadanje z izzivom deepfakov zahteva izrabo vseh obramb družbe – tehnoloških, pravnih, institucionalnih in človeških. Z izvedbo zgornjih korakov lahko vlade okrepijo volilni sistem pred ponarejanjem z umetno inteligenco, tehnološke platforme omejijo širjenje lažnih vsebin, mediji poskrbijo, da pri poročanju zmaga resnica, državljani pa postanejo spretni varuhi resničnosti. Ni časa za odlašanje: saj generativna umetna inteligenca napreduje, bo volilni cikel 2025 preizkusil odpornost demokracij na sintetične laži. Dobra novica je, da nismo brez obrambe. S pripravljenostjo, transparentnostjo in sodelovanjem lahko premagamo in prehitevamo deepfake kampanje ter ohranimo integriteto naših volitev. Kot je zaključilo CETaS raziskovalno poročilo o umetni inteligenci in volitvah, “samozadovoljstvo ne sme postati del odločanja” – nasprotno, izkoristiti bi morali ta trenutek za gradnjo odpornosti cetas.turing.ac.uk cetas.turing.ac.uk. Tako ohranjamo načelo, da medtem ko se tehnologija razvija, bodo naše demokratične vrednote resnice in zaupanja obstale.
Viri
- Stockwell, Sam et al. “AI-Enabled Influence Operations: Safeguarding Future Elections.” CETaS (Alan Turing Institute) Research Report, 13. nov. 2024. cetas.turing.ac.uk cetas.turing.ac.uk
- Stockwell, Sam et al. Ibid. (CETaS Report, 2024), poglavje 2.1 o deepfakih na ameriških volitvah. cetas.turing.ac.uk cetas.turing.ac.uk
- Beaumont, Hilary. “’Pomanjkanje zaupanja’: Kako bi deepfakes in AI lahko pretresli ameriške volitve.” Al Jazeera, 19. jun. 2024. aljazeera.com aljazeera.com
- Sze-Fung Lee. “Kanada potrebuje zakonodajo o deepfakih – že včeraj.” Policy Options, 18. mar. 2024. policyoptions.irpp.org policyoptions.irpp.org
- Goldstein, Josh A. & Andrew Lohn. “Deepfakes, volitve in kako zmanjšati ‘dobiček lažnivcev’.” Brennan Center for Justice, 23. jan. 2024. brennancenter.org
- “Sintetični mediji.” Wikipedija (dostop 2025). en.wikipedia.org en.wikipedia.org
- “Deepfake.” Kaspersky IT Encyclopedia (2023). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
- Hamiel, Nathan. “Deepfakes so se izkazali za drugačno grožnjo, kot smo pričakovali. Tu je, kako se braniti pred njimi.” World Economic Forum, 10. jan. 2025. weforum.org weforum.org
- “Urejanje AI deepfakov in sintetičnih medijev na političnem področju.” Brennan Center for Justice, 4. okt. 2023. brennancenter.org brennancenter.org
- Colman, Ben. “EU zakon o umetni inteligenci in vse večja nujnost zaznave deepfakov.” Reality Defender Blog, 11. feb. 2025. realitydefender.com realitydefender.com
- “Spremljevalnik: Državna zakonodaja o deepfakih na volitvah.” Public Citizen, 2025. citizen.org citizen.org
- Partnership on AI. “Sintetični mediji in deepfakes – študija primera: Slovaška 2023.” (citirano v analizi Knight Columbia). brennancenter.org brennancenter.org
- Kapoor, Sayash & Arvind Narayanan. “Pregledali smo 78 volilnih deepfakov. Politična dezinformacija ni problem umetne inteligence.” Knight First Amendment Institute, 13. dec. 2024. knightcolumbia.org knightcolumbia.org
- CETaS poročilo (2024), priporočila za politike (osredotočeno na Združeno kraljestvo). cetas.turing.ac.uk cetas.turing.ac.uk
- CETaS poročilo (2024), priporočila o zaznavanju in sledljivosti. cetas.turing.ac.uk cetas.turing.ac.uk
- Public Safety Canada. “Zaščita pred dezinformacijami, ki jih omogoča umetna inteligenca” (povzetek 2023). policyoptions.irpp.org policyoptions.irpp.org
- InnovationAus. “Vladina prepoved deepfakov na volitvah bo ‘čakala’ do 2026.” (Avstralija) 2023. innovationaus.com
- Dodatni viri: Članki Reuters, Wired in CNN, ki so citirani v zgoraj omenjenih virih o določenih incidentih (npr. deepfake Zelenskega, hongkonška prevara z 25 milijoni dolarjev prek Zoom deepfaka weforum.org) in opozorila FTC za potrošnike o prevarah z glasovnim kloniranjem weforum.org. Ti so vključeni v analizo in so dostopni prek navedenih povezav virov.