Demostat: Lažni snimci, dipfejk i demokratija

Demokratska stranka nedavno je na svom zvaničnom Tviter nalogu objavila video snimak na kojem predsednik SAD Džo Bajden govori o prošlogodišnjim nemirima na Kapitol hilu. Snimak koji traje 17 sekundi podstakao je teoretičare zavere, ali i desno orijentisane novinare pojedinih medijskih kuća u SAD, da dovedu u pitanje njegovu istinitost. Oni tvrde da je video dipfejk (deepfake), odnosno da je nastao korišćenjem veštačke inteligencije. Dipfejk nastaje kada tehnologija nauči kako da oponaša nekoga. Koristi veštačku inteligenciju da potpuno zameni nečije lice ili ga u dovoljnoj meri izmeni. U ovom slučaju, pojedini korisnici društvenih mreža smatraju da je Bajdenovo lice nalepljeno na telo glumca. Veruju da su u pravu jer Bajden, kako navode, izgleda drugačije na drugom snimku koji je objavljen istog dana, ali i zato što predsednik SAD na spornom snimku ne trepće. To, međutim, nije dokaz da je video dipfejk, jer i lica na dipfejk snimku mogu da trepću.

Slučaj, naravno, nije jedinstven. Snimak predsednika SAD iz 2021. na kojem odgovora na pitanja novinara u dvorištu Bele kuće pokrenuo je pravu lavinu teorija zavera, od toga da je američki predsednik snimljen ispred zelenog ekrana, preko toga da je slika kompjuterski generisana, do tvrdnje da je Bajden previše bolestan da bi se pojavio u javnosti, da je mrtav ili da koristi dublera. A zapravo, u pitanju je bila optička iluzija, jer je Bajdenova ruka u jednom momentu naizgled prešla preko mikrofona novinara. Ima i onih koji tvrde da Bajden uopšte i nije predsednik i da zbog toga ne može ni da bude na travnjaku Bele kuće. Pojedinci smatraju da Bela kuća hoće da zaštiti predsednika zbog njegovih godina, lošeg zdravlja ili gafova u javnosti.

Ni bivši predsednik SAD Donald Tramp nije bio imun na slične teorije zavere. Mnogi korisnici društvenih mreža tvrdili su da je njegov snimak ispred Bele kuće, na kojem, između ostalog, govori kako je primio eksperimentalni lek protiv kovida, lažan. Takođe, bilo je teorija da je snimak u kojem priznaje pobedu Džoa Bajdena na predsedničkim izborima zapravo dipfejk. Postoji i dipfejk bivšeg predsednika Baraka Obame u kojem on naziva Donalda Trampa kompletnim i potpunim đubretom, a koji je napravljen kako bi se javnosti skrenula pažnja na manipulacije video sadržajem. Od početka rata u Ukrajini pojavili su se lažni snimci u kojima Vladimir Putin objavljuje primirje sa Ukrajinom, a Volodimir Zelenski govori o predaji.

Kratak susret sa dipfejk tehnologijom imali su gradonačelnici nekoliko evropskih prestonica kada su prevareni da preko video poziva razgovaraju sa gradonačelnikom Kijeva, Vitalijem Kličkom. Gradonačelnica Berlina imala je zakazan razgovor na Vebeks platfromi za video konferencije sa osobom koja je izgledala i zvučala kao Kličko. Kako je kasnije saopšteno iz njene kancelarije, nije bilo naznaka da u video konferencijskom pozivu ne učestvuje stvarna osoba. Sumnja se rodila posle petnaestak minuta kada je navodni gradonačelnik počeo da govori da ukrajinske izbeglice u Nemačkoj varaju državu zbog beneficija i da bi trebalo da se vrate u Ukrajinu kako bi ratovali protiv Rusije. I kancelarija gradonačelnika Madrida je podnela prijavu policiji zbog nekoga ko se lažno predstavljao kao Kličko u video pozivu sa gradonačelnikom. Gradonačelnik Beča je čak objavio na Tviteru da je video pozivom razgovarao sa Kličkom, ali je tvit ubrzo obrisan i nakon toga objavljeno saopštenje da je Mihael Ludvig bio žrtva ozbiljnog slučaja sajber kriminala.

Političari strepe od dipfejk tehnologije jer bi mogla biti korišćena za širenje laži o njima i obmanu glasača. Korišćenje dipfejk tehnologije može biti pretnja po unutrašnju politiku u nekoj zemlji, demokratiju, diplomatiju i nacionalnu bezbednost.

Iako naredni primer nije dipfejk, jasno pokazuje zašto se političari pribojavaju lažnih snimaka i „lažnih vesti na stereoidima”, kakav je dipfejk.

Naime, radi se o snimku predsednice Predstavničkog doma američkog Kongresa Nensi Pelosi iz 2019, na kojem deluje da je toliko pijana da ne može da govori. Snimak je napravljen na veoma jednostavan način, usporen je na oko 75 odsto normalne brzine, dok je ton njenog glasa prilagođen. Snimak je podeljen više miliona puta na društvenim mrežama pre nego što je otkriveno da je lažan. Podelio ga je i Donald Tramp. Zbog ovog slučaja je zakazana i rasprava u Kongresu, a Fejsbuk je bio pod pritiskom da ukloni snimak sa mreža. Fejsbuk to tada nije uradio, ali su smanjili učestalost pojavljivanja snimka i uz njega postavili vest koja otkriva da je reč o lažnoj vesti.

Kao odgovor na skandal, reklamna agencija „Canny“ napravila je video snimak u kome vlasnik Fejsbuka, Mark Zakerberg, priznaje da ima potpunu kontrolu nad ukradenim podacima milijarde ljudi i da kontroliše njihove živote i budućnost. Taj video je urađen pomoću dipfejk tehnologije i objavljen na Instagramu.

Za sada postoji jedan potvrđeni slučaj kada je politička stranka koristila dipfejk video kako bi uticala na građane. U maju 2018, flamanska socijalistička partija objavila je dipfejk video na društvenim mrežama na kojem Tramp navodno ismeva Belgiju jer i dalje podržava Pariski klimatski sporazum. Video je loš falsifikat – Trampova kosa izgleda krajnje neobično, dok mu se usta čudno pomeraju. Video se i završava Trampovim rečima: „Svi znamo da su klimatske promene lažne, baš kao i ovaj video”, iako ta rečenica nije prevedena i titlovana. Portparol stranke tada je rekao da je video objavljen kako bi stranka skrenula pažnju na neophodnost delovanja zbog klimatskih promena.

Na kraju, jedan snimak za koji se sumnjalo da je dipfejk imao je velikog uticaja na pokušaj državnog udara u Gabonu 2019. godine. Šta se zapravo dogodilo? Na jesen 2019. godine ta afrička država se suočila s čudnom političkom krizom. Predsednik Ali Bongo je bio van zemlje na lečenju i nije se pojavljivao u javnosti. Budući da nije bilo jasnih odgovora o njegovom zdravstvenom stanju, javnost je sumnjala, a neki su duboko verovali, da je predsednik mrtav. Posle nekoliko meseci bez ikakvih informacija, u decembru je objavljeno da je predsednik imao moždani udar, ali da je dobro i da će održati tradicionalno novogodišnje obraćanje. Međutim, kada je taj video objavljen, javnost nije umirena, naprotiv. Mnogi su sumnjali da se radi o dipfejk snimku i da je Bongo zaista mrtav ili da je potpuno nesposoban da obavlja dužnost predsednika.

Bongovi kritičari i politički protivnici bili su ubeđeni da je snimak lažan. Fokusirali su se na dva specifična aspekta – na to koliko malo Bongo trepće tokom emitovanja, kao i na činjenicu da su njegovi govorni obrasci izgledali drugačije u odnosu na druge video zapise, što su mogući znaci dipfejka.

Nedelju dana nakon objavljivanja video snimka, vojska Gabona je pokušala da izvede, ispostaviće se, krajnje neuspešan državni udar, uz opravdanje da je snimak dokaz da nešto nije u redu s predsednikom.

Dok se većina medijskog izveštavanja o lažnim video snimcima i dipfejku fokusira na moguće užasne scenarije njihovog korišćenja u SAD ili drugim zapadnim zemljama, zapravo bi takve lažne vesti mogle da izazovu najveći haos u zemljama u razvoju, koje su često dom krhkih vlada i nedovoljno digitalno pismenih građana. Dezinformacije u nekim zemljama mogu dovesti do puča, rodno ili etnički motivisanog nasilja, ugrožavajući stabilnost čitavih država.

Dipfejk bi mogao postati oruđe autokratskih vlada za dezinformisanje i ugnjetavanje građana. Nije teško zamisliti da diktator lažira video snimak nekog stranog lidera koji preti njegovoj zemlji, kako bi uplašio stanovništvo u skladu sa svojim autoritarnim načinom vladanja. Mogućnosti zloupotrebe su nesagledive.

Izvor: Demostat
Autor: Ivana Petronijević Terzić

Check Also

Republika Koreja otvara diplomatsku misiju pri NATO-u

Ambasador Republike Koreje u Belgiji, Ioon Soongu, sastao se u utorak (22. novembra 2022.) u …