Nakon ruske invazije na Ukrajinu 2022. godine, društvene mreže bile su zatrpane primitivnim lažnim sadržajem koji se predstavljao kao autentičan prikaz rata, ali se radilo o loše uređenim fotografijama ili isječcima iz videoigara, filmova i starih vijesti. Takve staromodne prijevare sada se ponovno šire tijekom rata protiv Irana, no ovoga puta pridružila im se nova vrsta obmane koja 2022. nije bila lako dostupna. Radi se o visokokvalitetnim videozapisima i fotografijama stvorenima po narudžbi pomoću alata umjetne inteligencije koji su postali iznimno jednostavni za korištenje, piše CNN.
Prije deset godina, kako kaže Hany Farid, profesor sa Sveučilišta Kalifornija u Berkeleyju specijaliziran za digitalnu forenziku, "pojavila bi se jedna ili dvije lažne stvari koje bi bile prilično brzo razotkrivene. Sada ih vidimo na stotine, i zaista su realistične". Farid dodaje: "Nije samo realistično, već i ostavlja dubok trag, i to snažan trag. Ljudi u to vjeruju i pojačavaju doseg takvog sadržaja." S njim se slaže i Shayan Sardarizadeh, viši novinar BBC Verifyja i istaknuti stručnjak za razotkrivanje ratnih dezinformacija. "Ono što se promijenilo u posljednjih godinu dana jest da je generativna umjetna inteligencija postala mnogo dostupnija. Sada je moguće stvoriti vrlo uvjerljive videozapise i slike koji prikazuju značajan ratni incident, a koje je neuvježbanom oku teško prepoznati kao lažne", ističe Sardarizadeh.
Lažni videozapisi i slike, koje su stručnjaci poput Sardarizadeha identificirali kao stvorene umjetnom inteligencijom, prikupili su desetke milijuna pregleda na društvenim mrežama u gotovo dva tjedna od početka iranskog rata. Jedan lažni video prikazuje izmišljeni napad iranskih projektila na Tel Aviv. Drugi lažni video prikazuje panične ljude kako bježe s aerodroma u Tel Avivu pred navodnim iranskim napadom, dok treći navodno prikazuje zarobljene pripadnike američkih specijalnih snaga koje pod prijetnjom oružjem drže iranski vojnici. Tu je i lažni video koji tvrdi da prikazuje snimke nadzornih kamera uništenih iranskih vojnih postrojenja, od kojih se za tri isječka čini da su generirani umjetnom inteligencijom, dok je jedan stvaran, ali iz prošle godine. Drugi lažni sadržaji uključuju izmišljeni konvoj američkih trupa na tlu Irana, snimku srušenog američkog zrakoplova koji se paradira Teheranom, kao i lažne fotografije zapaljene američke vojne baze u Iraku i američkog veleposlanstva u Saudijskoj Arabiji.
Unatoč svakodnevnim naporima ljudi poput Sardarizadeha da razotkriju dezinformacije, novi lažni sadržaji pojavljuju se mnogo brže nego što se mogu demantirati, a često su toliko realistični da prosječna osoba koja pregledava svoj feed ne može odmah uočiti da su lažni. Nekoliko lažnih priča koje su se masovno proširile gurali su proiranski računi na društvenim mrežama kao propagandu. Međutim, motivaciju iza stvaranja mnogih drugih lažnih sadržaja teško je utvrditi, možda se radi o zaradi i utjecaju koji donose pregledi na društvenim mrežama, a možda jednostavno o tome što ih je postalo iznimno lako stvoriti. Sve sofisticiranije prijevare plasiraju se u okruženje koje je postalo izrazito nepovoljno za istinu. Zbog stranačke polarizacije, fragmentacije medija i uspona algoritama društvenih mreža, mnogi ljudi uglavnom vide materijal koji dijele njihovi istomišljenici, a Farid napominje da su se društvene mreže udaljile od agresivne moderacije sadržaja na svojim platformama. "Sadržaj je realističniji, količina je veća, prodor je dublji, to je naša nova realnost. I jako je neuredna", zaključuje Farid.
Platforma X objavila je prošli tjedan da poduzima određene mjere u borbi protiv ratnih dezinformacija stvorenih umjetnom inteligencijom, kako je izvijestio CNN. Voditelj proizvoda Nikita Bier objavio je da će korisnici koji su plaćeni kao "kreatori" sadržaja biti suspendirani iz programa plaćanja na 90 dana ako šire videozapise oružanih sukoba generirane umjetnom inteligencijom bez otkrivanja da su stvoreni pomoću AI-ja, a trajno će biti suspendirani ako ponove prekršaj. Čak i ako se ova politika strogo provede, a Farid je izrazio skepticizam, velika većina korisnika X-a nije dio programa plaćanja kreatora. U međuvremenu, tvrtke TikTok i Meta, vlasnici Facebooka i Instagrama, nisu odgovorile na upite o širenju lažnih vijesti povezanih s ratom. Problem dodatno pogoršava i Grok, vlastiti AI chatbot platforme X, koji je u nekim slučajevima pogrešno uvjeravao korisnike da su brojne lažne slike i videozapisi, uključujući i one o ratu u Iranu, stvarni.
Danas je doista teško razlikovati stvarno od lažnog. Farid kaže da brzo poboljšanje kvalitete AI kreacija znači da savjeti o prepoznavanju lažnog sadržaja stari samo nekoliko mjeseci danas više nisu korisni. Primjerice, nekad je bilo korisno provjeriti ima li osoba na slici višak prstiju ili nepravilno postavljene udove, no ljudi prikazani u današnjem AI sadržaju uglavnom su lišeni takvih komičnih pogrešaka. Farid tvrdi da je najbolji način da ostanete točno informirani donijeti odluku da vijesti primate iz vjerodostojnih novinarskih izvora umjesto da pregledavate objave s nasumičnih računa na društvenim mrežama. "U trenucima globalnog sukoba", kaže, "to jednostavno nije mjesto za dobivanje informacija."
Za one koji ne mogu izbjeći često pregledavanje društvenih mreža, pametno je zastati i obaviti čak i nekoliko sekundi internetske pretrage prije nego što povjeruju ili podijele ratni video ili sliku. Pokušajte uočiti djeluje li nešto neobično, poput zvuka koji nije usklađen s videom ili vizualnih elemenata koji ne odgovaraju stvarnom svijetu. Iako AI postaje sve bolji, još uvijek nije savršen. Provjerite je li poznati stručnjak za razotkrivanje laži, poput Sardarizadeha, ili neki medij za provjeru činjenica već komentirao vjerodostojnost sadržaja. Također, obratite pozornost na to izražavaju li drugi korisnici sumnju u odgovorima na objavu. Sardarizadeh zaključuje da bismo trebali "trenirati svoje oči" da što bolje prepoznajemo AI materijal, ali i dodaje: "Postaje iznimno teško otkriti sadržaj generiran umjetnom inteligencijom, a čini se da se krećemo u smjeru u kojem će to uskoro postati još teže."
Tisuće vozača skrenulo s autoceste zbog jedne pogreške: Evo što se dogodilo na A3