Najnovije vijesti
Objavljeno vijesti danas: 0
Pošalji priču
Imaš priču, fotografiju ili video?
ZASTRAŠUJUĆE

Isprobali smo: Uz pomoć umjetne inteligencije kreirali smo lažni video i rezultat je nevjerojatan

A1 AI video
Foto: Shutterstock
1/3
30.09.2025.
u 11:14

Svi pričaju o AI manipulacijama pa smo testirali koliko je doista lako stvoriti lažni video koji može zavarati drudge, ali i napraviti puno veću štetu. Sve što vam treba je jedna fotografija.

Zamislite ovu scenu: Dijete vam šalje video s nepoznatog broja na neku od aplikacija, u video vam objašnjava da su ga opljačkali, ali da je sve u redu i moli da mu uplatite novac te šalje bankovni račun. Vaše je dijete, znate mu glas, vidite ga na videu, šaljete mu novac i čekate da se javi kako je sve u redu. Vaše dijete, naravno, nema pojma što se dešava, uopće se nije našlo u toj situaciji, a vi ste prevarantima uplatili novac na račun.

Zvuči nerealno, ali itekako moguće, a situacije koje se svaki dan događaju su puno gore od ove. Dovoljna je jedna obična fotografija djeteta ili tinejdžera i za samo nekoliko minuta i klikova dobijete video u kojem dijete „govori ili radi” stvari koje se nisu dogodile.

Koliko je lako napraviti takav video, uvjerili smo se sami. Bez ikakvog predznanja o izradi deepfake videa, probali smo sami napraviti takav video.

Kako prepoznati AI video

Evo nekoliko konkretnih savjeta koji roditeljima (i djeci) mogu pomoći da prepoznaju AI odnosno deepfake video:

  • Usne i govor - AI modeli analiziraju milijune videa, ali još uvijek imaju poteškoće precizno uskladiti pokrete usana s određenim glasovima i izgovorima, pogotovo kod brzog govora. Ako video izgleda loše sinkroniziran kao stari filmovi, to je prvi “red flag”.
  • Neprirodno treptanje - AI uglavnom ne integrira treptanje ili ga generira potpuno neprirodno.
  • Koža izgleda „plastično” - AI programi često zaglađuju površinu lica kako bi stvorili dojam 3D-a i prekrili nesavršenosti. To dovodi do neprirodnog izgleda kože, kao preagresivan beauty filter.
  • Neprirodni pokreti - AI za sada najčešće ubacuje realne pokrete lica, ali ne cijelog tijela. Zato glava može izgledati kao da se kreće neprirodno u odnosu na cijelo tijelo.
  • Zvuk i pozadinski zvukovi ne prate sliku - glas se često generira odvojeno od videa, a alati ne dodaju uvijek realistične šumove okoline. Ako glas zvuči čudno i neprirodno, pomalo sterilno, a osoba navodno stoji na ulici ili u situaciji gdje bi sigurno čuli pozadinske zvukove da je snimka nastala mobitelom, to je znak manipulacije.
  • Artefakti oko ruba lica - Kad AI spaja generirano lice s postojećom pozadinom, često nastaju mutni dijelovi ili nepravilne linije oko kose, ušiju ili ramena. Slično kao da jpg sliku manje kvalitete zalijepite na sliku visoke rezolucije.
  • Premalo ili previše emocija - Izraz lica kod na manipuliranim videima često je u neutralan ili pretjeran jer algoritam ne zna dovoljno dobro prikazati suptilne prijelaze između emocija
  • Provjera konteksta - AI (za sada) nema „razumijevanje stvarnog svijeta” već samo kombinira uzorke. Zato često stvara sadržaj koji izgleda vizualno uvjerljivo, ali kontekstualno nema smisla. Ako video djeluje šokantno, a ne postoji u drugim relevantnim izvorima, vjerojatno je fake.


Zašto su deepfake alati toliko opasni?

Alati za generiranje govora i videa sve su precizniji, često besplatni ili vrlo jeftini, i ne zahtijevaju tehničko znanje. Uz pomoć obične fotografije ili videa, može se još dodati i predložak glasa lako se može stvoriti video za koji većina ljudi može povjerovati na prvi pogled kako je istinit. Lažni kompromitirajući video, cyberbullying, ucjene, stvaranje kompromitirajućeg sadržaja za izrugivanje ili iznudu, sve su to moguće prijetnje koje mogu nastati čak i ne namjerno, u šali, a ranjivost je veća jer djeca često dijele fotografije i ne misle o posljedicama svojih dijela.

Djeca pošalju simpatičnu fotografiju rodbini ili prijateljima, netko je preuzme, izmijeni glasom i tekstom te nastane kompromitirajući video koji se brzo širi. Postoji sve više slučajeva gdje kolege iz razreda stvaraju lažne videouratke i dijele ih za izrugivanje. A tu je i prijetnja objavom „lažnog” sadržaja ako žrtva ne učini što napadač zahtjeva. Sve su to scenariji koji više nisu samo teorija ili nešto što gledamo u kriminalističkim serijama već stvarnost u kojoj žive naša djeca.

Foto: Shutterstock


Što pokazuju podaci?

Prema podacima Centra za sigurniji internet, u prošloj godini bilježi se snažan rast upita za pomoć. U protekloj godini “helpline” je zaprimio 993 upita, što je oko 500 više nego prethodne godine. Nažalost, osim velikog porasta, problem je što se mnogi od tih slučajeva odnose se na dijeljenje snimaka ili fotografija koje su potom iskorištene za izrugivanje, lažne profile ili ostale manipulirane fotografije. Također, u izvještajima međunarodnih partnera zabilježen je značajan porast AI sadržaja koji se odnosi na zloupotrebu djece.

Na ovogodišnjoj konferenciji CyberGuard 2025 jedan od govornika bit će Chris Hughes (IWF) te će u svojem izlaganju dati kratki osvrt na rad IWF-a, trendove i statistiku vezanu uz online zlostavljanje i AI sadržaj. Također će dati primjere podataka i usluga koje IWF pruža industriji i međunarodnim partnerima u izvršnoj vlasti u pronalaženju počinitelja, a kao uvod u Cyberguard 2025 dao je


Koliko su u postotku prijave o zlostavljanju djece na internetu točne u Velikoj Britaniji?

To ovisi o brojnim čimbenicima, ponajviše o tome tko podnosi prijave, ali pokušat ću objasniti što jednostavnije i odgovoriti isključivo u kontekstu rada IWF-a, a ne prijava koje se podnose drugim organizacijama poput policije i sl.

Prošle godine IWF je obradio 424.047 prijava te smo potvrdili da je 291.273 prijava bila točna (69%). Međutim, važno je napomenuti da IWF u UK-u ima zakonske ovlasti za proaktivno pretraživanje internetskog CSAM-a, pa je većina CSAM prijava koje smo obradili prošle godine bila točna (93%). Ako promatramo samo prijave građana, točnost tih prijava prošle je godine iznosila 27,5%.


Ima li ih više pojavom AI-ja?

Da, ukupno gledano, broj prijava povezanih s umjetnom inteligencijom povećao se zbog AI-ja, ali zabilježeni brojevi ne odražavaju stvarnu razinu dostupnosti AI sadržaja. U prvih sedam mjeseci ove godine zabilježili smo porast od 400%, s 1.286 AI slika i videa koji su uvršteni u naše izvještaje od siječnja do 11. srpnja 2025. Znamo iz istraživanja da se AI sadržaj širi u mnogo većem opsegu nego što se prijavljuje IWF-u. Naši partneri u NCMEC-u izvijestili su da je broj AI prijava iz industrije porastao za 1.325%, s 4.700 prijava godinu ranije na 67.000 prijava prošle godine. Stvoreni sadržaj postaje sve ekstremniji i realističniji. Posebno zabrinjava nagli porast AI video sadržaja u vrlo kratkom vremenu, što predstavlja dodatni problem u području generativne umjetne inteligencije.


Koliko se opasnosti u području zlostavljanja djece na internetu krije upravo u umjetnoj inteligenciji?

Rizici su brojni; proizvodnja AI sadržaja može biti potpuno umjetna ili djelomično sintetička (kombinacija stvarne slike djeteta izmijenjene pomoću AI-ja). AI otežava identifikaciju i zaštitu žrtava seksualnog zlostavljanja, a njegov razvoj stvara prilike za kriminalce da zarađuju na proizvodnji CSAM-a. Postoje i dokazi da AI sadržaj povećava želju seksualnih prijestupnika i potiče ih da počine stvarno zlostavljanje – AI stvara veću potražnju za CSAM-om.

Foto: Shutterstock

Široka dostupnost različitih aplikacija (Nudifying Apps) također je dovela do situacije u kojoj djeca, koja inače ne bi bila izložena zlostavljanju, završavaju s izmijenjenim i distribuiranim nevinim slikama. Šteta koju uzrokuju AI slike proteže se daleko izvan samog stvaranja materijala. Razvoj AI-ja zasigurno je nanio udarac borbi protiv nasilja nad ženama i djevojčicama. Iako AI CSAM nije rodno specifičan, velika većina sadržaja koje vidimo odnosi se na žene i djevojčice, a ne na dječake. Postoji još mnogo štetnih aspekata razvoja AI CSAM-a.


Što roditelji i odrasli mogu učiniti?

  • Razgovor prije zabrane: objasnite djetetu pravila o dijeljenju fotografija i objasnite rizike koji vrebaju.
  • Privatnost profila: postavite privatne profile na društvenim mrežama i ograničite tko može vidjeti objave.
  • Edukacija o deepfakeu i AI manipulacijama: naučite djecu kako prepoznati lažne videozapise i mogli ih prijaviti odraslima.
  • Prijava i traženje pomoći. Ako se dogodi incident, obratite se Centru za sigurniji internet i relevantnim institucijama — pomoć postoji.

AI alati za generiranje fotografija, videozapisa i glasova samo će postajati bolji i nećemo morati čekati dugo da postanu sve uvjerljiviji. AI mogućnosti se mogu usporediti s raznim tehnologijama kroz povijest, od nitroglicerina, plastike do nuklearne energije, koji olakšavaju čovječanstvu život i napredak, ali se mogu iskorištavati i za vrlo negativne stvari.

Današnja AI tehnologija otvara prostor za nevjerojatne kreativne mogućnosti za tvrtke i pojedince, ali isto tako i za zloupotrebe. Zato je poruka jasna, ako svatko može napraviti lažni video, onda ga svatko mora znati i prepoznati te mogućnosti spriječiti da do njegove izrade uopće dođe. CyberGuard 2025 je mjesto gdje će svi zainteresirani roditelji, stručnjaci i poslovni lideri dobiti više informacija iz prve ruke kako prepoznati rizike i zaštititi sebe, svoje poslovanje i svoje najranjivije članove. Vidimo se tamo.

CyberGuard 2025 konferencija

Ove godine A1 Hrvatska i Centar za sigurniji Internet organiziraju drugu po redu CyberGuard 2025 konferenciju koja će ponovno okupiti vodeće svjetske i domaće stručnjake iz područja digitalne sigurnosti, sigurnosti djece na internetu i poslovne otpornosti. Konferencija donosi još više primjera iz prakse, zanimljivih panela i konkretnih rješenja, uz ICT stručnjake, edukatore, državne institucije i poduzetnike koji žele razumjeti, reagirati i zaštititi.

Više na www.boljionline.hr.

Sadržaj nastao u suradnji s A1 Hrvatska.

Želite prijaviti greške?

Još iz kategorije

Kupnja