Zamislite ovu scenu: Dijete vam šalje video s nepoznatog broja na neku od aplikacija, u video vam objašnjava da su ga opljačkali, ali da je sve u redu i moli da mu uplatite novac te šalje bankovni račun. Vaše je dijete, znate mu glas, vidite ga na videu, šaljete mu novac i čekate da se javi kako je sve u redu. Vaše dijete, naravno, nema pojma što se dešava, uopće se nije našlo u toj situaciji, a vi ste prevarantima uplatili novac na račun.
Zvuči nerealno, ali itekako moguće, a situacije koje se svaki dan događaju su puno gore od ove. Dovoljna je jedna obična fotografija djeteta ili tinejdžera i za samo nekoliko minuta i klikova dobijete video u kojem dijete „govori ili radi” stvari koje se nisu dogodile.
Koliko je lako napraviti takav video, uvjerili smo se sami. Bez ikakvog predznanja o izradi deepfake videa, probali smo sami napraviti takav video.
Zašto su deepfake alati toliko opasni?
Alati za generiranje govora i videa sve su precizniji, često besplatni ili vrlo jeftini, i ne zahtijevaju tehničko znanje. Uz pomoć obične fotografije ili videa, može se još dodati i predložak glasa lako se može stvoriti video za koji većina ljudi može povjerovati na prvi pogled kako je istinit. Lažni kompromitirajući video, cyberbullying, ucjene, stvaranje kompromitirajućeg sadržaja za izrugivanje ili iznudu, sve su to moguće prijetnje koje mogu nastati čak i ne namjerno, u šali, a ranjivost je veća jer djeca često dijele fotografije i ne misle o posljedicama svojih dijela.
Djeca pošalju simpatičnu fotografiju rodbini ili prijateljima, netko je preuzme, izmijeni glasom i tekstom te nastane kompromitirajući video koji se brzo širi. Postoji sve više slučajeva gdje kolege iz razreda stvaraju lažne videouratke i dijele ih za izrugivanje. A tu je i prijetnja objavom „lažnog” sadržaja ako žrtva ne učini što napadač zahtjeva. Sve su to scenariji koji više nisu samo teorija ili nešto što gledamo u kriminalističkim serijama već stvarnost u kojoj žive naša djeca.
Što pokazuju podaci?
Prema podacima Centra za sigurniji internet, u prošloj godini bilježi se snažan rast upita za pomoć. U protekloj godini “helpline” je zaprimio 993 upita, što je oko 500 više nego prethodne godine. Nažalost, osim velikog porasta, problem je što se mnogi od tih slučajeva odnose se na dijeljenje snimaka ili fotografija koje su potom iskorištene za izrugivanje, lažne profile ili ostale manipulirane fotografije. Također, u izvještajima međunarodnih partnera zabilježen je značajan porast AI sadržaja koji se odnosi na zloupotrebu djece.
Na ovogodišnjoj konferenciji CyberGuard 2025 jedan od govornika bit će Chris Hughes (IWF) te će u svojem izlaganju dati kratki osvrt na rad IWF-a, trendove i statistiku vezanu uz online zlostavljanje i AI sadržaj. Također će dati primjere podataka i usluga koje IWF pruža industriji i međunarodnim partnerima u izvršnoj vlasti u pronalaženju počinitelja, a kao uvod u Cyberguard 2025 dao je
Koliko su u postotku prijave o zlostavljanju djece na internetu točne u Velikoj Britaniji?
To ovisi o brojnim čimbenicima, ponajviše o tome tko podnosi prijave, ali pokušat ću objasniti što jednostavnije i odgovoriti isključivo u kontekstu rada IWF-a, a ne prijava koje se podnose drugim organizacijama poput policije i sl.
Prošle godine IWF je obradio 424.047 prijava te smo potvrdili da je 291.273 prijava bila točna (69%). Međutim, važno je napomenuti da IWF u UK-u ima zakonske ovlasti za proaktivno pretraživanje internetskog CSAM-a, pa je većina CSAM prijava koje smo obradili prošle godine bila točna (93%). Ako promatramo samo prijave građana, točnost tih prijava prošle je godine iznosila 27,5%.
Ima li ih više pojavom AI-ja?
Da, ukupno gledano, broj prijava povezanih s umjetnom inteligencijom povećao se zbog AI-ja, ali zabilježeni brojevi ne odražavaju stvarnu razinu dostupnosti AI sadržaja. U prvih sedam mjeseci ove godine zabilježili smo porast od 400%, s 1.286 AI slika i videa koji su uvršteni u naše izvještaje od siječnja do 11. srpnja 2025. Znamo iz istraživanja da se AI sadržaj širi u mnogo većem opsegu nego što se prijavljuje IWF-u. Naši partneri u NCMEC-u izvijestili su da je broj AI prijava iz industrije porastao za 1.325%, s 4.700 prijava godinu ranije na 67.000 prijava prošle godine. Stvoreni sadržaj postaje sve ekstremniji i realističniji. Posebno zabrinjava nagli porast AI video sadržaja u vrlo kratkom vremenu, što predstavlja dodatni problem u području generativne umjetne inteligencije.
Koliko se opasnosti u području zlostavljanja djece na internetu krije upravo u umjetnoj inteligenciji?
Rizici su brojni; proizvodnja AI sadržaja može biti potpuno umjetna ili djelomično sintetička (kombinacija stvarne slike djeteta izmijenjene pomoću AI-ja). AI otežava identifikaciju i zaštitu žrtava seksualnog zlostavljanja, a njegov razvoj stvara prilike za kriminalce da zarađuju na proizvodnji CSAM-a. Postoje i dokazi da AI sadržaj povećava želju seksualnih prijestupnika i potiče ih da počine stvarno zlostavljanje – AI stvara veću potražnju za CSAM-om.
Široka dostupnost različitih aplikacija (Nudifying Apps) također je dovela do situacije u kojoj djeca, koja inače ne bi bila izložena zlostavljanju, završavaju s izmijenjenim i distribuiranim nevinim slikama. Šteta koju uzrokuju AI slike proteže se daleko izvan samog stvaranja materijala. Razvoj AI-ja zasigurno je nanio udarac borbi protiv nasilja nad ženama i djevojčicama. Iako AI CSAM nije rodno specifičan, velika većina sadržaja koje vidimo odnosi se na žene i djevojčice, a ne na dječake. Postoji još mnogo štetnih aspekata razvoja AI CSAM-a.
Što roditelji i odrasli mogu učiniti?
- Razgovor prije zabrane: objasnite djetetu pravila o dijeljenju fotografija i objasnite rizike koji vrebaju.
- Privatnost profila: postavite privatne profile na društvenim mrežama i ograničite tko može vidjeti objave.
- Edukacija o deepfakeu i AI manipulacijama: naučite djecu kako prepoznati lažne videozapise i mogli ih prijaviti odraslima.
- Prijava i traženje pomoći. Ako se dogodi incident, obratite se Centru za sigurniji internet i relevantnim institucijama — pomoć postoji.
AI alati za generiranje fotografija, videozapisa i glasova samo će postajati bolji i nećemo morati čekati dugo da postanu sve uvjerljiviji. AI mogućnosti se mogu usporediti s raznim tehnologijama kroz povijest, od nitroglicerina, plastike do nuklearne energije, koji olakšavaju čovječanstvu život i napredak, ali se mogu iskorištavati i za vrlo negativne stvari.
Današnja AI tehnologija otvara prostor za nevjerojatne kreativne mogućnosti za tvrtke i pojedince, ali isto tako i za zloupotrebe. Zato je poruka jasna, ako svatko može napraviti lažni video, onda ga svatko mora znati i prepoznati te mogućnosti spriječiti da do njegove izrade uopće dođe. CyberGuard 2025 je mjesto gdje će svi zainteresirani roditelji, stručnjaci i poslovni lideri dobiti više informacija iz prve ruke kako prepoznati rizike i zaštititi sebe, svoje poslovanje i svoje najranjivije članove. Vidimo se tamo.
Sadržaj nastao u suradnji s A1 Hrvatska.