S rapidnim širenjem generativne umjetne inteligencije pojavljuje se i novi val prijetnji usmjerenih na samu manipulaciju AI sustava, upozorio je Google 1,8 milijardi korisnika Gmaila diljem svijeta. Jedan od posebno opasnih načina napada su indirektne prompt injekcije. Za razliku od direktnih, gdje napadač izravno unosi zlonamjerne naredbe, kod indirektnih su one skriveno ugrađene u vanjske izvore podataka poput emailova, dokumenata ili kalendarskih pozivnica. Takve upute mogu naložiti AI-u da iscuri korisničke podatke ili izvrši druge neovlaštene radnje.
Kako sve više vlada, tvrtki i pojedinaca koristi generativnu AI za svakodnevni rad, ove prikrivene prijetnje postaju sve relevantnije i zahtijevaju hitnu pozornost i snažne sigurnosne mjere, napisali su u objavi na svom službenom blogu.
Google je na ovu pojavu odgovorio razvijanjem složene i višeslojne sigurnosne strategije. Njihova zaštita uključuje "model hardening" – učvršćivanje AI modela, specijalizirane algoritme za otkrivanje zlonamjernih uputa, te sigurnosne sustave na razini cijelog sustava. Također su uveli dodatne zaštite unutar Gemini AI alata koji se koristi u Google Workspaceu i istoimenoj aplikaciji.
Posebno ističu sustav klasifikatora sadržaja koji prepoznaje i filtrira opasne upute skrivene u emailovima ili dokumentima. Primjerice, ako korisnik primi mail s malicioznim naredbama, sustav ih automatski prepoznaje i uklanja, čime se osigurava sigurno korištenje.
Uz to, Google koristi tehniku koju nazivaju "security thought reinforcement" – sigurnosne upute koje usmjeravaju AI da izvršava samo zadatak koji mu je namijenjen, ignorirajući moguće zlonamjerne dodatke.
Također, uveli su i sustav koji sprječava prikazivanje vanjskih slika koje bi mogle biti zloupotrijebljene za krađu podataka, kao i automatsko uklanjanje sumnjivih URL-ova iz AI odgovora. Na primjer, ako se u dokumentu nađe sumnjiva poveznica, u AI odgovoru ona će biti zamijenjena natpisom “sumnjiva poveznica uklonjena”.
Za dodatnu sigurnost, Gemini traži i potvrdu korisnika prije izvršenja potencijalno rizičnih radnji, poput brisanja događaja u kalendaru, čime se smanjuje rizik od neovlaštenih operacija.
Google također korisnicima daje jasne obavijesti kada sustav prepozna i zaustavi potencijalni napad, uz poveznice na dodatne informacije koje pomažu u razumijevanju i prevenciji sličnih prijetnji.
"Navode umjetnu inteligenciju da radi protiv sebe"
Tehnološki stručnjak Scott Polderman objasnio je za Daily Record da je u pitanju zloupotreba Googleovog AI asistenta Gemini, poznatog kao chatbot.
„Hakeri su pronašli način da iskoriste Gemini – Googleovu umjetnu inteligenciju – protiv nje same,“ objasnio je Polderman. „U suštini, šalju email s prikrivenim uputama Geminiu da otkrije vaše lozinke, a da vi toga niste svjesni.“ Naglasio je kako se ova prijevara razlikuje od prethodnih jer je riječ o „AI protiv AI“, što bi moglo postati model za buduće slične napade. „Skriveni zahtjevi navode umjetnu inteligenciju da radi protiv sebe i otkrije vaše korisničke podatke i lozinke,“ dodao je.
Polderman je objasnio i zašto je ova prijevara toliko učinkovita: „Nije potrebna nikakva poveznica na koju biste trebali kliknuti da bi se aktivirala,“ rekao je. „Gemini vas jednostavno upozorava da ste ugroženi.“ Također je podsjetio da je Google ranije istaknuo kako nikada neće tražiti vaše podatke za prijavu niti vas putem Geminija upozoravati na prijevare.
Sam google reklamira lažnu stranicu za prijavu na internetsku adresu to jest Email. Kada se u tražilicu Googlu upiše Email na samom vrhu pojavi se stranica za prijavu za Email ali ispod te stranice sitnim slovima piše da google nije provjerio tu stranicu. Znači samo google reklamira neprovjerene adrese za vlastiti Email. Pa tko ne čita gdje se ulogirava može vlastitu lozinku i Email adresu poslati nekom hakeru.