Veliki jezični modeli, poput ChatGPT-a, Geminija i Perplexityja, postali su nezaobilazan dio svakodnevnog života. Iako mnogi ljudi ne koriste ove alate izravno svaki dan, vjerojatno koriste neki servis koji u pozadini koristi AI modele. Međutim, premda ovi alati često pomažu u obavljanju poslovnih i privatnih zadataka, njihovo korištenje može predstavljati sigurnosnu prijetnju.
Naime, korisnici u žurbi da brzo obave neki zadatak često otkrivaju osjetljive informacije chatbotovima i AI modelima, ne shvaćajući da to može biti opasno. Iako chatbotovi nisu stvarne osobe, u kontekstu privatnosti i sigurnosti, potrebno ih je smatrati kao takvima. Baš kao što ne biste dijelili osjetljive podatke s nepoznatim osobama na ulici, ni chatbotovima ne biste smjeli olako otkrivati informacije. Zimo je pripremio popis stvari koje ne biste trebali dijeliti s chatbotovima.
Osobne podatke
Nikada ne biste trebali dijeliti svoje osobne podatke poput imena, prezimena, adrese, OIB-a, broja osobne iskaznice ili putovnice s AI chatbotovima. To uključuje i fotografije tih dokumenata. Ako koristite chatbot za izradu životopisa, bolje je tražiti od njega samo obrazac koji ćete sami ispuniti, nego unositi svoje osobne podatke u model.
Informacije o osobnim financijama
Kao i kada se savjetuje oprez pri dijeljenju financijskih podataka poput broja kreditnih kartica, broja računa ili lozinki za online bankarstvo, isto pravilo vrijedi i za AI modele. Umjesto dijeljenja stvarnih osobnih podataka, bolje je koristiti izmišljene primjere ako tražite savjete o kreditima ili poreznim uštedama.
Lozinke i šifre
Otkrivanje lozinki za pristup vašim korisničkim ili poslovnim računima izuzetno je neoprezno. Kao što ne biste povjerili svoje ključeve nepoznatoj osobi, nemojte ni AI modelima dijeliti lozinke i korisnička imena.
Privatne informacije
AI model nije mjesto za dijeljenje osjetljivih ili povjerljivih informacija. Privatne stvari poput osobnih problema, glasina ili detalja o zdravlju i obitelji ne bi trebale biti predmet razgovora s AI modelima. Ne tretirajte ga kao ispovjednika ili prijatelja kojem možete otkriti sve tajne.
Povjerljive informacije o tvrtkama ili poslodavcu
Iako se može činiti praktičnim koristiti ChatGPT za izradu ugovora ili poslovnih dokumenata, to nije sigurno. Isto vrijedi i za dijeljenje povjerljivih informacija, poput podataka o patentima, prototipovima, poslovnim planovima ili financijama. To je jedan od razloga zašto mnoge tvrtke blokiraju pristup AI modelima na službenim računalima.
Eksplicitni sazržaj
Čak i ako postavite šalu poput "kako se riješiti nekoga trajno", to vam može donijeti probleme. Ne samo da AI modeli poput ChatGPT-a neće odgovoriti na takva pitanja, već mogu automatski prijaviti sumnjive upite nadležnim tijelima. Dakle, bolje je suzdržati se od takvih upita, bez obzira na ton u kojem ih postavljate.
Medicinske informacije
Mnogi korisnici danas zamjenjuju Google s ChatGPT-om, tretirajući ga gotovo kao osobnog liječnika. Iako nije problem tražiti pojašnjenje za neki medicinski pojam, važno je izbjegavati dijeljenje osobnih podataka u svojim upitima. Bolje je postaviti općenito pitanje, poput: "Preporuči mi vježbe za muškarca u 30-ima koji ima problema s išijasom."
Ako niste sigurni trebate li podijeliti neku informaciju, zapitajte se: "Bih li volio da netko objavi moj upit na internetu?" Ako je odgovor "ne", bolje je da se suzdržite od postavljanja tog pitanja AI modelu.