Stručnjaci upozoravaju: Ove podatke nikad ne biste smjeli dijeliti s ChatGTP-jem
Prema novim statistikama, više od 100 milijuna ljudi svakodnevno koristi ChatGPT. No, ovaj moćni chatbot opisuje se i kao 'crna rupa privatnosti'. OpenAI korisnike otvoreno upozorava da podaci koje unesu u sustav možda nisu sigurni te se zbog toga trebaju smatrati javnima. Postoji niz stvari koje nikada ne biste trebali dijeliti s ChatGPT-om ili bilo kojim drugim javnim chatbotom, upozoravaju stručnjaci za Forbes.
Nezakoniti ili neetični zahtjevi: Većina AI chatbotova ima ugrađene zaštite protiv neetične upotrebe. Traženje načina za počinjenje kaznenih djela, prijevara ili manipuliranje drugima može dovesti do prijave vlastima. Zakoni se razlikuju po državama, ali bilo gdje, takvi zahtjevi mogu imati ozbiljne pravne posljedice
Lozinke i korisnička imena: Nikada ne dijelite lozinke ni korisnička imena s javnim chatbotovima. Podaci uneseni u AI mogu biti nehotice prikazani drugim korisnicima.
Zbog toga valja izbjegavati svaki oblik dijeljenja pristupnih podataka, osim ako ste potpuno sigurni u sigurnost sustava.
Financijske informacije: Bankovni podaci i brojevi kartica trebaju ostati unutar sigurnih sustava poput banaka ili e-trgovine. Chatbotovi nemaju enkripciju ni garanciju brisanja podataka. Unos takvih informacija može vas izložiti krađi identiteta, prijevarama i napadima.
Povjerljive informacije: Zaposlenici i profesionalci imaju obvezu čuvanja povjerljivih podataka. Dijeljenje poslovnih dokumenata, zapisnika ili osjetljivih informacija može kršiti tu obvezu i zakone o zaštiti podataka. Stoga, oko poslovnih problema savjetujte se uživo s poslovnim suradnicima, a ne online.
Medicinski podaci: ChatGPT može djelovati kao virtualni savjetnik, ali ne pruža garanciju privatnosti. Informacije unesene u razgovore mogu se kombinirati i pamtiti bez korisnikove kontrole. Zdravstveni djelatnici posebno riskiraju zakonske posljedice i gubitak povjerenja ako dijele podatke o pacijentima.