NE TREBA SE NAVIKAVATI

Pitate AI za zdravlje? Liječnici upozoravaju na veliku opasnost i otkrivaju ključne savjete

Foto: DADO RUVIC/REUTERS
Pitate AI za zdravlje? Liječnici upozoravaju na veliku opasnost i otkrivaju ključne savjete
03.03.2026.
u 09:00
Neki liječnici i istraživači koji su radili s programom ChatGPT Health i sličnim alatima vide ih kao poboljšanje u odnosu na trenutačno stanje, gdje se pacijenti često oslanjaju na nepouzdane izvore
Pogledaj originalni članak

S obzirom na to da se stotine milijuna ljudi već sada obraćaju chatbotovima za razne vrste savjeta, bio je samo pitanje vremena kada će tehnološke tvrtke početi nuditi programe specifično dizajnirane za odgovaranje na zdravstvena pitanja. U siječnju je tvrtka OpenAI predstavila ChatGPT Health, novu verziju svog chatbota za koju tvrde da može analizirati medicinsku dokumentaciju korisnika, podatke iz wellness aplikacija i nosivih uređaja kako bi pružila odgovore na medicinske upite. Trenutačno postoji lista čekanja za pristup programu. Anthropic, konkurentska AI tvrtka, nudi slične značajke nekim korisnicima svog chatbota Claude. Obje tvrtke naglašavaju kako njihovi programi, poznati kao veliki jezični modeli, nisu zamjena za profesionalnu medicinsku skrb i ne bi se trebali koristiti za dijagnosticiranje bolesti. Umjesto toga, navode da chatbotovi mogu sažeti i objasniti komplicirane rezultate testova, pomoći u pripremi za posjet liječniku ili analizirati važne zdravstvene trendove skrivene u medicinskoj dokumentaciji i metrikama aplikacija.

Neki liječnici i istraživači koji su radili s programom ChatGPT Health i sličnim alatima vide ih kao poboljšanje u odnosu na trenutačno stanje, gdje se pacijenti često oslanjaju na nepouzdane izvore. Iako AI platforme nisu savršene, jer ponekad mogu "halucinirati" ili pružiti loš savjet, informacije koje generiraju vjerojatnije će biti personalizirane i specifične od onoga što pacijenti mogu pronaći jednostavnim pretraživanjem na Googleu. "Alternativa je često nikakva informacija, ili se pacijent snalazi kako zna", rekao je dr. Robert Wachter, stručnjak za medicinsku tehnologiju sa Sveučilišta Kalifornija u San Franciscu. "Stoga mislim da, ako odgovorno koristite ove alate, možete dobiti korisne informacije." Jedna od prednosti najnovijih chatbotova jest što na pitanja korisnika odgovaraju uzimajući u obzir kontekst iz njihove medicinske povijesti, uključujući recepte, dob i bilješke liječnika.

Čak i ako niste dali umjetnoj inteligenciji pristup svojim medicinskim podacima, Wachter i drugi preporučuju da chatbotovima pružite što više detalja kako biste dobili bolje odgovore. Ipak, stručnjaci naglašavaju da postoje situacije u kojima ljudi trebaju preskočiti chatbot i odmah potražiti liječničku pomoć. Simptomi poput nedostatka zraka, boli u prsima ili jake glavobolje mogli bi signalizirati hitno medicinsko stanje. Čak i u manje hitnim situacijama, pacijenti i liječnici trebali bi pristupati AI programima s "određenom dozom zdravog skepticizma", izjavio je dr. Lloyd Minor sa Sveučilišta Stanford. "Ako govorite o velikoj medicinskoj odluci, ili čak manjoj odluci o vašem zdravlju, nikada se ne biste trebali oslanjati samo na ono što dobijete od velikog jezičnog modela", rekao je Minor, koji je dekan Medicinskog fakulteta na Stanfordu.

Mnoge prednosti koje nude AI botovi proizlaze iz dijeljenja osobnih medicinskih podataka korisnika. Međutim, važno je razumjeti da sve što podijelite s AI tvrtkom nije zaštićeno saveznim zakonom o privatnosti (HIPAA) koji inače regulira osjetljive medicinske informacije. Taj zakon predviđa novčane kazne, pa čak i zatvorske kazne za liječnike, bolnice, osiguravatelje ili druge zdravstvene službe koje neovlašteno otkriju medicinsku dokumentaciju. No, zakon se ne primjenjuje na tvrtke koje dizajniraju chatbotove. "Kada netko učita svoju medicinsku dokumentaciju u veliki jezični model, to je vrlo različito od predaje te dokumentacije novom liječniku", rekao je Minor. "Potrošači moraju shvatiti da se radi o potpuno drugačijim standardima privatnosti." I OpenAI i Anthropic tvrde da se zdravstveni podaci korisnika čuvaju odvojeno od drugih vrsta podataka i podliježu dodatnim mjerama zaštite privatnosti, te da se ti podaci ne koriste za treniranje njihovih modela.

Unatoč uzbuđenju koje okružuje umjetnu inteligenciju, neovisno testiranje tehnologije tek je u povojima. Rane studije sugeriraju da programi poput ChatGPT-a mogu briljirati na zahtjevnim medicinskim ispitima, ali često griješe u interakciji s ljudima. Studija Sveučilišta u Oxfordu, koja je uključivala 1.300 sudionika, nedavno je otkrila da ljudi koji koriste AI chatbotove za istraživanje hipotetskih zdravstvenih stanja nisu donosili bolje odluke od onih koji su koristili internetske pretrage ili vlastitu prosudbu. Kada su AI chatbotovima medicinski scenariji predstavljeni u sveobuhvatnom, pisanom obliku, ispravno su identificirali temeljno stanje u 95% slučajeva. "To nije bio problem", rekao je glavni autor Adam Mahdi s Oxford Internet Instituta. "Stvari su se raspale tijekom interakcije sa stvarnim sudionicima."

Mahdi i njegov tim uočili su nekoliko komunikacijskih problema. Ljudi često nisu davali chatbotovima potrebne informacije za ispravnu identifikaciju zdravstvenog problema. S druge strane, AI sustavi često su odgovarali kombinacijom dobrih i loših informacija, a korisnici su imali problema razlikovati jedne od drugih. Važno je napomenuti da studija, provedena 2024. godine, nije koristila najnovije verzije chatbotova, uključujući nove ponude poput ChatGPT Health. Sposobnost chatbotova da postavljaju dodatna pitanja i izvlače ključne detalje od korisnika jedno je od područja gdje Wachter vidi prostor za napredak. "Mislim da će ovo postati stvarno dobro tek kada alati postanu malo sličniji liječnicima u načinu na koji komuniciraju s pacijentima", rekao je Wachter.

Za sada, jedan od načina da se osjećate sigurnije u informacije koje dobivate jest konzultiranje više različitih chatbotova, slično kao što biste tražili drugo mišljenje od drugog liječnika. To je praksa koju primjenjuju i sami stručnjaci kako bi provjerili dosljednost odgovora i smanjili rizik od oslanjanja na potencijalno netočnu informaciju koju bi jedan model mogao generirati. "Ponekad unesem informacije u ChatGPT i informacije u Gemini", rekao je Wachter, referirajući se na Googleov AI alat. "I kada se oba slože, osjećam se malo sigurnije da je to točan odgovor." Takav pristup, iako ne zamjenjuje konzultacije s liječnikom, može poslužiti kao koristan alat za informiranje i pripremu za razgovor sa stručnjakom.

Video

Ključne riječi
Pogledajte na vecernji.hr

Još nema komentara

Nema komentara. Prijavite se i budite prvi koji će dati svoje mišljenje.