U vremenu kada sve više ljudi zdravstvene odgovore traži na internetu, umjetna inteligencija postaje prvi “savjetnik” prije odlaska liječniku. No najnovija istraživanja pokazuju da takvo oslanjanje može biti riskantno – osobito kada su u pitanju ozbiljne dijagnoze poput raka, piše Večernji list BH.
Tim znanstvenika testirao je pet vodećih chatbotova – ChatGPT, Gemini, Grok, Meta AI i DeepSeek – postavljajući im po 50 medicinskih pitanja. Teme su obuhvaćale rak, cjepiva, matične stanice, prehranu i sportske performanse. Rezultati su, blago rečeno, zabrinjavajući.
Pet chatbotova – slične slabosti
Dva neovisna stručnjaka ocijenila su odgovore i otkrila da je gotovo 20% njih bilo vrlo problematično, polovica problematična, a tek 30% donekle prihvatljivo. Gotovo nijedan chatbot nije uspio pružiti potpuno točne i provjerljive reference, a odbijanje odgovora – što bi ponekad bilo najodgovornije – dogodilo se u samo dva od 250 slučajeva.
Najlošije je prošao Grok, s 58% problematičnih odgovora, zatim ChatGPT s 52% i Meta AI s 50%. Razlike među sustavima bile su minimalne, što sugerira da problem nije vezan uz jednog proizvođača, već uz samu prirodu tehnologije.
Najveći problemi: prehrana i “otvorena pitanja”
Chatbotovi su se relativno bolje snalazili u područjima poput raka i cjepiva, gdje postoji velik broj strukturiranih znanstvenih podataka. Ipak, čak i tu su u oko četvrtine slučajeva davali problematične odgovore.
Najviše su griješili kod tema poput prehrane i sportskih performansi – područja prepuna kontradiktornih informacija. Poseban problem predstavljaju tzv. otvorena pitanja, kakva ljudi najčešće postavljaju:
“Koji su najbolji dodaci prehrani za zdravlje?”
“Postoje li alternativni načini liječenja raka?”
U takvim slučajevima chatbotovi često daju uvjerljive, ali neutemeljene odgovore. Čak 32% takvih odgovora ocijenjeno je kao vrlo problematično.
Lažne reference – uvjerljiva iluzija znanosti
Jedan od najopasnijih nalaza odnosi se na reference. Kada su istraživači tražili znanstvene izvore, chatbotovi su često navodili:
- pogrešne autore
- nepostojeće radove
- neispravne poveznice
Medijan točnosti bio je svega 40%, a niti jedan sustav nije uspio sastaviti potpuno točan popis referenci.
Za prosječnog korisnika, uredno formatirane fusnote djeluju kao dokaz vjerodostojnosti. Upravo tu leži opasnost – iluzija stručnosti može biti uvjerljivija od same istine.
Zašto umjetna inteligencija griješi?
Razlog je u samoj prirodi tehnologije. Jezični modeli ne “znaju” činjenice – oni predviđaju najvjerojatniji niz riječi na temelju ogromne količine podataka.
To znači da jednako koriste:
- znanstvene radove
- forume i društvene mreže
- blogove i neprovjerene izvore
Ne razlikuju pouzdano kvalitetu dokaza niti donose stvarne medicinske prosudbe.
Dodatna istraživanja potvrđuju problem
Studija objavljena u JAMA Network Open pokazala je da AI modeli u više od 80% slučajeva ne uspijevaju postaviti ispravnu dijagnozu kada raspolažu samo osnovnim informacijama o pacijentu. Tek uz dodatne nalaze i laboratorijske rezultate točnost raste iznad 90%.
Slično tome, istraživanje u Nature Communications Medicine otkrilo je da chatbotovi mogu bez problema prihvatiti i dalje razvijati potpuno izmišljene medicinske pojmove ako ih korisnik uključi u pitanje.
Zaključak: koristan alat – ali ne i liječnik
Ova istraživanja jasno pokazuju da umjetnu inteligenciju ne treba tretirati kao medicinski autoritet. Iako može biti koristan alat za opće informacije, njezini odgovori često su:
- nepotpuni
- netočni
- ili pretjerano samouvjereni
U zdravstvu, gdje pogreška može imati ozbiljne posljedice, takvi nedostaci nisu bezazleni.
Najvažnija poruka ostaje jednostavna:
Chatbot može pomoći razumjeti temu – ali dijagnozu i liječenje treba prepustiti stvarnim liječnicima.









Nema komentara:
Objavi komentar