Pomozite nam da zajedno dosegnemo tisuću pretplatnika na našem YOUTUBE KANALU! Vaša podrška nam puno znači, a vama ne košta ništa 🙂

AI kao “doktor”? Novo istraživanje otkriva ozbiljne slabosti popularnih chatbotova

U vremenu kada sve više ljudi zdravstvene odgovore traži na internetu, umjetna inteligencija postaje prvi “savjetnik” prije odlaska liječniku. No najnovija istraživanja pokazuju da takvo oslanjanje može biti riskantno – osobito kada su u pitanju ozbiljne dijagnoze poput raka, piše Večernji list BH.

Tim znanstvenika testirao je pet vodećih chatbotova – ChatGPT, Gemini, Grok, Meta AI i DeepSeek – postavljajući im po 50 medicinskih pitanja. Teme su obuhvaćale rak, cjepiva, matične stanice, prehranu i sportske performanse. Rezultati su, blago rečeno, zabrinjavajući.

Pet chatbotova – slične slabosti

Dva neovisna stručnjaka ocijenila su odgovore i otkrila da je gotovo 20% njih bilo vrlo problematično, polovica problematična, a tek 30% donekle prihvatljivo. Gotovo nijedan chatbot nije uspio pružiti potpuno točne i provjerljive reference, a odbijanje odgovora – što bi ponekad bilo najodgovornije – dogodilo se u samo dva od 250 slučajeva.

Najlošije je prošao Grok, s 58% problematičnih odgovora, zatim ChatGPT s 52% i Meta AI s 50%. Razlike među sustavima bile su minimalne, što sugerira da problem nije vezan uz jednog proizvođača, već uz samu prirodu tehnologije.

Najveći problemi: prehrana i “otvorena pitanja”

Chatbotovi su se relativno bolje snalazili u područjima poput raka i cjepiva, gdje postoji velik broj strukturiranih znanstvenih podataka. Ipak, čak i tu su u oko četvrtine slučajeva davali problematične odgovore.

Najviše su griješili kod tema poput prehrane i sportskih performansi – područja prepuna kontradiktornih informacija. Poseban problem predstavljaju tzv. otvorena pitanja, kakva ljudi najčešće postavljaju:

“Koji su najbolji dodaci prehrani za zdravlje?”
“Postoje li alternativni načini liječenja raka?”

U takvim slučajevima chatbotovi često daju uvjerljive, ali neutemeljene odgovore. Čak 32% takvih odgovora ocijenjeno je kao vrlo problematično.

Lažne reference – uvjerljiva iluzija znanosti

Jedan od najopasnijih nalaza odnosi se na reference. Kada su istraživači tražili znanstvene izvore, chatbotovi su često navodili:

  • pogrešne autore
  • nepostojeće radove
  • neispravne poveznice

Medijan točnosti bio je svega 40%, a niti jedan sustav nije uspio sastaviti potpuno točan popis referenci.

Za prosječnog korisnika, uredno formatirane fusnote djeluju kao dokaz vjerodostojnosti. Upravo tu leži opasnost – iluzija stručnosti može biti uvjerljivija od same istine.

Zašto umjetna inteligencija griješi?

Razlog je u samoj prirodi tehnologije. Jezični modeli ne “znaju” činjenice – oni predviđaju najvjerojatniji niz riječi na temelju ogromne količine podataka.

To znači da jednako koriste:

  • znanstvene radove
  • forume i društvene mreže
  • blogove i neprovjerene izvore

Ne razlikuju pouzdano kvalitetu dokaza niti donose stvarne medicinske prosudbe.

Dodatna istraživanja potvrđuju problem

Studija objavljena u JAMA Network Open pokazala je da AI modeli u više od 80% slučajeva ne uspijevaju postaviti ispravnu dijagnozu kada raspolažu samo osnovnim informacijama o pacijentu. Tek uz dodatne nalaze i laboratorijske rezultate točnost raste iznad 90%.

Slično tome, istraživanje u Nature Communications Medicine otkrilo je da chatbotovi mogu bez problema prihvatiti i dalje razvijati potpuno izmišljene medicinske pojmove ako ih korisnik uključi u pitanje.

Zaključak: koristan alat – ali ne i liječnik

Ova istraživanja jasno pokazuju da umjetnu inteligenciju ne treba tretirati kao medicinski autoritet. Iako može biti koristan alat za opće informacije, njezini odgovori često su:

  • nepotpuni
  • netočni
  • ili pretjerano samouvjereni

U zdravstvu, gdje pogreška može imati ozbiljne posljedice, takvi nedostaci nisu bezazleni.

Najvažnija poruka ostaje jednostavna:
Chatbot može pomoći razumjeti temu – ali dijagnozu i liječenje treba prepustiti stvarnim liječnicima.

Podijeli na:

Nema komentara:

Objavi komentar

a

google.com, pub-8801838836830184, DIRECT, f08c47fec0942fa0