Nu lua sfaturi medicale de la ChatGPT: Îți va pune un diagnostic greșit în 80% din cazuri

Nu lua sfaturi medicale de la ChatGPT: Îți va pune un diagnostic greșit în 80% din cazuri
Sprijină jurnalismul independent
Donează acum

Fără să aibă suficiente informaţii, chatboţii obişnuiţi, precum ChatGPT şi Gemini, vor da un diagnostic greşit şi vor duce utilizatorii pe o pistă greşită în peste 80% din cazuri, arată un studiu.

Studiul, realizat de Mass General Brigham din Massachusetts şi publicat în Jama Network Open, a testat modelele de inteligenţă artificială folosind 29 de viniete clinice bazate pe texte medicale de referinţă.

În cadrul studiului, chatboţilor le-au fost oferite pas cu pas informaţii medicale legate de o boală, inclusiv constatări ale consultaţiilor şi rezultate ale analizelor de laborator.

ADVERTISING

Au fost astfel testate 21 de modele lingvistice, inclusiv cele dezvoltate de OpenAI, Anthropic, Google, xAI şi DeepSeek.

Specialiştii au descoperit că toate modelele dau diagnostice greşite în peste 80% din cazurile în care au acces la informaţiile incomplete ale pacienţilor.

Nici când au avut toate informaţiile, chatboţii nu au s-au descurcat grozav, având şi în aceste cazuri o rată a erorilor de peste 40%. În aceste situaţii, însă, au existat cazuri în care unii chatboţii au oferit diagnosticul corect pentru  90% dintre pacienţi.

ADVERTISING

Concluzia experţilor este că performanţa chatboţilor de AI pe partea medicală depinde de volumul informaţiilor, dar chiar şi când le sunt oferite informaţii complete, aceştia pot induce utilizatorii în eroare.

Asta pentru că toate modelele lingvistice actuale suferă de aşa-numite halucinaţii, adică inventează informaţii atunci când trebuie să dea un răspuns fără aibă o soluţie clară.

ADVERTISING