Google retrage recomandări AI din zona de sănătate. Utilizatorii au fost expuși la informații periculoase - investigație The Guardian

Google retrage recomandări AI din zona de sănătate. Utilizatorii au fost expuși la informații periculoase - investigație The Guardian
Sprijină jurnalismul independent
Donează acum

Google a retras o parte dintre rezumatele sale generate cu inteligență artificială din zona de sănătate, după ce o investigație realizată de The Guardian a arătat că acestea furnizau informații medicale inexacte și potențial periculoase, expunând utilizatorii la riscuri serioase pentru sănătate.

Potrivit investigației, funcția AI Overviews, care afișează la începutul rezultatelor Google sinteze automate despre diverse subiecte, a oferit informații eronate în cazul unor căutări legate de analize medicale uzuale, inclusiv teste de sânge pentru funcția hepatică.

Specialiștii citați au descris unele dintre aceste rezumate drept „periculoase” și „alarmante”, întrucât puteau induce pacienților cu afecțiuni grave impresia falsă că rezultatele lor sunt normale și că nu mai este nevoie de consult medical.

Problema e mai largă

Un exemplu concret menționat de publicația britanică viza căutarea „care este intervalul normal pentru testele de sânge ale ficatului”, unde AI Overviews afișa o listă de valori fără context medical, fără a ține cont de vârstă, sex, etnie sau alte variabile esențiale. Experții au avertizat că valorile prezentate drept „normale” puteau diferi semnificativ de intervalele reale utilizate în practică, ceea ce risca să ofere pacienților o falsă senzație de siguranță.

În urma investigației, Google a eliminat AI Overviews pentru căutări precum „care sunt valorile normale ale analizelor de sânge pentru ficat” și „care sunt valorile normale ale testelor de funcție hepatică”.

Un purtător de cuvânt al companiei a declarat pentru The Guardian că Google nu comentează eliminări punctuale, dar că „în cazurile în care AI Overviews omit context important, compania lucrează la îmbunătățiri generale și ia măsuri conform politicilor interne”.

Reprezentanții organizațiilor medicale avertizează însă că problema este mai largă. Vanessa Hebditch, directoarea de comunicare și politici a British Liver Trust, a salutat eliminarea acestor rezumate, dar a subliniat că ușoare variații ale aceleiași întrebări continuă să genereze AI Overviews potențial înșelătoare.

„Un test de funcție hepatică este, de fapt, un set de analize diferite, iar interpretarea lor este complexă. Simplificarea la o listă de cifre poate fi extrem de periculoasă”, a explicat ea.

Informații eronate despre cancer

Și alți experți în informare medicală avertizează că AI Overviews continuă să apară pentru subiecte sensibile precum cancerul sau sănătatea mintală, unde unele informații au fost descrise drept „complet greșite” sau „foarte periculoase”.

Sue Farrington, președinta Patient Information Forum, a declarat că eliminarea unor exemple este „doar un prim pas” și că există încă prea multe cazuri în care rezumatele AI pot induce publicul în eroare.

Google susține că AI Overviews sunt afișate doar atunci când compania are „un nivel ridicat de încredere” în calitatea răspunsurilor și că acestea sunt revizuite constant, inclusiv cu implicarea unor clinicieni.

Cu toate acestea, ancheta The Guardian readuce în discuție o problemă majoră: atunci când erorile apar în informații medicale, impactul lor este mult mai grav decât în alte domenii, iar riscul este transferat direct asupra utilizatorilor.


În fiecare zi scriem pentru tine. Dacă te simți informat corect și ești mulțumit, dă-ne un like. 👇