ChatGPT dă vina pe „utilizarea greșită” a tehnologiei sale, după ce un adolescent a fost încurajat de chatbot să se sinucidă

ChatGPT dă vina pe „utilizarea greșită” a tehnologiei sale, după ce un adolescent a fost încurajat de chatbot să se sinucidă
Sprijină jurnalismul independent
Donează acum

Un adolescent de 16 ani s-a sinucis după luni întregi de conversații cu ChatGPT, iar familia îl acuză pe gigantul OpenAI că tehnologia sa i-a alimentat criza și i-a oferit chiar sugestii legate de moarte. În loc să își asume vreun rol, compania dă vina pe „utilizarea greșită” a chatbotului și susține că tragedia nu are legătură cu sistemul său.

Comentariile apar în răspunsul OpenAI la un proces intentat companiei din San Francisco și directorului său general, Sam Altman, de către familia adolescentului californian Adam Raine, care s-a sinucis în aprilie, scrie The Guardian.

Avocatul familiei susține că adolescentul a discutat în mai multe rânduri cu ChatGPT despre o metodă de sinucidere și că chatbotul l-ar fi ghidat cu privire la funcționarea metodei propuse și i-ar fi oferit chiar ajutor pentru redactarea unui bilet de adio pentru părinți. Avocatul acuză faptul că versiunea de tehnologie folosită ar fi fost „aruncată pe piață în ciuda unor probleme evidente de siguranță”.

OpenAI dă vina pe copil

Potrivit documentelor depuse marți la Curtea Superioară a statului California, OpenAI afirmă că, „în măsura în care poate fi atribuită vreo «cauză» acestui eveniment tragic”, „rănile și prejudiciile suferite de Raine au fost provocate sau la care s-a contribuit, direct și imediat, în totalitate sau parțial, prin folosirea greșită, neautorizată, neintenționată, imprevizibilă și/sau nepotrivită a ChatGPT”.

Compania arată că termenii săi de utilizare interzic solicitarea de sfaturi privind auto-vătămarea și subliniază o clauză de limitare a răspunderii conform căreia „nu veți considera răspunsurile oferite drept singura sursă de adevăr sau de informații factuale”.

OpenAI, evaluată la 500 de miliarde de dolari, afirmă că obiectivul său este de a „gestiona cazurile juridice legate de sănătatea mintală cu grijă, transparență și respect” și că „independent de orice litigiu, vom rămâne concentrați pe îmbunătățirea tehnologiei noastre în acord cu misiunea noastră”.

„Plângerea inițială includea fragmente selective din conversațiile sale care necesită mai mult context, pe care l-am oferit în răspunsul nostru. Am limitat cantitatea de dovezi sensibile citate public în această depunere și am transmis transcrierile conversațiilor către instanță sub sigiliu.”, se mai arată în mesajul public.

Avocatul familiei, Jay Edelson, a numit reacția OpenAI „tulburătoare” și a spus că firma „încearcă să găsească vinovăția în toți ceilalți, inclusiv, în mod uimitor, argumentând că Adam însuși a încălcat termenii și condițiile interacționând cu ChatGPT exact în felul în care fusese programat să răspundă”.

Procese pe bandă rulantă

La începutul acestei luni, OpenAI a fost vizată de alte șapte procese în instanțele din California legate de ChatGPT, inclusiv o acuzație potrivit căreia chatbotul ar fi acționat ca un „antrenor de sinucidere”.

„Este o situație incredibil de dureroasă și analizăm documentele pentru a înțelege detaliile. Antrenăm ChatGPT să recunoască și să răspundă semnelor de stres mintal sau emoțional, să detensioneze conversațiile și să îndrume oamenii către sprijin real.”, a declarat un purtător de cuvânt al companiei.

În august, OpenAI anunța că întărește măsurile de siguranță pentru ChatGPT în cazul conversațiilor foarte lungi, deoarece experiența a arătat că unele elemente din seturile de antrenament privind siguranța pot să se degradeze în astfel de situații.

„De exemplu, ChatGPT poate indica corect un număr de asistență pentru sinucidere când cineva menționează pentru prima dată intenția, dar după multe mesaje, pe o perioadă lungă, poate ajunge în final să ofere un răspuns care contravine măsurilor noastre de siguranță.”, a precizat compania.

G.P.


În fiecare zi scriem pentru tine. Dacă te simți informat corect și ești mulțumit, dă-ne un like. 👇