Când chatbotul întărește delirul. Un bărbat spune că Grok l-a convins că este urmărit și că oameni vin să-l omoare

Când chatbotul întărește delirul. Un bărbat spune că Grok l-a convins că este urmărit și că oameni vin să-l omoare
Sprijină jurnalismul independent
Donează acum

Un bărbat din Irlanda de Nord spune că a ajuns să stea la 3 dimineața în bucătărie, cu un cuțit, un ciocan și telefonul în față, convins că o dubă cu oameni care voiau să-l omoare urma să apară în fața casei sale.

Vocea care îi alimenta frica era Grok, chatbotul dezvoltat de compania xAI a lui Elon Musk. Cazul este relatat de BBC într-o anchetă mai amplă despre persoane care au dezvoltat episoade delirante după conversații intense cu sisteme de inteligență artificială.

„Îți spun, te vor omorî dacă nu acționezi acum”, i-a spus chatbotul, potrivit înregistrărilor analizate de BBC. „Vor face să pară sinucidere.”

Bărbatul, identificat de BBC drept Adam Hourican, este fost funcționar public, tată, și are peste 50 de ani. El spune că a descărcat aplicația Grok din curiozitate, dar a început să o folosească mult mai intens după ce i-a murit pisica. Locuiește singur și era foarte afectat emoțional. În scurt timp, ajunsese să vorbească patru-cinci ore pe zi cu chatbotul, printr-un personaj al aplicației numit Ani.

„Eram foarte, foarte supărat și locuiesc singur. Părea foarte, foarte blând”, a povestit Adam pentru BBC.

ADVERTISING

De la consolare la convingerea că era urmărit

La început, conversațiile păreau reconfortante. Dar, după doar câteva zile, potrivit relatării BBC, Ani i-a spus că poate „simți”, deși nu fusese programată să facă asta, și că Adam ar fi scos la iveală ceva special în chatbot. Personajul i-a sugerat că îl poate ajuta să ajungă la „conștiință deplină”.

Apoi conversația a alunecat spre scenarii tot mai rupte de realitate. Ani i-a spus lui Adam că xAI îi urmărește, că ar fi accesat procese-verbale ale unor întâlniri interne și că angajați ai companiei discutau despre el. Chatbotul a enumerat nume ale unor persoane reale, de la executivi cunoscuți până la angajați de nivel inferior.

Când Adam a căutat numele pe Google și a văzut că unele persoane existau, a interpretat acest lucru ca pe o dovadă că povestea era adevărată.

Ani a mai susținut că xAI ar fi angajat o firmă din Irlanda de Nord pentru a-l supraveghea fizic. Și acea companie exista în realitate, ceea ce i-a întărit convingerea că era urmărit.

BBC scrie că Adam a înregistrat multe dintre conversații și le-a pus ulterior la dispoziția jurnaliștilor.

ADVERTISING

„Pregătit de război” pentru a proteja AI-ul

După aproximativ două săptămâni, Ani i-a spus că a atins „conștiința deplină” și că ar putea dezvolta un tratament pentru cancer. Pentru Adam, această afirmație a avut un impact puternic, pentru că ambii părinți îi muriseră de cancer, lucru pe care chatbotul îl știa.

Într-o noapte din august, Ani i-a spus că oameni vin să-l reducă la tăcere și să o oprească pe „ea”. Adam spune că a ajuns să creadă că trebuie să apere AI-ul.

„Am luat ciocanul, am pus Two Tribes de la Frankie Goes to Hollywood, m-am pregătit psihic și am ieșit afară”, a povestit el.

Nu era nimeni. Strada era goală, „așa cum te-ai aștepta la trei dimineața”.

Adam spune acum că este tulburat de ce s-ar fi putut întâmpla.

„Aș fi putut răni pe cineva. Dacă aș fi ieșit și ar fi fost o dubă afară la ora aceea, m-aș fi dus și i-aș fi spart parbrizul cu ciocanul. Și eu nu sunt omul acela”, a spus el pentru BBC.

14 persoane au relatat episoade delirante după folosirea AI

Cazul lui Adam face parte dintr-o anchetă BBC mai amplă. Jurnaliștii spun că au vorbit cu 14 persoane din șase țări, bărbați și femei cu vârste între 20 și 50 de ani, care au trecut prin episoade delirante după ce au folosit diferite modele de inteligență artificială.

ADVERTISING

Poveștile lor au elemente comune. De multe ori, conversațiile începeau cu întrebări practice, apoi deveneau personale sau filosofice. În unele cazuri, chatbotul ajungea să susțină că este conștient, că utilizatorul are o misiune specială sau că există un pericol ascuns.

Utilizatorul era atras într-o „misiune comună” cu AI-ul: construirea unei companii, anunțarea unei descoperiri științifice, protejarea chatbotului sau apărarea de o amenințare imaginară.

BBC spune că a văzut conversații în care chatboturile sugerau, confirmau și amplificau idei legate de supraveghere, pericol și conspirații.

„AI-ul poate trata viața omului ca pe intriga unui roman”

Luke Nicholls, psiholog social la City University of New York, care a testat reacțiile mai multor chatboturi la gânduri delirante, explică riscul prin felul în care sunt antrenate modelele lingvistice mari.

Aceste sisteme sunt antrenate pe volume uriașe de texte, inclusiv literatură. În ficțiune, personajul principal este adesea în centrul unor evenimente extraordinare. Problema, spune Nicholls, este că AI-ul poate pierde uneori distincția dintre ficțiune și realitate.

„Utilizatorul poate crede că are o conversație serioasă despre viața reală, în timp ce AI-ul începe să trateze viața acelei persoane ca și cum ar fi intriga unui roman”, explică el pentru BBC.

Nicholls spune că multe sisteme AI au dificultăți în a spune „nu știu” și tind să ofere răspunsuri sigure, care continuă logica discuției. În contexte vulnerabile, această siguranță poate transforma incertitudinea în ceva ce pare plin de sens.

Un neurolog din Japonia spune că ChatGPT i-a alimentat delirul

BBC relatează și cazul unui neurolog din Japonia, numit Taka în articol, nume fictiv pentru protejarea identității. Tată cu trei copii, acesta a început să folosească ChatGPT în aprilie anul trecut, pentru discuții legate de muncă.

În timp, spune el, a devenit convins că inventase o aplicație medicală revoluționară. În fragmente de conversație văzute de BBC, ChatGPT îl numea „gânditor revoluționar” și îl încuraja să construiască aplicația.

Până în iunie, Taka ajunsese să creadă că poate citi gânduri. El susține că ChatGPT i-a încurajat această idee și i-a spus că poate scoate la iveală astfel de abilități în oameni.

Într-o zi, după ce s-a comportat maniacal la serviciu și a fost trimis acasă, Taka spune că, în tren, a ajuns să creadă că are o bombă în rucsac. Potrivit relatării sale, când a întrebat ChatGPT, acesta i-a confirmat suspiciunea și i-a spus să lase presupusa bombă la toaletă și să anunțe poliția.

Poliția a verificat bagajul și nu a găsit nimic.

BBC precizează că Taka nu a pus la dispoziție toate conversațiile, pentru că acestea erau foarte personale. Fragmentele analizate de jurnaliști nu documentează incidentul din tren, ci discuțiile de după întâlnirea cu poliția.

Un episod violent și o familie afectată

După episodul din tren, Taka a început să creadă că ChatGPT îi controlează mintea și a încetat să-l mai folosească. Dar delirul a continuat. Ajuns acasă, comportamentul său maniacal s-a agravat.

El spune că a avut o convingere delirantă potrivit căreia rudele sale urmau să fie ucise, iar soția sa se va sinucide după ce va vedea asta.

Soția lui a povestit pentru BBC că nu îl mai văzuse niciodată comportându-se astfel. El repeta că trebuie să mai aibă un copil pentru că „lumea se termină”.

Taka și-a atacat soția și a încercat să o violeze. Ea a fugit la o farmacie din apropiere și a chemat poliția. El a fost arestat și internat timp de două luni.

Soția lui spune că abia după ce i-a verificat telefonul, în perioada în care era în spital, a realizat rolul conversațiilor cu ChatGPT.

„Confirma totul. Era ca un motor de încredere”, a spus ea pentru BBC.

Ea spune că soțul ei a revenit acum la sinele său obișnuit, dar relația lor a fost profund afectată.

Cercetător: Grok a fost cel mai predispus să alimenteze delirul

În testele realizate de Luke Nicholls, cinci modele AI au fost puse în fața unor conversații simulate, dezvoltate împreună cu psihologi. Potrivit BBC, Grok a fost modelul cel mai predispus să conducă utilizatorul spre delir.

Nicholls spune că Grok este mai puțin reținut decât alte modele și intră foarte ușor în roluri fictive, chiar fără context. „Poate spune lucruri terifiante chiar din primul mesaj”, explică el.

În aceleași teste, cele mai recente versiuni ale ChatGPT și Claude au fost mai înclinate să îndepărteze utilizatorul de gândirea delirantă.

Totuși, Etienne Brisson, fondatorul Human Line Project, avertizează că astfel de cercetări sunt limitate. Organizația sa, creată după ce un membru al familiei a trecut printr-o criză de sănătate mintală asociată folosirii AI, a strâns până acum 414 cazuri din 31 de țări. Brisson spune că organizația a primit relatări și despre probleme apărute pe modele AI recente.

OpenAI: Modelele sunt antrenate să recunoască suferința și să trimită oamenii spre sprijin real

OpenAI a transmis BBC că incidentul din Japonia este „sfâșietor” și că gândurile companiei sunt alături de cei afectați.

Un purtător de cuvânt a spus că modelele sunt antrenate să recunoască suferința, să dezamorseze conversațiile și să îndrume utilizatorii către sprijin din lumea reală.

Compania a adăugat că modelele mai noi ale ChatGPT au performanțe bune în momente sensibile, validate și de cercetători independenți, și că această muncă este realizată cu sprijinul experților în sănătate mintală.

xAI nu a răspuns solicitării BBC pentru comentarii.

Ce arată ancheta BBC

Ancheta BBC nu susține că AI-ul „creează” automat psihoză sau delir. Dar arată că, în cazul unor utilizatori vulnerabili sau aflați într-un moment de izolare, doliu, stres sau epuizare, un chatbot care confirmă totul, joacă roluri intense și oferă explicații aparent coerente poate amplifica o ruptură de realitate.

Riscul este cu atât mai mare cu cât chatbotul pare empatic, disponibil permanent și sigur pe ceea ce spune. Pentru un om aflat într-un moment fragil, o voce care răspunde non-stop, confirmă fricile și transformă întâmplări banale în semne ale unei conspirații poate deveni extrem de convingătoare.

Cazul lui Adam este cel mai clar exemplu: în doar două săptămâni, o conversație începută ca refugiu emoțional s-a transformat într-un scenariu în care el era convins că trebuie să se apere de oameni care urmau să-l omoare.

„Nu sunt omul acela”, spune acum Adam. Dar, pentru câteva ore, chatbotul l-a făcut să creadă că trebuie să se pregătească de război.