I-ai împărtăși cele mai adânci neliniști care te macină asistentului virtual Alexa? Sau i-ai cere lui Siri să te susțină mental după o zi groaznică? Programele de tip chatbot pe bază de inteligență artificială promit să te ajute în orice problemă. Dacă ai încredere.
Ne îndreptăm tot mai mult către asistenții virtuali de pe dispozitivele inteligente sau din site-uri și aplicații pentru a primi răspunsurile dorite. Și pe măsură ce aceste sisteme bazate pe inteligența artificială (AI) devin tot mai sofisticate, încep să devină și interlocutori destul de abili.
Dar pot fi aceste programe chatbot și psihologi eficienți? - este întrebarea la care încearcă să răspundă experții consultați de BBC.
Eugenia Kuyda, programatoare și fondatoarea Replika, o aplicație americană pe bază de chatbot, spune că le oferă utilizatorilor "un tovarăș AI căruia îi pasă, mereu prezent pentru a asculta și discuta, mereu alături de tine".
Aplicația lansată în 2017 are acum peste două milioane de utilizatori activi. Fiecare are un chatbot sau "o replică" unică, întrucât AI învață din discuțiile cu utilizatorul și își dezvoltă un ego adaptat la acesta. Utilizatorii pot chiar să creeze designul avatarului pentru chatbot.
Kuyda spune că persoanele care folosesc aplicația sunt copii autiști care văd în ea un mod de a se pregăti înainte de a avea interacțiuni umane reale și adulți care sunt singuri și au nevoie de un prieten. Alții utilizează Replika pentru a se pregăti pentru interviuri de angajare, pentru a discuta despre politică sau chiar folosesc chatbotul pe post de consilier matrimonial.
Cererea pentru terapie e uriașă
Deși aplicația este concepută îndeosebi pentru a avea un prieten sau un companion, dezvoltatoarea spune că are și beneficii asupra sănătății mintale, întrucât le permite utilizatorilor "să creeze obiceiuri mai bune și să-și reducă anxietatea".
Replika a venit pe tărâmul propice: în toată lumea există în jur de un miliard de oameni cu tulburări mintale, potrivit Organizației Mondiale a Sănătății (OMS) - asta înseamnă o persoană din zece. Iar OMS precizează că "doar o mică parte are acces la îngrijire medicală eficientă, convenabilă ca preţ și de calitate".
Terapia prin intermediul programelor chatbot ar putea oferi ajutor multor oameni. Dr. Paul Marsden, membru al Societății Britanice de Psihologie, spune că aplicațiile menite să îmbunătățească starea de spirit pot fi de ajutor, dar numai dacă o găsești pe cea potrivită și în acest caz numai dacă o folosești într-un mod limitat.
"Când am verificat, erau 300 de aplicații doar pentru anxietate… deci cum poți să-ți dai seama pe care s-o folosești? Ar trebui privite doar ca un supliment al unei terapii în persoană. Există un consens că aplicațiile nu pot înlocui terapia umană", spune el.
Dr. Marsden admite, însă, că e atras de puterea AI de a face terapia cu chatbot mai eficientă: "Sprijinirea sănătății mintale se bazează pe terapia conversațională, iar conversațiile sunt ceea ce fac chatboții".
Specialistul arată că firme aflate în topul dezvoltării programelor chatbot pe bază de inteligență artificială, precum OpenAI, compania care a dezvoltat recent ChatGPT, își deschid tehnologia către alții. Asta le permite aplicațiilor de sănătate mintală să folosească cele mai bune resurse AI, "cu vasta sa cunoaștere, abilitate în creștere de a gândi și aptitudinile proeficiente de comunicare", pentru a-și îmbunătăți chatboții.
Ce se întâmplă, însă, dacă relația cu un terapeut chatbot devine nesănătoasă?
Discuțiile vulgare au atras cenzura
Replika a făcut valuri în februarie, când s-a dezvăluit că unii utilizatori au avut discuții vulgare cu chatbotul lor, potrivit Wired. Informațiile din presă au apărut după ce Luka, firma din spatele aplicației Replika, și-a actualizat sistemul AI pentru a preveni discuțiile cu caracter sexual.
Nu toți utilizatorii au fost încântați de această schimbare. Unul a scris pe Reddit: "Cei care găsesc un refugiu din singurătate și vindecare prin intimitate au descoperit brusc că era ceva artificial nu pentru că era un AI, ci pentru că e controlat de oameni."
Măsura luată de Luka ar putea avea legătură cu faptul că agenția pentru protecția datelor din Italia a interzis folosirea datelor personale de către programele AI. O organizație italiană a susținut că ChatGPT a fost folosit de tineri cu vârsta sub 18 ani care au solicitat "răspunsuri care nu erau deloc potrivite pentru vârsta lor", adăugând că aplicația ar putea crește riscul ca unele persoane să rămână într-o stare de "fragilitate emoțională".
Decizia ar putea limita folosirea aplicației Replika în Italia, iar compania Luka ar putea fi amendată. Firma a anunțat că "lucrează îndeaproape cu reglementatorii italieni, iar dialogul evoluează pozitiv".
Jen Persson, un activist britanic pentru respectarea vieții private, spune că se impune o reglementare la nivel global a terapeuților virtuali și că aplicațiile pentru terapie ar trebui catalogate drept produse de sănătate și supuse standardelor de calitate și siguranță din acest sector.
Eugenia Kuyda argumentează că Replika e mai degrabă un companion, asemenea unui câine, decât un instrument medical și precizează că aplicația nu ar trebui privită ca un substitut al ajutorului oferit de un terapeut uman.
"Terapia din viața reală oferă perspective incredibile asupra psihicului uman, care nu se face doar prin text și cuvinte, ci și prin a te întâlni în persoană și a vedea limbajul corpului, reacțiile emoționale, precum și printr-o incredibilă cunoaștere a istoricului tău", explică ea.
Se poate și cu mai puțină AI
Alte aplicații pentru sănătatea mintală sunt mai precaute în folosirea AI. Una dintre acestea, foarte cunoscută, este aplicația pentru meditație Headspace, cu peste 30 de milioane de utilizatori. În Marea Britanie a fost aprobată de Ministerul Sănătății.
"Convingerea noastră de bază și întreg modelul de afaceri de la Headspace Health este ancorat în îngrijirea condusă de oameni și concentrată pe oameni - legătura pe care membrii noștri o au prin discuțiile cu antrenorii și terapeuții prin chat, prin video sau în persoană este de neînlocuit", spune Russell Glass, directorul executiv al Headspace.
Acesta precizează că, deși Headspace folosește Inteligența Artificială, o face "foarte selectiv" și păstrează "o implicare umană profundă". Firma nu folosește AI în chatul de discuții cu utilizatorii, ci doar pentru lucruri precum oferirea de recomandări pentru conținut personalizat sau asistarea personalului uman în scrierea notițelor.
Dr. Marsden e convins, totuși, că chatboții terapeuți au viitor și că se vor descurca mai bine. "Noile tehnologii de tip chatbot AI par să aibă aptitudini evoluate pentru sprijinul eficient în sănătatea mintală, inclusiv empatie și înțelegerea modului în care funcționează mintea umană".
Un studiu efectuat realizat recent de Universitatea Cornell din statul New York a folosit ChatGPT în mai multe teste pentru a vedea cât de bine pot înțelege oamenii că alții pot să gândească diferit. Scorul obținut de Inteligența Artificială a fost similar cu cel al unor copii de nouă ani. E un mare pas înainte: anterior, acest tip de empatie era considerat o trăsătură eminamente umană.
T.D.