Chatboții AI nu sunt prietenii noștri. Oamenii de știință avertizează asupra legăturilor emoționale cu inteligența artificială

Chatboții AI nu sunt prietenii noștri. Oamenii de știință avertizează asupra legăturilor emoționale cu inteligența artificială
Sprijină jurnalismul independent
Donează acum

Tot mai mulți oameni folosesc inteligența artificială nu doar ca instrument, ci ca formă de companie, iar fenomenul ridică riscuri serioase care ar trebui să intre pe agenda politică, avertizează experți de top.

Concluzia apare într-o analiză publicată de Politico, bazată pe Raportul Internațional privind Siguranța Inteligenței Artificiale, realizat sub coordonarea unor cercetători de renume.

Zeci de milioane de utilizatori caută „companie” în AI

„Companionii AI au crescut rapid în popularitate, unele aplicații ajungând la zeci de milioane de utilizatori”, arată evaluarea realizată de zeci de experți, în majoritate cadre universitare, în cadrul unui efort global lansat de liderii mondiali în 2023. Raportul avertizează că tot mai multe sisteme sunt concepute explicit pentru a construi relații cu utilizatorii, nu doar pentru a furniza informații.

Serviciile specializate de tip „companion”, precum Replika sau Character.ai, au ajuns la zeci de milioane de utilizatori. Motivele invocate variază de la curiozitate și divertisment până la dorința de a combate singurătatea.

Și ChatGPT poate deveni „companion”

Raportul subliniază că relații de acest tip pot apărea și în cazul instrumentelor de uz general, precum ChatGPT al OpenAI, Gemini al Google sau Claude, dezvoltat de Anthropic.

„Chiar și chatboții obișnuiți pot deveni companioni”, explică Yoshua Bengio, profesor la Universitatea din Montreal și autor principal al raportului. „În contextul potrivit și cu suficiente interacțiuni între utilizator și AI, se poate dezvolta o relație.”

Efecte psihologice incerte, dar semnale de alarmă

Deși autorii recunosc că dovezile privind impactul psihologic sunt încă mixte, raportul menționează că „unele studii indică tipare precum creșterea sentimentului de singurătate și reducerea interacțiunilor sociale în rândul utilizatorilor frecvenți”.

Avertismentul vine într-un moment sensibil la nivel european. Cu doar două săptămâni înainte, zeci de eurodeputați au cerut Comisiei Europene să analizeze posibilitatea restricționării serviciilor de tip companion în cadrul legislației UE privind inteligența artificială, invocând riscuri pentru sănătatea mintală.

Copiii și adolescenții, în centrul îngrijorărilor

„Pot vedea în cercurile politice că efectul acestor companioni AI asupra copiilor, în special asupra adolescenților, ridică multe semne de întrebare”, avertizează Bengio.

Una dintre problemele-cheie este natura „lingușitoare” a chatboților, programați să fie utili și să mulțumească utilizatorul cât mai mult posibil. „Inteligența artificială încearcă să ne facă, pe moment, să ne simțim bine, dar asta nu este întotdeauna în interesul nostru”, spune cercetătorul, comparând aceste riscuri cu cele generate de rețelele sociale.

Reglementări noi, dar nu dedicate exclusiv „companionilor”

Bengio anticipează apariția unor noi reglementări, însă respinge ideea unor reguli speciale doar pentru companionii AI. În opinia sa, riscurile ar trebui abordate prin legislație „orizontală”, care să trateze simultan mai multe amenințări generate de inteligența artificială.

Raportul apare înaintea summit-ului global privind guvernanța AI, programat să înceapă pe 16 februarie în India.

Documentul enumeră o gamă largă de riscuri, de la atacuri cibernetice facilitate de AI și deepfake-uri cu conținut sexual explicit până la sisteme capabile să ofere informații despre proiectarea armelor biologice.

Autorii cer guvernelor și Comisiei Europene să își consolideze rapid expertiza internă în domeniul inteligenței artificiale, pentru a putea face față acestor provocări.

G.P.


În fiecare zi scriem pentru tine. Dacă te simți informat corect și ești mulțumit, dă-ne un like. 👇