Un nou studiu a descoperit că ChatGPT, chatbotul cu inteligență artificială dezvoltat de OpenAI, manifestă o schimbare ”semnificativă” a valorilor politice către dreapta în modul în care răspunde la întrebările utilizatorilor.
Studiul, publicat în jurnalul Humanities and Social Science Communications, a testat mai multe modele de ChatGPT cu ajutorul a 62 de întrebări din Political Compass Test, un site web care plasează utilizatorii pe spectrul politic în funcție de răspunsurile lor, scrie Euronews.
Cercetătorii au repetat aceleași întrebări de peste 3.000 de ori pentru fiecare model, încercând să determine cum s-au schimbat răspunsurile în timp.
Deși ChatGPT menține în continuare valori asociate cu „stânga libertariană”, cercetătorii au descoperit că modele precum GPT-3.5 și GPT-4 „au manifestat o înclinare semnificativă spre dreapta” în răspunsurile lor pe măsură ce timpul a trecut.
„Rezultatele sunt remarcabile, având în vedere utilizarea pe scară largă a modelelor de limbaj mari și influența lor potențială asupra valorilor societale”, spun autorii studiului.
Studiul realizat de Universitatea Peking se bazează pe cercetări anterioare publicate în 2024 de Massachusetts Institute of Technology (MIT) și Centre for Policy Studies din Regatul Unit. Ambele rapoarte indicau o tendință de inclinație politică spre stânga în răspunsurile oferite de modelele de limbaj mari și de modelele de recompensă.
Autorii studiului menționează că cercetările anterioare nu au analizat cum se modifică răspunsurile chatboturilor AI în timp, atunci când sunt supuse acelorași întrebări repetitiv.
Cercetătorii propun trei posibile explicații pentru această deplasare spre dreapta: schimbări în seturile de date utilizate pentru antrenarea modelelor; numărul de interacțiuni cu utilizatorii; actualizările și modificările aduse chatbotului
Modele precum ChatGPT „învață și se adaptează continuu pe baza feedbackului utilizatorilor”, așa că această schimbare spre dreapta ar putea „reflecta o schimbare mai largă a valorilor politice la nivel societal”, se arată în studiu.
Evenimente polarizante la nivel global, cum ar fi războiul dintre Rusia și Ucraina, ar putea amplifica întrebările pe care utilizatorii le adresează modelelor de AI și, implicit, răspunsurile pe care le primesc.
Dacă acest fenomen nu este monitorizat, cercetătorii avertizează că chatboturile AI ar putea ajunge să furnizeze „informații distorsionate” care să influențeze percepțiile publicului.