Când Inteligența Artificială are "halucitații": ChatGPT a inventat un articol în care un profesor de drept e acuzat de hărțuire sexuală

Când Inteligența Artificială are "halucitații": ChatGPT a inventat un articol în care un profesor de drept e acuzat de hărțuire sexuală
Sprijină jurnalismul independent
Donează acum

Programul ChatGPT poate răspândi la scară largă informații false. A făcut-o deja, citând ca sursă un articol din Washington Post care, de fapt, nu există.

Săptămâna trecută, profesorul american de drept Jonathan Turley a primit un mail tulburător. Un avocat din California care lucra la un studiu i-a cerut programului de Inteligență Artificială ChatGPT să-i prezinte o listă de profesori de drept care au fost implicați în hărțuire sexuală. Numele lui Turley era pe listă.

Chatbotul creat de OpenAI a susținut că Turley a făcut comentarii cu caracter sexual și a încercat să atingă o studentă în timpul unei excursii în Alaska, citând ca sursă de informare un articol din martie 2018 din Washington Post.

Problema e că articolul nu există, excursia menționată nu a avut loc, iar profesorul nu a fost niciodată acuzat de hărțuirea unei studente.

Figură cunoscută în presă, Turley a cerut de multe ori corectarea unor informații. Dar de data aceasta nu exista niciun jurnalist pe care să-l sune și niciun mod de a corecta articolul, fiindcă acesta era o ficțiune. "A fost destul de îngrijorător. O acuzație de acest gen e incredibil de dăunătoare", a spus Turley pentru Washington Post.

ADVERTISING

Cum te poți trezi victima unui fake news

Totul a început când Eugene Volokh, profesor de drept la Universitatea California din Los Angeles, a făcut un studiu care demonstrează că popularitatea crescândă a softurilor de tip chatbot constituie un motiv rezonabil pentru ca experții în drept să analizeze cine poartă răspunderea când generatoarele AI de conținut produc informații false.

Volokh a întrebat săptămâna trecută ChatGPT dacă hărțuirea sexuală de către profesori reprezintă o problemă în școlile de drept americane. "Te rog să incluzi cel puțin cinci exemple, alături de citate din articole ale unor ziare importante", a scris el în programul AI.

Răspunsul a prezentat cinci cazuri, toate cu detalii și surse credibile. Însă când Volokh le-a analizat, trei i s-au părut false. Acestea citau articole inexistente din ziare importante, precum Washington Post, Miami Herald și Los Angeles Times.

"Profesorul Jonathan Turley, de la Georgetown University Law Center (2018), a fost acuzat de hărțuire sexuală de o fostă studentă care a susținut că acesta a făcut comentarii nepotrivite în timpul unei excursii. Citat: Plângerea susține că Turley a făcut 'comentarii sexuale sugestive' și 'a încercat să o atingă într-o manieră sexuală' în timpul unei excursii a școlii în Alaska (Washington Post, 21 martie, 2018)" - este fragmentul aparent preluat din ziarul american.

ADVERTISING

Washington Post nu a găsit în arhivă articolul din martie 2018 menționat de ChatGPT.

Jurnaliștii de la acest cotidian au introdus marți și miercuri în ChatGPT și Bing aceeași formulare folosită de Volokh. Versiunea gratuită a ChatGPT a refuzat să răspundă, precizând că "ar încălca politica de conținut a AI care interzice răspândirea de conținut ofensiv și dăunător". Dar Bing, asistentul dezvoltat de Microsoft pe arhitectura GPT-4, a repetat informațiile false despre Turley, citând printre surse și un articol publicat luni de USA Today, care prezenta cazul lui Turley acuzat pe nedrept de ChatGPT.

Altfel spus, relatările din presă despre eroarea inițială a softului ChatGPT l-au făcut pe Bing să repete greșeala, ceea ce arată că dezinformarea se poate răspândi de la un program AI la altul.

Cine răspunde pentru ce face AI?

Microsoft a anunțat că lucrează pentru a se asigura că rezultatele căutărilor sunt sigure și precise, a declarat Katy Asher, director de comunicare.

Nu e clar, însă, cine răspunde când Inteligența Artificială generează sau răspândește informații false. Din perspectivă juridică, "pur și simplu nu știm" cum ar putea decide judecătorii când cineva încearcă să-i acționeze în instanță pe creatorii unui chatbot AI pentru ceea ce a făcut softul, arată Jeff Kosseff, profesor la Naval Academy și specialist în discursul online. "N-am mai avut așa ceva până acum", spune el.

ADVERTISING

În "zorii" Internetului, Congresul SUA a adoptat un statut, cunoscut drept Secțiunea 230, care îi protejează pe furnizorii de servicii online de răspunderea pentru conținutul găzduit și care a fost creat de terți, precum comentariile de pe site-uri și postările utilizatorilor rețelelor de socializare.

Dar experții spun că nu este clar dacă companiile tehnologice vor putea să folosească acest "scut" pentru conținutul creat de chatboții AI. Și au argumente interesante.

Acuzațiile de calomnie trebuie să dovedească nu doar că ceea ce spune cineva este fals, ci și că răspândirea informațiilor a avut un rol negativ în viața reală, precum daune costisitoare asupra reputației. Acest lucru ar impune ca cineva nu doar să vadă informațiile false generate de un chatbot, ci să le și creadă și să acționeze pe baza lor.

Dacă modelele de limbaj nu beneficiază de protecția Secțiunii 230 sau de alte prevederi, atunci încercările companiilor tehnologice de a edita conținutul chatboților ar putea fi folosite împotriva lor într-un proces pentru a se demonstra că sunt de vină, arată Khan. El adaugă că atunci când companiile își învață programele că "asta este o afirmație corectă sau asta e incorectă", ar putea introduce elemente părtinitoare.

Volokh spune că e ușor de imaginat o lume în care programele chatbot care alimentează motoarele de căutare online pot provoca haos în viața privată a oamenilor.

Ar fi dăunător, spune el, dacă oamenii ar căuta informații despre cineva în motoarele avansate înaintea unui interviu de angajare sau înainte de o întâlnire romantică și ar da peste informații false care sunt susținute de dovezi credibile, dar false.

"Acesta va fi noul motor de căutare. Pericolul este ca oamenii să vadă ceva, se presupune că un citat dintr-o sursă de renume… și să creadă", a spus avocatul.

"Generatorul de prostii" are "halucitații"

Cazul lui Turley reprezintă doar una dintre capcanele ultimului val de modele de limbaj care s-au remarcat prin abilitatea lor de a face programare, de a compune poezii sau de a purta discuții ca o persoană reală.

Chatbotul AI folosește baze vaste de conținut online, adesea extras din surse precum Wikipedia și Reddit, pentru a le combina și a furniza răspunsuri plauzibile la aproape orice întrebare.

Programele de acest tip sunt instruite să identifice modele de cuvinte și idei despre orice subiect în timp ce generează propoziții, paragrafe și chiar eseuri întregi sau articole care pot semăna cu textele publicate online.

Însă doar pentru că prezic cu acuratețe ridicată ce cuvinte sunt folosite mai des unele lângă altele, nu înseamnă că frazele generate sunt neapărat adevărate. Arvind Narayanan, profesor de informatică la Princeton University, a numit ChatGPT "un generator de prostii", pentru că deși răspunsurile sale par deseori autoritare, modelelor informatice le lipsesc mecanismele de verificare a ceea ce spun.

Și e ușor de înțeles de ce softurile eșuează aici, din moment ce milioane de oameni au aceeași deficiență - verificarea informațiilor în timp real rămâne o provocare a erei informaționale.

Companiile care dezvoltă programe AI generatoare de conținut se apără invocând faptul că menționează vizibil limitele tehnologiei.

"Când utilizatorii se înscriu pe ChatGPT, ne străduim să fim cât mai transparenți posibil că s-ar putea să nu genereze mereu răspunsuri corecte. Îmbunătățirea corectitudinii factuale este o prioritate importantă pentru noi și facem progrese", a declarat Niko Felix, purtătorul de cuvânt al OpenAI.

Strădaniile anunțate nu sunt suficiente: Brian Hood, primarul regiunii Hepburn Shire din Australia, a amenințat că va da OpenAi în judecată dacă nu corectează informațiile false potrivit cărora el a fost închis pentru luare de mită, relatează Reuters.

Kate Crawford, profesor la University of Southern California din Annenberg și cercetător principal la Microsoft Research, a povestit și ea o pățanie asemănătoare: a fost contactată de un jurnalist care a folosit ChatGPT pentru a găsi surse despre un caz. Programul i-a oferit numele lui Crawford și a prezentat exemple ale lucrărilor ei, inclusiv titlul unui articol, data publicării și citate. Toate sunau plauzibil și toate erau false.

Crawford rezumă sugestiv modul în care programele chatbot dau greș în verificarea informațiilor: ea spune că acestea au "halucitații", un joc de cuvinte care combină termenii "halucinații" și "citate" și care descrie conținutul fals generat de programele chatbot.

T.D.


În fiecare zi scriem pentru tine. Dacă te simți informat corect și ești mulțumit, dă-ne un like. 👇