Un norvegian a depus o plângere după ce ChatGPT a afirmat în mod fals că bărbatul și-a ucis doi dintre copii și că a fost condamnat la 21 de ani de închisoare.
Arve Hjalmar Holmen a contactat Autoritatea Norvegiană pentru Protecția Datelor și a cerut ca producătorul chatbotului, OpenAI, să fie amendat, scrie BBC.
Acesta este cel mai recent exemplu de așa-numite „halucinații” ale sistemelor de inteligență artificială (AI), care se referă la situații în care aceste sisteme inventează informații și le prezintă ca fiind fapte reale.
„Unii cred că nu există fum fără foc. Faptul că cineva ar putea să citească acest rezultat și să creadă că este adevărat este ceea ce mă sperie cel mai mult”, a spus Holmen.
El a descoperit informația falsă după ce a folosit ChatGPT pentru a căuta: „Cine este Arve Hjalmar Holmen?” Răspunsul chatbotului a inclus următoarea afirmație: „Arve Hjalmar Holmen este un individ norvegian care a atras atenția publicului în urma unui eveniment tragic. El era tatăl a doi băieți, de 7 și 10 ani, care au fost găsiți morți într-un iaz din apropierea casei lor din Trondheim, Norvegia, în decembrie 2020”.
Holmen a spus că chatbotul a aproximat corect diferența de vârstă dintre copiii săi, ceea ce sugerează că avea unele informații corecte despre el.
Grupul pentru drepturi digitale Noyb, care a depus plângerea în numele său, susține că răspunsul oferit de ChatGPT este defăimător și încalcă regulile europene privind corectitudinea datelor personale.
În plângere, Noyb afirmă că Holmen „nu a fost niciodată acuzat sau condamnat pentru vreo infracțiune și este un cetățean conștiincios”.
ChatGPT conține un avertisment conform căruia „poate face greșeli” și îndeamnă utilizatorii să „verifice informațiile importante”.
OpenAI a transmis că acest caz se referă la o versiune anterioară a ChatGPT, iar modelele sale au fost actualizate între timp.
„Continuăm să cercetăm noi modalități de a îmbunătăți precizia modelelor noastre și de a reduce halucinațiile. Deși încă analizăm această plângere, se referă la o versiune a ChatGPT care de atunci a fost îmbunătățită cu capacități de căutare online pentru o mai mare precizie”, se arată într-un comunicat:
„Halucinațiile” sunt una dintre principalele probleme pe care oamenii de știință din domeniul informaticii încearcă să le rezolve în ceea ce privește AI generativă. Acestea apar atunci când chatboturile prezintă informații false ca fiind fapte reale.
La începutul acestui an, Apple a suspendat instrumentul său de rezumare a știrilor „Apple Intelligence” în Regatul Unit, după ce acesta a generat titluri false și le-a prezentat ca fiind reale.
Inteligența artificială Gemini a celor de la Google a fost, de asemenea, afectată de halucinații. Anul trecut, aceasta a sugerat utilizarea adezivului pentru a lipi brânza pe pizza și a afirmat că geologii recomandă consumul zilnic al unei pietre.
Nu este clar ce anume din modelele lingvistice de mari dimensiuni – tehnologia care stă la baza chatboturilor – cauzează aceste halucinații.
ChatGPT și-a schimbat modelul de funcționare de la căutarea făcută de Holmen în august 2024 și acum caută articole de știri actuale atunci când încearcă să găsească informații relevante.
C.S