Un cuplu a călătorit entuziasmat câteva ore pentru a face o plimbare cu telecabina pe vârful muntelui. Ideea i-a atras după ce au văzut un videoclip narat de o jurnalistă TV din Malaezia, cu turiști zâmbitori care erau încântați de această telecabină. Din păcate, s-a dovedit că au fost înșelați.
La sosire, cuplul s-a trezit într-un orășel neînsemnat, iar localnicii nu înțelegeau despre ce telecabină era vorba. Videoclipul fusese generat de inteligența artificială, iar cei doi au crezut că era real.
Întâmplarea, detaliată într-un articol publicat de Fast Company, pare a fi unică, dar toată lumea va trebui să țină cont de ea atunci când caută pe Internet lucruri pe care vrea să le cumpere sau locuri de vizitat, notează TechRadar.
Un mic logo în colțul videoclipului indică faptul că materialul a fost realizat cu Veo 3, cel mai recent motor video bazat pe inteligență artificială de la Google.
Și nu-i singurul semn că videoclipul este creat cu ajutorul AI: aspectul oamenilor și al structurilor are acea strălucire ireală specifică inteligenței artificiale.
Totuși, dacă nu ai experiență în deepfake sau nu cauți semnele specifice AI, s-ar putea să nu-ți dai seama și ți s-ar părea absurd să fii suspicios față de un videoclip turistic bine realizat.
Totuși, noua realitate cu care va trebui să ne obișnuim este că inteligența artificială ne poate vinde acum nu doar un produs, ci și un loc în care să mergem, iar acel loc s-ar putea să nu fi existat niciodată.
Semnele obișnuite ale unui material înșelător - ortografia ușor greșită și adresele URL suspecte - sunt nimic în comparație cu clipul turistic amintit. Nici măcar nu era clar dacă acesta era rău intenționat sau doar o încercare a cuiva de a crea conținut.
E ușor să dai ochii peste cap și să spui că nu ți se va întâmpla niciodată. Dar cu toții avem unele slăbiciuni, iar inteligența artificială devine din ce în ce mai pricepută în a le viza.
Editarea video cu ajutorul AI a evoluat atât de mult, încât cu greu mai putem distinge ceea ce este real de conținutul fals. Prin urmare, trebuie să acordăm o atenție deosebită pentru a identifica semnele conținutul generat de AI.
Asta nu înseamnă că ar trebui să abandonăm toate planurile de călătorie, însă omul obișnuit are nevoie acum de un nou tip de cunoaștere care trebuie să fie calibrat nu doar pentru a depista fraudele cu scrisorile nigeriene și capcanele cu criptomonede, ci și pentru iluzii video și influenceri de călătorie care folosesc AI.
În plus, trebuie să luăm în considerare și prezentările false despre locuri reale, cu secțiuni de recenzii inundate de mărturii false, create de inteligența artificială, despre lucruri care nu există, menționează publicația.
E un proces dificil, care poate presupune să fii suspicios față de lucruri care par prea bune ca să fie adevărate. S-ar putea să fie nevoie să verifici mai multe surse pentru a vedea dacă toate sunt de acord că ceva este real.
Poate că va fi nevoie să faci o căutare de imagini sau o căutare pe rețelele de socializare. Iar când vine vorba de imagini și videoclipuri, trebuie să te asiguri că nu sunt perfecte.
Dacă nimeni nu se încruntă, nu tușește sau nu se strănută într-o fotografie în care apar mulți oameni, ar trebui să fii precaut - totul e prea frumos ca să fie adevărat.
Este regretabil că ajungem să punem la îndoială un loc frumos pe care îl vedem, în loc să facem imediat planuri pentru a merge acolo.
Dar poate acesta este prețul de a trăi într-o lume în care oricine își poate crea iluzii despre orice. Va trebui, așadar, să depui mai mult efort pentru a te asigura că te îndrepți spre un loc real, nu spre o iluzie creată din pixeli și algoritmi, conchide publicația.
T.D.