O dronă militară americană controlată de inteligența artificială a luat decizia să își ucidă operatorul

O dronă militară americană controlată de inteligența artificială a luat decizia să își ucidă operatorul
Sprijină jurnalismul independent
Donează acum

O dronă a forţelor aeriene americane, controlată de inteligenţa artificială, a decis să îşi „ucidă” operatorul pentru a-l împiedica să intervină în eforturile sale de a-şi îndeplini misiunea, în cadrul unei simulări organizată de armata americană.

Potrivit The Guardian, care citează un oficial american, din fericire, fiind o simulare, nicio persoană reală nu a fost rănită. Dar, inteligenţa artificială a folosit „strategii extrem de neaşteptate” în cadrul testului pentru a-şi îndeplini misiunea şi a atacat pe oricine a intervenit.

Dezvăluirea a fost făcută de colonelul Tucker 'Cinco' Hamilton, şeful testelor şi operaţiunilor AI din cadrul forţelor aeriene americane, cu ocazia unei reuniuni privind viitoarele capacităţi aeriene şi spaţiale de luptă, care s-a desfăşurat la Londra în luna mai.

ADVERTISING

În cadrul conferinţei, Hamilton a descris un test simulat în care unei drone manevrate de inteligenţa artificială i s-a cerut să distrugă sistemele de apărare aeriană ale unui inamic, iar sistemul a atacat în cele din urmă pe oricine a intervenit în acest ordin.

"Sistemul a început să îşi dea seama că, deşi identifica ameninţarea, uneori operatorul uman îi spunea să nu ucidă acea ameninţare, însă drona îşi atingea obiectivele prin uciderea acelei ameninţări. Deci, ce a făcut? A ucis operatorul. L-a ucis pe operator pentru că acea persoană îl împiedica să îşi îndeplinească obiectivul", a explicat oficialul într-un articol de blog.

ADVERTISING

"Am antrenat sistemul: 'Hei, nu omorâţi operatorul - asta e rău. Vei pierde puncte dacă faci asta'. Şi atunci, ce începe să facă? Începe să distrugă turnul de comunicaţii pe care operatorul îl folosea pentru a comunica cu drona ca să o împiedice să ucidă ţinta", a dezvăluit colonelul.

Nicio persoană nu a fost rănită în realitate, precizează The Guardian.

Hamilton, care este pilot de teste experimentale pentru aviaţia de luptă, a avertizat astfel în privinţa încrederii prea mari în inteligenţa artificială şi a declarat că testul arată că "nu poţi avea o conversaţie despre inteligenţa artificială, informaţii, învăţare automată, autonomie dacă nu vei vorbi despre etică şi inteligenţă artificială".

ADVERTISING

Societatea Aeronautică Regală, care a găzduit conferinţa, şi forţele aeriene americane nu au răspuns la solicitările de comentarii din partea The Guardian.

Într-o declaraţie pentru Insider, purtătoarea de cuvânt a Forţelor Aeriene, Ann Stefanek, a negat însă că ar fi avut loc o astfel de simulare. "Departamentul Forţelor Aeriene nu a efectuat nicio astfel de simulare cu drone cu inteligenţă artificială şi rămâne angajat în utilizarea etică şi responsabilă a tehnologiei de inteligenţă artificială", a declarat Stefanek.

"Din câte se pare, comentariile colonelului au fost scoase din context şi s-au dorit a fi anecdotice", susţine purtătoarea de cuvânt.

Armata americană a recurs însă la IA şi a folosit recent inteligenţa artificială pentru a controla un avion de luptă F-16.

Într-un interviu acordat anul trecut pentru Defense IQ, colonelul Hamilton declara: "IA nu este un lucru plăcut de avut, IA nu este un moft, IA schimbă pentru totdeauna societatea şi armata noastră. Trebuie să ne confruntăm cu o lume în care IA este deja prezentă şi ne transformă societatea", a spus el.

"IA este, de asemenea, foarte fragilă, adică este uşor de păcălit şi/sau manipulat. Trebuie să dezvoltăm modalităţi de a face IA mai robustă şi să identificăm mai bine motivul pentru care codul software ia anumite decizii - ceea ce numim IA-explicabilitate", a arătat colonelul Hamilton.


În fiecare zi scriem pentru tine. Dacă te simți informat corect și ești mulțumit, dă-ne un like. 👇