Guvernul britanic folosește inteligența artificială pentru a realiza analiza capacităților sale de apărare. Experții avertizează că implicarea AI în planificarea militară s-ar putea dovedi o greșeală costisitoare.
Este prima dată când guvernul britanic folosește inteligența artificială pentru o analiză importantă, iar acest pas face parte dintr-un efort mai amplu de integrare a noilor tehnologii în domeniul apărării, scrie Politico.
Modelul AI a fost creat de Palantir, o companie de tehnologie din SUA care a câștigat contractul guvernamental în timpul verii.
Revizuirea este salutată de oficialii guvernamentali, care o consideră un exemplu de inovație tehnologică, având ca rezultat o eficiență mai mare a sectorului public.
Computerul va spune cum să se apere UK
Secretarul Apărării, John Healey, a anunțat revizuirea strategică a apărării la câteva zile de la victoria laburiștilor în alegerile din luna iulie. "Avem nevoie de o nouă eră pentru apărare", a spus el atunci, sugerând că forța militară a Regatului Unit a fost slăbită în timpul guvernării conservatorilor.
Analiza – condusă de fostul secretar general al NATO George Robertson și de Fiona Hill, fostă consilieră în politică externă a lui Donald Trump – va examina aspecte ale capacităților de apărare ale Regatului Unit, inclusiv recrutarea militară, achiziționarea de noi arme și viitorul programului de submarine Trident, principalul factor de descurajare nucleară al Marii Britanii.
Ministerul condus de Healey a ales să folosească AI pentru a verifica miile de date pe care le-a primit de la diferitele ramuri ale armatei britanice, împreună cu alte părți interesate, cum ar fi producătorii de arme și grupurile de reflecție.
Modelul informatic va căuta cuvinte-cheie și anumite teme în documentele analizate și va oferi un rezumat pe care oficialii Ministerului Apărării îl pot examina mai târziu în această lună, în faza de revizuire.
Trei persoane apropiate de acest proces au spus sub protecția anonimatului pentru publicația citată că analiza va fi publicată până în martie și că Guvernul își va schița decizia politică pe baza acesteia până în vară.
Un cal troian uriaș în apărarea britanică
Mariarosaria Taddeo, profesor universitar la Universitatea Oxford, specializat în etica tehnologiilor de apărare, a spus că utilizarea AI în acest mod "nu este surprinzătoare", remarcând că are loc "o transformare adecvată".
"Nu este o problemă dacă AI e utilizat pentru a susține luarea deciziilor, dar întrebarea este dacă (…) este adoptat fără nicio gândire critică", a menționat Taddeo. "Și despre ce fel de AI vorbim aici? Cum a fost realizat (programul), cine e implicat, ce tip de testare a fost gândit pentru a opri prejudecățile inerente?", a adăugat ea.
Taddeo a adăugat că utilizarea AI în acest mod ar putea prezenta un risc major pentru securitatea cibernetică. "Chiar dacă AI este componenta internă a unei organizații, chiar vrem să creăm practic un cal troian uriaș? AI este cu adevărat fragil, poate fi atacat", a spus ea.
Oficialii guvernamentali subliniază, însă, că funcționarii publici vor supraveghea activitatea AI pe tot parcursul procesului.
"Am fost transparenți cu privire la dorința noastră de a folosi AI pentru o gamă largă de aplicații de apărare, iar echipa utilizează această tehnologie pentru a ajuta la revizuirea și analizarea volumului mare de date primite", a spus un purtător de cuvânt al Ministerului Apărării.
Un alt oficial din industria britanică de apărare a avertizat, totuși, că unele firme încearcă să folosească sistemul repetând cuvinte care au șanse să treacă prin filtrul programului AI.
Experții spun că eliminarea elementului uman din anumite etape de verificare a datelor ar putea avea ca rezultat omiterea unor informații esențiale pentru forțele armate și sectorului militar privat, în timp ce alte date ar putea fi prioritizate în mod injust.
T.D.