Un test major pentru industria AI: Anthropic refuză să elimine limitările de siguranță, în ciuda presiunilor Pentagonului

Un test major pentru industria AI: Anthropic refuză să elimine limitările de siguranță, în ciuda presiunilor Pentagonului
Sprijină jurnalismul independent
Donează acum

Compania americană de inteligență artificială Anthropic a anunțat că nu poate „în bună conștiință” să accepte cererea Pentagonului de a elimina mecanismele de siguranță din modelul său AI, Claude, și de a permite utilizarea nelimitată a tehnologiei de către armata SUA, chiar dacă riscă pierderea unui contract de 200 de milioane de dolari.

Potrivit The Guardian, Pete Hegseth, secretarul american al Apărării, a amenințat că va anula contractul și va desemna Anthropic drept „risc pentru lanțul de aprovizionare” dacă firma nu se conformează până vineri. O astfel de etichetare ar avea consecințe financiare severe și ar putea bloca accesul Anthropic la alte contracte guvernamentale.

„Nu putem accepta această cerere”

Directorul executiv al Anthropic, Dario Amodei, a declarat că presiunile Pentagonului nu vor schimba poziția companiei.

„Opțiunea noastră fermă este să continuăm să sprijinim Departamentul Apărării și militarii americani – dar cu cele două garanții de siguranță solicitate de noi în vigoare”, a spus Amodei, exprimându-și speranța că Hegseth „va reconsidera”.

Potrivit The Guardian și Deutsche Welle, conflictul vizează condițiile de utilizare a modelului Claude. Pentagonul cere ca Anthropic să dezactiveze toate „gardurile de protecție” și să permită orice utilizare legală, inclusiv în sisteme clasificate, în timp ce compania refuză să autorizeze folosirea AI pentru supraveghere internă în masă și sisteme de armament complet autonome, capabile să ucidă fără control uman.

„Folosirea acestor sisteme pentru supraveghere internă în masă este incompatibilă cu valorile democratice”, a declarat Amodei pentru Deutsche Welle, adăugând că tehnologia actuală nu este suficient de sigură sau fiabilă pentru a fi folosită în arme letale fără intervenție umană.

Un test major pentru industria AI

Potrivit The Guardian, refuzul Anthropic este perceput drept un test-cheie pentru afirmația companiei că este cea mai orientată spre siguranță dintre marile firme de AI și pentru a vedea dacă industria AI poate spune „nu” guvernelor, atunci când utilizările cerute sunt controversate sau potențial letale.

Ironia situației este că Anthropic a primit, în iulie 2025, același tip de contract cu Pentagonul ca OpenAI și Google – până la 200 de milioane de dolari pentru aplicații militare AI. Ceea ce a diferențiat Anthropic a fost faptul că, până recent, Claude era singurul model AI aprobat pentru utilizare în sisteme militare clasificate. (Săptămâna aceasta, xAI, compania lui Elon Musk, a obținut un acord similar.)

Pentagonul neagă intențiile invocate de Anthropic

Un purtător de cuvânt al Pentagonului, Sean Parnell, a respins acuzațiile, afirmând că armata americană „nu are niciun interes” în utilizarea AI pentru supravegherea în masă a americanilor – ceea ce ar fi ilegal – și nici pentru dezvoltarea de arme autonome fără implicare umană, potrivit Deutsche Welle.

Totuși, oficiali militari au confirmat că una dintre discuțiile cu Anthropic a vizat rachetele balistice intercontinentale, subliniind sensibilitatea extremă a aplicațiilor aflate în discuție.

Parnell a avertizat că Pentagonul „nu va permite niciunei companii să dicteze modul în care sunt luate deciziile operaționale”.

Implicații politice și riscuri majore

Dacă Hegseth își pune în aplicare amenințarea de a desemna Anthropic drept „risc pentru lanțul de aprovizionare” – o măsură folosită de regulă împotriva adversarilor străini –, compania ar putea fi practic exclusă din ecosistemul militar-industrial american, notează The Guardian.

Contextul politic amplifică tensiunile. Amodei este cunoscut drept un susținător al reglementării stricte a AI și un critic al președintelui Donald Trump.

Senatorul democrat Mark Warner, liderul opoziției din Comisia pentru Informații a Senatului, s-a declarat „profund tulburat” de ceea ce a numit tentative ale Pentagonului de a intimida o companie americană, afirmând că situația demonstrează nevoia urgentă de reguli legale ferme privind utilizarea AI în contexte de securitate națională.


În fiecare zi scriem pentru tine. Dacă te simți informat corect și ești mulțumit, dă-ne un like. 👇