ULTIMA ORA
Tehnologie

Criza de încredere zguduie compania Anthropic și modelul său de inteligență artificială, Claude Conflictul dintre compania de inteligență artificială Anthropic și Pentagonul american marchează un punct de cotitură în relația dintre guvern și industria AI

Cristian Marinescu

Criza de încredere zguduie compania Anthropic și modelul său de inteligență artificială, Claude

Conflictul dintre compania de inteligență artificială Anthropic și Pentagonul american marchează un punct de cotitură în relația dintre guvern și industria AI. Problema nu este una tehnică, ci una de încredere, generată de divergențele legate de utilizarea modelelor AI în scopuri sensibile, cum ar fi supravegherea extinsă și armele autonome. În timp ce Anthropic a setat limite etice, guvernul american le-a interpretat ca o potențială subordonare a intereselor naționale.

Miză mare pentru securitatea națională

Departamentul de Justiție a argumentat în instanță că desemnarea Anthropic ca risc de lanț de aprovizionare nu încalcă libertatea de exprimare a companiei. Guvernul a subliniat că potențialele pierderi financiare ale companiei, estimate la sute de milioane sau chiar miliarde de dolari, nu justifică suspendarea măsurii până la finalizarea procesului. Aceasta indică clar că securitatea națională primează în fața argumentelor comerciale.

Din perspectiva publicului, dezamăgirea nu provine neapărat dintr-o defecțiune tehnică a modelului Claude, ci din faptul că guvernul nu îl consideră suficient de sigur pentru zonele sensibile. Această situație contrazice narativa dominantă a companiilor AI, care promiteau inovație rapidă, valori etice solide și fiabilitate deplină pentru stat. Se pare că, în cazul Anthropic, această combinație nu a funcționat.

Alternativele Pentagonului și consecințe strategice

Conform relatărilor, Pentagonul și alte agenții federale lucrează deja la înlocuirea instrumentelor Anthropic cu alternativele de la Google, OpenAI și xAI. Oficiile din apărare au confirmat că nu mai există posibilitatea reluării negocierilor cu compania. Aceasta înseamnă că discuția a trecut din faza de avertismente în cea de reconstrucție practică a ecosistemului AI militar american fără Claude.

Pentru Anthropic, consecințele sunt multiple: o lovitură de imagine, dar și pierderi financiare și strategice. Pentru restul industriei, este un semnal clar că guvernul consideră modelele AI nu doar software comercial, ci elemente critice ale infrastructurii de putere. Compania are posibilitatea să răspundă în instanță și beneficiază de sprijin din partea unor cercetători AI, foști lideri militari și Microsoft, care consideră acțiunea guvernului disproporționată. Totuși, în cazurile care invocă securitatea națională, instanțele americane acordă adesea o marjă largă executivului.

Ca o consecință a acestor tensiuni, reprezentanții Anthropic au declarat că vor continua să colaboreze cu experți juridici pentru a contesta decizia guvernului, dar nu au oferit detalii despre pașii concreți pe care îi vor urma în instanță.

Sursa: Playtech.ro