Ministrul american al Apărării, Pete Hegseth, impune termen pentru start-up-ul AI Anthropic în dosarul restricțiilor de utilizare a tehnologiei Claude
Segmentele de inteligență artificială devin teren de confruntare între sectorul privat și autoritățile de la Washington, iar cazul start-up-ului californian Anthropic scoate la iveală tensiuni generate de abordări divergente cu privire la reglementarea și utilizarea acestor tehnologii. Recent, ministrul american al Apărării, Pete Hegseth, a emis un ultimatum start-up-ului, solicitând ridicarea restricțiilor aplicate asupra utilizării AI Claude de către Pentagon, cu un termen limită până vineri, sub amenințarea unor măsuri legale.
Presiuni directe din partea Pentagonului pentru acces liber la AI
Potrivit unor surse apropiate situației, mandatul vine într-un context în care serviciile militare americane devin tot mai interesate de potențialul tehnologiilor de inteligență artificială în domeniul securității și al apărării. Anthropic, fondată în 2020 de foști angajați ai OpenAI, a fost rapid atrasă în atenție prin dezvoltarea AI-ului Claude, considerat un concurent serios pentru GPT-3. Compania susține că a implementat screening-uri riguroase pentru a evita utilizarea greșită a tehnologiei, dar autoritățile militare americane cer, în schimb, eliminarea restricțiilor care limitează accesul la această platformă.
Hegseth, un oficial cu un patch de experiență în domeniul apărării și securității, a declarat pentru mass-media că “Pentagonul are nevoie de toate mijloacele disponibile pentru a asigura securitatea națională, iar AI Claude reprezintă un instrument deosebit de promițător.” El a adăugat că ” dacă Anthropic nu va coopera până vineri, vom recurge la legea deja aprobată, care ne permite să impunem reguli stricte pentru accesul la tehnologie”.
Apel la reglementare și riscurile implicate în tehnologia AI
Decizia are la bază preocupări legate de riscurile pe care le poate aduce o utilizare necontrolată a tehnologiei AI, dar și de necesitatea unor reglementări clare pentru sectorul privat. Washingtonul a început de câțiva ani să pună pe tapet necesitatea unui cadru de reguli stricte pentru produsele de inteligență artificială, dar în același timp se confruntă cu reticența companiilor față de restricții.
Anthropic declară că orice restricție imposibilă de acceptat va avea efecte negative asupra investigațiilor și dezvoltării viitoare a tehnologiei, amenințând chiar cu restricții în colaborarea cu departamentele militare. Într-un comunicat, compania a afirmat că “respectă reglementările dar consideră că orice restricție excesivă va încetini inovarea și va afecta progresul științific”.
Context geopolitic și viitorul utilizării AI în domeniul militar
În ultima perioadă, tensiunile geopolitice dintre Statele Unite și China s-au accentuat în domeniul tehnologiilor de vârf, inclusiv AI, care devin un factor cheie în desfășurarea de operațiuni militare moderne. În acest context, demonstrațiile de forță între sectorul privat și autorități devin aproape inevitabile.
Rămâne de văzut dacă Anthropic va face concesii sau va rezista presiunilor guvernamentale, iar modul în care va evolua acest incident va influența pe termen lung modul în care tehnologia de inteligență artificială va fi integrată în echipamentele și operațiunile militare americane. Cert este că, în ciuda apelurilor la reglementare, interesul pentru acces rapid și fără restricții la cele mai avansate tehnologii AI rămâne unul din pilonii strategici ai Pentagonului în drumul său către modernizare.
Tensiunile din acest caz evidențiază corelația tot mai evidentă între dezvoltarea tehnologică și factorii de securitate, o dinamică care va defini relația dintre sectorul privat și guvern în anii ce urmează.

Fii primul care comentează