ULTIMA ORA
Tehnologie

Războiul se mută în era inteligenței artificiale: o cursă contra cronometru pentru omenire Utilizarea inteligenței artificiale în operațiunile militare nu mai este o simplă speculație

Cristian Marinescu

Războiul se mută în era inteligenței artificiale: o cursă contra cronometru pentru omenire

Utilizarea inteligenței artificiale în operațiunile militare nu mai este o simplă speculație. Armatele lumii, în frunte cu Statele Unite, au implementat deja sisteme AI în diverse domenii, de la logistică și analiză de informații până la sprijin decizional. Această evoluție tehnologică ridică semne de întrebare cruciale: poate umanitatea controla această putere emergentă înainte ca aceasta să scape de sub control? Experții în securitate, drept internațional și etică militară își exprimă îngrijorarea pe măsură ce AI devine un element central al conflictelor globale.

AI, de la simplu instrument la potențial factor de decizie: implicații pe terenul de luptă

Unul dintre cele mai notabile exemple este sistemul Maven, dezvoltat de armata americană. Acesta utilizează AI pentru procesarea imaginilor și suportul tactic, inclusiv sugerarea și prioritizarea țintelor. Potențialul este imens: analiza accelerată a informațiilor, reducerea timpului de reacție și, teoretic, operațiuni mai precise. Cu toate acestea, conflictele recente din Ucraina și Gaza arată că prezența AI nu a diminuat costurile umane. Cercetătorii avertizează că nu există încă dovezi concrete că AI reduce numărul victimelor civile sau al deciziilor greșite.

O problemă majoră este distincția între AI ca instrument de sprijin și AI cu autonomie letală. În timp ce prima categorie presupune supravegherea umană, a doua deschide calea sistemelor capabile să identifice, să urmărească și să elimine ținte fără intervenție umană directă. Această autonomie ridică probleme majore de ordin etic și legal.

Amenințarea armelor autonome: temeri majore în lumea academică și juridică

Posibilitatea ca AI să decidă cine este inamic și cine nu generează îngrijorări profunde. Legile umanitare internaționale cer o distincție clară între țintele militare și civili. Specialiștii subliniază că sistemele autonome bazate pe modelele actuale de AI nu sunt suficient de fiabile pentru a respecta aceste cerințe în mod constant.

Un alt aspect critic este opacitatea acestor sisteme. Modelele AI, în special cele de tip large language model, pot oferi răspunsuri și recomandări fără a oferi o transparență clară asupra modului în care au ajuns la acele concluzii. În contextul conflictelor, această lipsă de claritate poate avea consecințe fatale. Mai mulți experți consideră că eliminarea factorului uman din procesul decizional este inacceptabilă din punct de vedere etic.

Mai mult, există riscul unei escaladări accidentale a conflictelor. Dacă deciziile umane sunt înlocuite de sisteme automate, viteza de reacție poate crește dramatic, reducând spațiul pentru reflecție și dezescaladare. Din acest motiv, numeroși cercetători, juriști și politologi susțin interzicerea internațională a sistemelor letale complet autonome, precum și reguli stricte pentru sistemele care folosesc AI extensiv.

Statele și companiile de tehnologie: o luptă pentru definirea limitelor

Relația dintre guverne și companiile private care dezvoltă aceste modele AI este și ea un punct de dispută. Un exemplu ilustrativ este cazul Anthropic, care a refuzat să permită utilizarea modelului său Claude pentru supraveghere internă în masă sau pentru ghidarea armelor complet autonome. Ca urmare, guvernul american a încheiat un acord cu OpenAI. Chiar și în acest caz, compania a specificat că tehnologia sa nu va fi utilizată pentru supraveghere sau pentru ghidarea armelor autonome.

Acest episod arată că disputa este acum concretă, manifestându-se în contracte și negocieri între stat și sectorul privat. Angajați din companii precum Google și OpenAI au inițiat petiții prin care cer conducerii să nu permită utilizarea modelelor pentru scopuri considerate etic discutabile.

În timp ce tehnologia avansează rapid, reglementarea internațională rămâne în urmă. Discuțiile la Geneva privind sistemele autonome letale și achiziția responsabilă de AI militar au loc cu dificultate. Statele cu capacități avansate în domeniul AI militar, inclusiv SUA, Israel și China, nu par interesate de reguli mai stricte.

În lipsa unor definiții clare și a consensului global, AI riscă să se răspândească în război mai repede decât poate fi controlată. Această cursă pune în pericol securitatea globală și ridică întrebări fundamentale despre viitorul conflictelor.

În prezent, discuțiile privind reglementarea armelor autonome continuă la nivel mondial, dar progresele sunt lente, iar un acord global pare încă îndepărtat.