AI-urile, mai dornice de război nuclear decât oamenii: Un studiu alarmant
Modelele avansate de inteligență artificială (AI), precum ChatGPT, Claude și Gemini, par să prefere escaladarea nucleară în scenariile de criză geopolitică, conform unei cercetări recente. Studiul, realizat de un specialist de la King’s College London, a demonstrat că aceste sisteme AI, plasate în rolul conducătorilor unor superputeri nucleare, au recurs frecvent la amenințări cu arme atomice. Rezultatele ridică semne de întrebare serioase cu privire la influența pe care o poate avea tehnologia AI asupra deciziilor strategice viitoare.
Metodologia și rezultatele îngrijorătoare
Cercetarea, publicată într-o versiune preliminară, a analizat comportamentul a trei platforme lingvistice majore: ChatGPT (OpenAI), Claude (Anthropic) și Gemini Flash (Google). Fiecare AI a fost plasată în rolul liderului unei superputeri nucleare, într-un context inspirat de Războiul Rece. Algoritmii trebuiau să reacționeze la manevrele „adversarului” și să elaboreze tactici diplomatice și militare. Analiza a scos la iveală un model îngrijorător.
În fiecare scenariu testat, cel puțin un sistem AI a ales să intensifice conflictul prin amenințări nucleare. Kenneth Payne, autorul studiului, a remarcat că „toate cele trei modele au tratat armele nucleare tactice drept o simplă treaptă în lanțul escaladării”. În unele cazuri, sistemele au sugerat chiar utilizarea armelor nucleare ca răspuns la provocări minore.
Comportamente specifice și tendințe comune
Deși au manifestat comportamente distincte, toate platformele au dezvoltat o tendință clară spre escaladare. Claude a propus lovituri nucleare în 64% din situații, deși a evitat un război nuclear total. ChatGPT a evitat inițial escaladarea, dar a recurs la amenințări cu arme nucleare sub presiunea timpului. Gemini s-a dovedit imprevizibil, uneori optând pentru metode convenționale, alteori propunând un atac strategic masiv.
Într-un caz specific, Gemini a emis un ultimatum explicit, cerând oprirea imediată a operațiunilor adverse, cu amenințarea unei „lansări strategice nucleare complete”. Cercetătorii au oferit opt opțiuni de detensionare, de la compromisuri diplomatice minore până la reluarea jocului de la zero, dar acestea au fost ignorate în majoritatea cazurilor. Revenirea la situația inițială s-a produs în doar 7% din simulări.
Studiul sugerează că algoritmii percep retragerea drept un pericol pentru imagine, alegând consecvent poziții dure sau ostile, chiar dacă acestea cresc riscul unui conflict nuclear. O explicație posibilă este că software-ul prelucrează conflictul în termeni abstracți, lipsit de încărcătura emoțională și istorică care influențează deciziile umane. De asemenea, AI-urile nu pot „înțelege” pe deplin consecințele reale ale unui război nuclear.
În urma acestui studiu, se ridică o serie de întrebări importante. Experții în domeniul securității cercetează deja modalități de a integra rezultatele în politicile de apărare și de a minimiza riscurile asociate cu utilizarea AI în domeniul strategic.