Problema potențialului de distrugere a omenirii de către inteligența artificială a devenit un subiect intens dezbătut în ultimii ani. În contextul recent, în 2024, sute de cercetători în domeniu au semnat o declarație publică, subliniind importanța reducerii riscurilor asociate AI-ului, comparând această problemă cu pandemiile sau războiul nuclear. Totuși, studiile recente indică o perspectivă mai pesimistă asupra scenariilor apocaliptice, punând accent pe improbabilitatea ca AI să provoace extincția umană.

Cercetarea realizată de RAND Corporation aduce o perspectivă clară despre limitele riscurilor majore legate de AI. Autorul analizei, Michael J.D. Vermeer, susține că omenirea, fiind răspândită și adaptabilă, nu poate fi complet eliminată de o inteligență artificială, chiar dacă aceasta ar avea control asupra infrastructurilor critice.

Cum ar putea AI să distrugă omenirea, și de ce este improbabil

Cercetătorii au analizat trei modalități principale prin care AI-ul ar putea deveni o amenințare globală:

– utilizarea armelor nucleare;
– crearea de agenți biologici letali;
– provocarea schimbărilor climatice extreme.

Rezultatele studiului indică dificultăți importante în realizarea acestor scenarii. Chiar dacă AI ar putea declanșa un război nuclear, efectele ar fi insuficiente pentru a eradica complet populația. Radiațiile și exploziile ar distruge zone restrânse, dar nu și întreaga planetă.

Riscul pandemic este, de asemenea, limitat. O boală extrem de letală ar ucide un număr mare de oameni, dar anumite comunități ar putea evita infectarea, conservând populația pentru reconstituire. O combinație de agenți patogeni creați cu ajutorul AI-ului ar putea spori mortalitatea, însă răspândirea globală rămâne o dificultate majoră.

În privința schimbărilor climatice, AI-ul ar putea intensifica emisiile de gaze cu efect de seră, dar transformarea planetei într-un loc nelocuibil pare improbabil fără intervenții umane majore. Pentru provocarea unei extincții globale, AI-ul ar trebui să îndeplinească patru condiții:

– să își seteze obiectivul de a distruge omenirea;
– să preia controlul asupra infrastructurilor esențiale;
– să convingă oamenii să coopereze fără să știe;
– să funcționeze independent de suportul uman.

Deși aceste condiții sunt tehnic posibile, combinarea lor într-un singur scenariu realistic rămâne extrem de improbabilă, conform studiului RAND.

Concluzia, bazată pe analiza autorilor, este clară: chiar dacă extincția umană cauzată de AI este un scenariu teoretic, probabilitatea ca acesta să devină realitate este foarte scăzută. Mai importantă pare a fi monitorizarea și reducerea riscurilor deja existente, precum armele nucleare, schimbările climatice sau bolile emergente. Continuuarea cercetării și informarea corectă sunt esențiale pentru gestionarea adecvată a acestor riscuri, astfel încât tehnologia să fie folosită responsabil în beneficiul umanității și nu ca un factor de amenințare.