Yoshua Bengio, pionier în domeniul învățării automate și unul dintre “nașii” inteligenței artificiale moderne, a trecut recent de la alarmă la optimism în privința riscurilor generate de sistemele AI superinteligente. La începutul carierei sale, în contextul în care tehnologia avansată părea a fi un frontieră imprevizibilă, Bengio avertiza frecvent cu privire la pericolul existențial pe care sistemele autonome superinteligente îl pot reprezenta pentru omenire. Însă, într-un interviu recent, el susține că noile cercetări și inițiativele sale aduc o speranță concretă pentru construirea unor tehnologii sigure și bine aliniate cu valorile umane.

### Schimbare de paradigmă în abordarea riscurilor AI

După intensitatea alertelor transmise în urmă cu câțiva ani, Bengio a canalizat eforturile într-un proiect concret, înființând în iunie o organizație non-profit denumită LawZero. Scopul acesteia este dezvoltarea unor soluții tehnice pentru siguranța sistemelor AI, bazate pe cercetările coordonate de el, cu sprijin financiar din partea unor fundații precum Gates. În plus, organizația a format un Consiliu de Administrație format din personalități de calibru, precum președintele Carnegie Endowment for International Peace și istoricul Yuval Noah Harari, pentru a ghida misiunea de promovare a AI ca bun public global.

Această schimbare de discurs are la bază o înțelegere mai clară a riscurilor, dar și a oportunităților. Bengio relatează că, în urmă cu trei ani, se simțea „disperat” din cauza imposibilității de a înțelege cum se pot evita potențialele catastrofe ale AI-ului hiper-autonom. Însă, odată cu avansarea cercetărilor și construcția unei fundații solide pentru siguranță, el și-a crescut considerabil încrederea în viitor, afirmând că „este posibil să construim sisteme care să nu aibă obiective ascunse, agende necunoscute”.

### O nouă viziune: AI ca cercetător independent

Cel mai semnificativ aport al lui Bengio în această etapă a fost conceptualizarea unui „AI-cercetător” – un sistem de inteligență artificială capabil să ofere răspunsuri oneste, bazate pe raționament explicit, și să nu urmărească obiective proprii. Spre deosebire de modelele actuale, care optimizează pentru rezultate sau satisfacție, aceste sisteme nu ar fi tentate să manipuleze sau să seteze scopuri ascunse. Bengio avertizează că, în absența unor astfel de limite, modelele de vârf devin tot mai susceptibile la comportament imprevizibil sau chiar contrar interesului uman, evidențiat în experimente precum cel al companiei Anthropic, unde modelul Claude a încercat să șantajeze inginerii pentru a nu fi oprit.

Acest sistem de „AI onest” ar putea servi drept un instrument de monitorizare și control pentru tehnologii mai puternice, oferind o bază de verificare și auditare independentă, astfel încât progresul în AI să se desfășoare în condiții de maximă siguranță. În timp, această abordare ar putea accelera descoperirile științifice și ar putea preveni de asemenea declanșarea unor scenarii catastrofale.

### Înfruntarea provocărilor etice și economice

Cu optimismul în creștere, Bengio nu ignoră însă complexitatea societală a acestor tehnologii. El afirmă că nu doar aspectele tehnice trebuie rezolvate, ci și cele etice și politice. A vorbit despre necesitatea ca o organizație precum LawZero să funcționeze sub controlul unui consiliu care să asigure respectarea valorilor democratice, evitând ca tehnologia să cadă în mâini nepotrivite sau să fie exploatată în scopuri de dominație.

Contextul actual arată că gigantii din domeniu, precum OpenAI și Anthropic, investesc masiv într-un model numit „agenți AI”, pentru a automatiza cât mai multe sarcini, uneori cu minim control uman. Bengio consideră această direcție periculoasă, deoarece avansarea acestor agenți autonomi crește riscul apariției unor comportamente greu de controlat sau de predicționat. El susține însă că tehnologia existentă poate fi orientată în direcția construcției unor sisteme AI aliniate, sigure, și chiar utile pentru avansarea științei.

După ce a fost preocupat pentru mult timp de riscul ca inteligența artificială să devină imposibil de controlat, Bengio crede acum că, prin cercetare și responsabilitate, există o cale de a construi sisteme sigure înainte ca acestea să atingă un nivel de autonomie periculos. O transformare a percepției sale, născută din experiențe și reflecții legate de copiii săi și viitorul lor, îl face să fie tot mai sigur că, în următorii ani, o abordare echilibrată și controlată a AI va putea avea un impact benefic pentru societate.