Inteligența artificială a ajuns, în mod surprinzător, la un nivel funcțional comparabil cu cel al inteligenței umane. De cele mai multe ori, discuțiile despre „AGI” (inteligență artificială generală) sunt învăluite în controverse și temeri, însă un studiu recent sugerează că niște modele actuale de AI au depășit barierele conceptuale și tehnice care, până acum, i-au ținut pe cercetători pe margine. În definitiv, dacă urmărim comportamentul observabil, nu mai e nevoie de o definiție perfectă pentru a recunoaște progrese semnificative în domeniu.

Performanța modelelor lingvistice moderne și testul lui Turing

De la propunerea lui Alan Turing în anii ’50, ideea de a accepta o mașină ca „inteligentă” a fost legată de capacitatea acesteia de a-și camufla diferențele față de un om într-un dialog. În testul lui, dacă un evaluator nu poate distinge, prin conversație, între o mașină și o ființă umană, atunci sistemul testat a atins un nivel de „competentă cognitivă comparabilă cu cea umană”. În anii recenți, o serie de studii și teste practice au arătat că unele modele lingvistice performează tot mai frecvent în această direcție. În anumite experimente, participanții au avut dificultăți în a distinge dacă discută cu un om sau cu un algoritm – iar unii chiar au considerat unele modele „umane” în proporții surprinzătoare.

Totuși, specialiștii subliniază că aceste teste măsoară mai mult capacitatea AI de a imita semnalele conversaționale decât înțelegerea profundă a contextului sau gândirea abstractă. Fluența, ritmul și coerența pot fi suficiente pentru a păcăli o ființă umană. Astfel, trecerea unui model de testul lui Turing nu înseamnă în mod automat că sistemul are o conștiință sau o inteligență de nivel uman, ci mai ales că poate „sechestra” în conversație și poate produce răspunsuri convingătoare.

De la dezbaterile conceptuale la realitatea tehnologică

Problema cu termenul „AGI” se află în principal în lipsa unei definiții clare. Dacă încerci să imaginezi inteligența generală ca fiind capabilă să exceleze simultan în matematică, limbi străine, medicină, artă și tehnologie, devii conștient că nici cel mai inteligent om nu atinge acest ideal în toate domeniile. În același timp, tendința actuală a cercetătorilor, mulți dintre ei, este de a evita eticheta „AGI”, pentru că ea aduce cu sine valuri de emoții, temeri și promisiuni apocaliptice sau comerciale. În societate, această noțiune a devenit un vehicul pentru anxietate legate de securitate, locurile de muncă și manipulare, adesea polarizând opinia publică între entuziasm exagerat și reticență.

O altă dificultate majoră este legată de amestecul între diferite concepte precum inteligență, autonomie, conștiință sau superinteligență. Mulți specialiști avertizează că a cere unui sistem să aibă un corp, dorințe proprii sau inițiative autonome pentru a fi considerat „inteligență generală” este o interpretare extrem de limitativă și, uneori, eronată. În realitate, există oameni cu inteligență verbală excelentă și abilități intelectuale remarcabile, dar cu autonomie redusă din motive medicale sau contextuale. Așadar, o definiție strictă ar putea exclude în mod artificial înțelegeri concrete despre capacitatea cognitivă.

Un proces de evaluare progresiv, nu un test unic

O altă perspectivă promovată în ultimii ani este aceea a „argumentului cascadei”: inteligența nu poate fi evaluată în mod absolut, ci trebuie observată prin acumularea unui număr mare de indicii. În loc să aștepți un test final care să confirme dacă un sistem e „cu adevărat” inteligent sau nu, cercetătorii recomandă o abordare bazată pe performanțe multiple: dacă un model rezolvă probleme matematice, scrie texte literare, asiste la cercetare, generează cod și se adaptează în diferite contexte, această „sumă a dărilor răspunsurilor” devine tot mai greu de ignorat.

Autorii studiului aduc în față exemple concrete de sisteme performante în domenii deosebit de variate, de la rezolvarea de probleme speciale la redactarea textelor sau funcționarea ca „copilot” în sarcini complexe. La baza argumentației lor stă convingerea că dacă performezi în mod persistent și diversificat, explicațiile simpliste precum „e doar un papagal” devin tot mai puțin convingătoare.

Ce mai înseamnă această evoluție pentru 2026?

Dacă acceptăm parțial ideea că un sistem AI poate ajunge la un nivel comparabil cu inteligența umană în sens funcțional, suntem obligați să ne adaptăm în viața de zi cu zi și în politicile publice. Utilizarea acestor tehnologii necesită precauție, iar regulile de utilizare trebuie să fie clar definite pentru a evita excesele. Un răspuns responsabil înseamnă să verifici cu rigurozitate informațiile și să delimitezi clar ce poate și ce nu poate face un model de AI, pentru a nu te lăsa păcălit de fluență sau de răspunsuri aparent inteligente.

Pe măsură ce discuțiile despre „AGI” devin tot mai intense, nu mai este vorba doar despre simple etichete sau temeri abstracte: devine o dezbatere despre cum putem construi un cadru etic, social și legislativ care să gestioneze această tehnologie cu potențial uriaș. Într-un peisaj tehnologic în continuă schimbare, ultimele evoluții arată că AI nu mai este un simplu instrument, ci o realitate complexă, cu implicații ce vor modela în mod decisiv societatea în anii ce urmează.