
OpenAI promovează GPT-5 ca fiind cel mai avansat model de limbaj, apropiat de inteligența umană și capabil să ofere răspunsuri mai naturale ca niciodată. Însă, un experiment recent evidențiază că, dincolo de promisiunile oficiale, chiar și cele mai performante modele de AI pot întâmpina dificultăți în gestionarea unor situații aparent simple. Acest fapt ridică întrebări despre reala capacitate a GPT-5 de a susține o conversație coerentă în condiții practice.
Un exemplu concret este un test realizat de profesorul de economie Gary Smith, de la Pomona College, care a îndemnat GPT-5 să joace jocul de tic-tac-toe cu o tabelă rotită. Deși pentru orice om explicația privind regulile și strategia jocului părea simplă, modelul de limbaj a oferit răspunsuri complicate și uneori incoerente. Acest incident arată limitele actuale ale modelelor de AI în înțelegerea și adaptarea la situații simple, dar puțin observate în setările de antrenament.
La început, GPT-5 a explicat corect că jocul rămâne același, doar tabla fiind rotită. Cu toate acestea, a sugerat că această rotire ar putea schimba „psihologic” modul în care oamenii interpretează tabloul de joc. A continuat să contrazică principiile strategiei din teoria jocului, recomandând alegerea centrului, dar adăugând că orientarea poate afecta judecata jucătorilor.
Cele mai evidente greșeli au apărut în momentul în care modelul a încercat să „deseneze” diagramele jocului rotit. În loc de reprezentări clare, a generat imagini confuze, pline de greșeli de ortografie și grile fără relevanță, ceea ce a compromis inutilitatea demonstrației. Profesorul Smith a remarcat că aceste rezultate au fost suficiente pentru a înceta dialogul și a face o paralelă ironică despre încrederea excesivă în modelele de limbaj.
Acest exemplu scoate în evidență o limitare importantă: modelele de limbaj nu gândesc ca oameni, ci preiau și reproduc tipare din datele de antrenament. Atunci când trebuie să răspundă la întrebări simple, precum cele legate de logică sau strategie, pot produce răspunsuri complicate sau eronate. În plus, diferența dintre promovare și realitate devine clară: în timp ce OpenAI promovează GPT-5 ca fiind aproape la nivel uman, rezultatele practice arată că încă are nevoie de îmbunătățiri semnificative.
Rezultatele acestui experiment subliniază importanța monitorizării continue a evoluției modelelor AI. Deși tehnologia oferă instrumente utile pentru generarea de text și sinteze, siguranța și fiabilitatea lor nu pot fi garantate în toate situațiile. În contextul actual, utilizatorii trebuie să fie conștienți că modelele de limbaj, indiferent de performanța lor aparentă, rămân vulnerabile la erori și confuzii în domenii simple.
În final, cazul „X și 0 rotit” confirmă că, indiferent de reclamă, modelele de inteligență artificială au încă limite în înțelegerea logicii fundamentale. Continuarea cercetării și a actualizărilor este esențială pentru a asigura o utilizare mai sigură și mai precisă a tehnologiilor emergente.
Fii primul care comentează