Un studiu recent realizat de cercetători de la OpenAI și Georgia Tech aduce în discuție un aspect esențial al funcționării modelelor de inteligență artificială: halucinațiile din sistemele AI nu apar din cauza datelor greșite, ci din modul în care acestea sunt antrenate pentru a răspunde. Constatările indică faptul că modelele lingvistice de mari dimensiuni (LLM), precum cele utilizate de platforme precum ChatGPT, sunt programate să ofere răspunsuri sigure și coerente, chiar și în absența unor informații exacte. Aceasta poate duce la situații în care AI „blufează” sau vine cu răspunsuri incorecte, în loc să admită că nu știe.

Modelele de inteligență artificială nu pot fi „atotștiutoare”, explică cercetătorii. Chiar și cu date de antrenament perfecte, acestea nu pot răspunde corect la toate întrebările. Unele provocări, precum cele complexe și specifice, nu pot avea soluții generale. Într-un articol publicat în octombrie 2025, cercetătorii arată matematic că rata totală de eroare a unui model va fi cel puțin dublul ratei de clasificare corectă a faptelor, ceea ce face imposibilă atingerea unui nivel de precizie perfectă.

De ce companiile evită să antreneze AI să spună „nu știu” poate fi explicat prin motive economice și comerciale. Dacă un chatbot recunoaște prea frecvent necunoașterea, utilizatorii s-ar putea îndrepta spre alte surse. În prezent, testele de performanță recompensează răspunsurile corecte și penalizează ezitarea sau răspunsurile greșite, determinând dezvoltatorii să optimizeze AI pentru rezultate aparent sigure. Această abordare contribuie la halucinațiile modelului, chiar dacă acestea nu sunt corecte.

Există și dificultăți în modificarea acestor teste pentru a încuraja recunoașterea necunoașterii. Lideri în domeniu, precum cercetătorii de la Princeton și Illinois, consideră că schimbările necesită abordări complexe și diversificate, iar uneori pot avea efecte inverse. Creșterea costurilor energetice și a resurselor de calcul face dificilă implementarea drastică a noilor metode, mai ales dacă se consideră impactul asupra venitului regenerat din interacțiunile utilizatorilor.

Rezultatele recente ale studiului evidențiază o problemă fundamentală: pentru a îmbunătăți precizia, modelele AI trebuie să fie învățate să accepte și necunoscutul. Însă, un chatbot care răspunde prea des cu „nu știu” poate fi perceput ca inutil, deși o astfel de abordare ar fi mai sigură și mai onestă. Continuierea cercetării și monitorizarea evoluției tehnologiei devin, astfel, priorități pentru dezvoltarea unor sisteme AI mai responsabile și transparente.