OpenAI a recunoscut recent că modul în care au fost antrenate modelele de inteligență artificială a contribuit semnificativ la fenomenul denumit „halucinații”. Acest termen descriptive se referă la răspunsuri false, generate cu un nivel ridicat de încredere, dar fără acoperire factuală, și reprezintă una dintre cele mai mari provocări pentru modelele lingvistice avansate, chiar și în cele mai recente versiuni.

De ce „inventează” modelele AI răspunsuri eronate?

Modelele de inteligență artificială, precum cele dezvoltate de OpenAI, oferă răspunsuri pe bază de date și algoritmi complexi. Cu toate acestea, dacă nu au suficiente informații, acestea pot „ghici” răspunsuri, tratându-le ca fiind corecte. Acest fenomen are rădăcini în modul de evaluare actual, în care modele primesc recompense pentru răspunsuri corecte și penalizări pentru cele greșite. Dacă un sistem admite că nu știe, penalizarea este mai mare decât dacă inventează o explicație, ceea ce stimulează „ghicitul” răspunsurilor și promovarea informațiilor false.

Impactul asupra industriei AI

Specialiștii avertizează că pe măsură ce modelele devin mai complexe, fenomenul halucinațiilor se poate agrava. Acest lucru ridică probleme ale fiabilității și cerințe sporite pentru testarea și monitorizarea acestor tehnologii. Industria trebuie să echilibreze investițiile uriașe și impactul ecologic, în timp ce încearcă să reducă greșelile fundamentale.

Propunerile OpenAI pentru o evaluare mai precisă

OpenAI a anunțat, recent, că recunoaște că metodologia de antrenament a fost greșită și afectează întreaga industrie. Într-un articol și pe blog, compania propune modificarea criteriilor de evaluare pentru modelele AI. Soluția implică:

– Penalizarea mai severă a răspunsurilor încrezătoare și false.
– Încurajarea modelelor care recunosc limitele cunoștințelor lor.
– Recompensarea parțială a modelelor care admit incertitudinea.

Aceste ajustări ar putea schimba comportamentul modelelor și ar reduce frecvența halucinațiilor. De asemenea, ar stimula dezvoltarea unor sisteme capabile să semnaleze gradul de siguranță al răspunsurilor.

Reacțiile și perspectivele industriei

Deși OpenAI susține că modelele recente, precum GPT-5, produc mai puține erori, reacțiile utilizatorilor rămân rezervate. Mulți experți consideră că soluțiile propuse necesită teste suplimentare pentru a dovedi eficiența. Industria AI trebuie să continue să monitorizeze evoluțiile pentru a îmbunătăți fiabilitatea tehnologiilor sale.

În final, reducerea erorilor și crearea unor sisteme mai sigure depind de ajustări continue și de o evaluare riguroasă. Este esențial ca cercetarea în domeniu să continue pentru a asigura o utilizare mai precisă a inteligenței artificiale.