Un raport recent evidențiază problemele legate de acuratețea răspunsurilor generate de chatbot-urile cu inteligență artificială, inclusiv modele dezvoltate de OpenAI, Meta și alte companii. Studiul arată că aceste tehnologii, în loc să reducă, pot furniza informații false în proporție semnificativă, fiind un aspect critic în domeniul AI.

Chatbot-urile cel mai susceptibile de a produce afirmații false sunt Pi de la Inflection AI și Perplexity AI, cu rate de 57% și, respectiv, 47%. Modelele mai populare, precum ChatGPT și Llama, generează răspunsuri falsificate în circa 40% din cazuri. În schimb, modelele cu cele mai mici rate de erori sunt Claude de la Anthropic și Gemini de la Google, cu 10% și, respectiv, 17%. O creștere semnificativă a dezinformării a fost înregistrată de Perplexity, care în 2024 avea 0% răspunsuri false, procent ce a crescut la 46% în august 2025.

Diferențele în calitatea răspunsurilor pot fi atribuite, în parte, modificărilor în modul în care chatbot-urile gestionază întrebările fără suficiente informații. Pentru a evita răspândirea de informații eronate, aceste modele nu mai refuză răspunsurile în cazul lipsei de date, accentuând astfel riscurile.

Rezultatele studiului relevă și probleme legate de citarea surselor de dezinformare, printre care site-uri rusești precum Storm-1516 și Pravda. În situații cu informații false, chatbot-urile au citat frecvent astfel de surse, amplificând riscul de a răspândi dezinformare.

Raportul evidențiază, de asemenea, că, în ciuda anunțurilor privind îmbunătățirea siguranței și acurateței modelelor, acestea continuă să facă greșeli asemănătoare cu cele din anul anterior. În plus, unele modele, precum Mistral, repetă afirmații false despre situații din Franța și Rusia, ceea ce indică dificultăți persistente în controlul de conținut.

Studiul arată că evaluarea acurateței răspunsurilor AI se bazează pe diferite teste, inclusiv solicitări neutre și întrebări rău intenționate, pentru a verifica dacă modelează răspunsuri false sau refuză să răspundă. În total, cercetarea relevă o nevoie continuă de monitorizare și adaptare pentru a gestiona riscurile de dezinformare generate de chatbot-urile cu inteligență artificială.

Este esențial ca utilizatorii și dezvoltatorii de AI să rămână informați și să urmărească evoluțiile tehnologiei, pentru a asigura utilizarea responsabilă a acestor modele.