ChatGPT, sub lupa științei: un test cu rezultate îngrijorătoare
Un nou studiu a evaluat capacitatea modelului lingvistic vast ChatGPT de a evalua ipoteze științifice. Cercetarea, elaborată pe un eșantion consistent de întrebări, a scos la iveală deficiențe îngrijorătoare în capacitatea inteligenței artificiale de a distinge adevărul de fals. Rezultatele sugerează o nevoie urgentă de îmbunătățiri în algoritmul AI, mai ales în contextul în care astfel de instrumente devin tot mai prezente în diverse domenii.
Inconsecvențe și erori în evaluarea științifică
Echipa de cercetători a supus ChatGPT la un test riguros, punându-i la încercare capacitatea de a evalua sute de ipoteze științifice. Studiul a inclus peste 700 de afirmații, fiecare fiind verificată de zece ori pentru a măsura gradul de coerență al răspunsurilor. Rezultatele au arătat o lipsă semnificativă de acuratețe și o tendință pronunțată spre contradicție. „Am fost surprinși de gradul de inconsecvență al ChatGPT”, au declarat autorii studiului. „În multe cazuri, același model a oferit răspunsuri opuse la aceeași întrebare, în funcție de momentul în care a fost solicitat.”
Analiza a dezvăluit că modelul lingvistic are dificultăți în a aplica concepte științifice fundamentale și în a distinge între afirmații corecte și greșite. Aceste deficiențe ridică semne de întrebare cu privire la utilizarea ChatGPT în domenii critice, cum ar fi educația, cercetarea și luarea deciziilor bazate pe dovezi. Autorii au subliniat importanța unei evaluări continue și a îmbunătățirii algoritmilor pentru a asigura o mai mare fiabilitate.
Implicații pentru viitorul inteligenței artificiale
Descoperirile studiului au implicații importante pentru dezvoltarea și utilizarea inteligenței artificiale. Lipsa de consistență și erorile de judecată evidențiate demonstrează necesitatea unei abordări mai prudente în integrarea acestor tehnologii în diverse sectoare. Cercetătorii avertizează că, fără îmbunătățiri semnificative, utilizarea pe scară largă a acestor modele ar putea duce la răspândirea informațiilor false și la erori de interpretare.
Studiul a fost prezentat recent la o conferință internațională de etică în inteligența artificială, unde au fost dezbătute implicațiile acestuia asupra dezvoltării responsabile și a utilizării etice a tehnologiei. Specialiștii au subliniat necesitatea de a crea algoritmi mai transparenți și mai ușor de verificat, precum și de a dezvolta mecanisme de control care să minimizeze riscul răspândirii informațiilor eronate. Următorul pas este o serie de teste suplimentare, care au ca scop identificarea mai precisă a limitelor ChatGPT în evaluarea informațiilor științifice.
Sursa: G4Media