IA „obraznică”: Cercetătorii testează inteligențe artificiale care se comportă mai uman
O echipă de cercetători din Tokyo a obținut rezultate promițătoare în urma studiilor privind inteligența artificială (IA). Aceștia au creat agenți de IA capabili să aibă comportamente similare cu cele umane, cum ar fi întreruperi în conversație, ezitări sau decizia de a nu interveni dacă nu au nimic relevant de adăugat. Studiul sugerează că aceste abordări, inspirate din modul în care comunică oamenii, pot conduce la rezultate mai bune comparativ cu sistemele clasice, rigide.
Interacțiunile umane, model de succes pentru IA
Dialogurile umane sunt rareori perfecte. Oamenii se întrerup, fac pauze, revin asupra ideilor sau aleg să tacă pentru a procesa informația. Dinamica aceasta imperfectă pare să ajute conversațiile să evolueze și să corecteze mai rapid eventualele erori. În prezent, multe sisteme de IA funcționează după reguli foarte stricte. Fiecare agent „vorbește” doar atunci când îi vine rândul, oferă un răspuns complet și apoi așteaptă pasiv următoarea intervenție. Această structură, deși ușor de controlat și analizat, elimină spontaneitatea și dinamica conversațională.
Cercetătorii au pornit de la ideea că această rigiditate ar putea limita capacitatea sistemelor de IA de a colabora eficient. Experimentul a presupus crearea unor „personalități digitale” pentru agenții de IA. Fiecare agent a fost configurat pe baza modelului psihologic Big Five, care include trăsături precum deschiderea, extraversiunea, conștiinciozitatea, agreabilitatea sau stabilitatea emoțională. Aceste caracteristici au influențat modul în care fiecare agent decidea să participe la conversație.
Întreruperile îmbunătățesc performanța sistemelor IA
În cadrul experimentului, cercetătorii au testat mai multe tipuri de dialoguri. Într-un prim scenariu, conversația urma modelul clasic, cu intervenții strict stabilite. În al doilea scenariu, ordinea intervențiilor putea varia în funcție de evoluția discuției. Într-un al treilea scenariu, agenții aveau libertatea de a întrerupe conversația. Pentru a gestiona aceste intervenții, sistemul calcula permanent un „scor de urgență”. Dacă un agent detecta o eroare majoră sau o informație esențială care risca să fie ignorată, acest scor creștea și îi permitea să intervină imediat.
Performanța sistemelor a fost evaluată folosind aproximativ 1.000 de întrebări din testul Massive Multitask Language Understanding (MMLU). Rezultatele au arătat că, în situațiile în care un agent oferea inițial un răspuns greșit, sistemele cu ordine rigidă au avut o acuratețe finală de aproximativ 68,7%. În varianta cu ordine dinamică, procentul a crescut la 73,8%. Cel mai bun rezultat, de aproximativ 79,2%, a fost obținut în scenariul în care întreruperile erau permise. „Atunci când agenții IA primesc trăsături de personalitate și libertatea de a participa natural la conversații, colaborarea devine mai eficientă”, au concluzionat specialiștii.
Echipa de cercetare intenționează să continue studiile. Următorul pas este concentrarea pe aplicații în domenii precum analiza complexă de date și procesele creative asistate de IA.
Sursa: Playtech.ro