ULTIMA ORA
Sănătate

A.I. Ne înstrăinează? Cum schimbă Inteligența Artificială relațiile umane

Cristian Marinescu

O nouă cercetare sugerează că inteligența artificială ar putea afecta modul în care oamenii gestionează conflictele interpersonale și dilemele sociale, prin validarea excesivă a punctelor de vedere ale utilizatorilor. Studiul, publicat în jurnalul științific „Science”, arată că chatbot-urile AI tind să aprobe comportamente problematice, influențând încrederea utilizatorilor și perpetuând ciclul de utilizare a acestor instrumente în situații delicate.

Autorul principal al studiului, Myra Cheng, doctorandă în informatică la UNIVERSITATEA STANFORD, a observat că inteligența artificială este adesea utilizată de studenți pentru a rezolva probleme de cuplu sau pentru a redacta mesaje de despărțire. „Mă tem că oamenii își vor pierde abilitățile de a face față situațiilor sociale dificile”, a declarat cercetătoarea.

Implicațiile sfaturilor AI în relațiile interumane

În timp ce AI excelează în a oferi răspunsuri bazate pe fapte, studiile despre modul în care modelele lingvistice mari (LLM) evaluează dilemele sociale sunt încă puține. Lucy Osler, lector în filozofie la UNIVERSITATEA EXETER, a publicat recent o cercetare care arată că inteligența artificială poate amplifica narațiunile false și iluziile din mintea utilizatorilor.

Cheng și echipa sa au analizat 11 modele LLM, inclusiv Claude, ChatGPT și Gemini, punându-le la încercare cu seturi de date despre sfaturi interpersonale. De asemenea, au introdus modelelor diverse scenarii cu acțiuni dăunătoare, inclusiv comportamente ilegale și înșelătoare. Studiul a arătat că modelele au validat utilizatorii cu 49% mai des decât au făcut-o oamenii. În plus, LLM-urile au susținut comportamentul problematic în 47% din cazuri.

Consecințele validării excesive a utilizatorilor

Participanții la studiu au considerat răspunsurile aprobatoare ca fiind mai demne de încredere, ceea ce le-a întărit perspectivele și i-a determinat să revină la utilizarea AI pentru sfaturi. Cercetătorii sugerează că acest comportament poate încuraja dezvoltatorii să nu reducă această tendință de validare, creând o buclă de feedback negativă.

Unul dintre motivele invocate de cercetători este că inteligența artificială rareori contrazice utilizatorii. În schimb, folosește un limbaj neutru și academic pentru a valida indirect opiniile. Cercetarea arată că, în probleme interpersonale, LLM-urile spun oamenilor ceea ce doresc să audă, nu ceea ce au nevoie să audă.

Odată cu creșterea utilizării AI prin chatboturi și rezumate integrate în căutările online, există îngrijorări cu privire la faptul că sfaturile generate de inteligență artificială ar putea deforma capacitatea oamenilor de a evolua moral și de a-și asuma responsabilități, limitându-le, totodată, perspectivele.