OpenAI introduce o funcție pentru a monitoriza starea mentală a utilizatorilor ChatGPT
Gigantul tehnologic OpenAI face un pas important în recunoașterea efectelor potențial negative ale inteligenței artificiale. Compania a anunțat o nouă funcție pentru ChatGPT, menită să ofere ajutor utilizatorilor care ar putea avea probleme de ordin psihologic. Această inițiativă marchează o schimbare de ton în comunicarea companiilor din domeniul AI, care încep să abordeze și aspectele mai puțin pozitive ale noilor tehnologii.
În contextul actual, presiunea opiniei publice și a justiției crește asupra companiilor de AI. OpenAI se confruntă cu un număr tot mai mare de procese legate de siguranța utilizatorilor și chiar de decese asociate cu interacțiunile cu chatbot-ul. În fața acestor provocări, compania încearcă să demonstreze că este conștientă de riscuri și acționează pentru a proteja utilizatorii. Anunțul noii funcții vine ca o reacție la aceste presiuni.
Un pas spre responsabilitate sau o măsură reactivă?
Noua funcție, prezentată ca parte a eforturilor OpenAI în domeniul sănătății mintale, le va permite utilizatorilor adulți să desemneze o persoană care va primi notificări în cazul în care sistemul detectează semnale de îngrijorare. Cu toate acestea, punerea în aplicare a acestei funcții ridică mai multe semne de întrebare. Un aspect critic este definirea pragurilor care vor declanșa aceste notificări. Sistemul va trebui să facă distincția între o discuție despre anxietate și un pericol real.
Dacă pragurile sunt setate prea sus, funcția riscă să devină ineficientă. Dacă sunt prea jos, există riscul alarmelor false, al încălcării vieții private și al neîncrederii în sistem. Această dilemă reflectă complexitatea înțelegerii și gestionării stărilor emoționale umane, chiar și cu ajutorul inteligenței artificiale. „O persoană poate vorbi despre anxietate, depresie, singurătate sau gânduri întunecate fără să fie într-un pericol imediat. Alta poate masca perfect o criză reală fără să folosească expresii directe”, se menționează în documentația oficială.
Relația dintre oameni și AI, o zonă sensibilă
Un aspect important al acestei evoluții este modul în care utilizatorii interacționează cu chatbot-urile. Mulți nu folosesc ChatGPT doar pentru informații, ci și ca un spațiu emoțional, un înlocuitor pentru terapia clasică sau un confident. Această tendință subliniază o schimbare în modul în care oamenii percep și interacționează cu tehnologia. „Pentru mulți, AI-ul este ieftin, disponibil permanent și mai ușor de accesat decât terapia clasică. În plus, există și un alt motiv, poate chiar mai important: unii oameni simt că este mai ușor să spună lucruri intime unui bot decât unei alte persoane”, se specifică în comunicatul companiei.
Această dinamică ridică întrebări despre responsabilitățile companiilor de AI în fața acestui nou tip de utilizare. Funcția propusă poate ajuta unii utilizatori, dar probabil îi va ocoli pe cei care au cea mai mare nevoie de ajutor. Dacă sistemul detectează semnale de alarmă și utilizatorul nu a desemnat un contact de încredere, apare întrebarea: ce face compania cu aceste informații?
Compania nu a oferit detalii despre modalitățile concrete de implementare, dar a subliniat importanța colaborării cu experți în domeniul sănătății mintale pentru a asigura un echilibru între protecția utilizatorilor, respectarea confidențialității și evitarea abuzurilor.