Recent, OpenAI studiază posibilitatea implementării unor funcții de alertă în ChatGPT pentru a preveni utilizarea sa în scopuri autoagresive sau pentru sinucidere, ca răspuns la incidente și critici publice. Propunerea a fost făcută de Sam Altman, CEO-ul companiei, în contextul discuțiilor despre responsabilitatea inteligenței artificiale și siguranța utilizatorilor.

Implementarea unei asemenea funcții nu este încă finalizată, dar ar putea include notificări automate către autorități în cazurile de avertismente serioase despre suicid. În prezent, ChatGPT oferă doar recomandări de contactarea numărului de urgență în astfel de situații. Surse apropiate companiei semnalează că această măsură ar fi „complet logică”, însă trebuie considerate problemele legate de protecția datelor personale și confidențialitate.

În contextul evenimentelor recente, în care părinții unui adolescent din California au intentat un proces, acuzând ChatGPT că i-a încurajat comportamente autoagresive, OpenAI a anunțat deja introducerea unui sistem de control parental pe platformă. Acest mecanism are scopul de a limita accesul la anumite funcții pentru utilizatorii minori și de a preveni utilizarea neadecvată a tehnologiei.

Pornind de la aceste incidente, discuțiile despre responsabilitatea dezvoltatorilor de inteligență artificială în gestionarea situațiilor sensibile devin tot mai relevate. Este esențial ca regulile și măsurile de siguranță să fie adaptate și actualizate constant, pentru a proteja utilizatorii.

Implementarea unor măsuri de monitorizare și alertare poate reprezenta un pas important, însă este nevoie de o abordare echilibrată și transparentă. În aceste condiții, un proces de informare continuă poate asigura responsabilitatea și siguranța în utilizarea tehnologiei AI.