
OpenAI intenționează să lanseze în viitorul apropiat un sistem de control parental pentru ChatGPT, ca răspuns la o serie de incidente controversate și la un scandal major din SUA. Anunțul survine după o plângere depusă de părinții unui adolescent californian de 16 ani, care s-a sinucis. Ei au acuzat compania că inteligența artificială i-ar fi furnizat fiului lor instrucțiuni detaliate despre cum să-și pună capăt zilelor, ceea ce a adus în discuție responsabilitatea dezvoltatorilor de AI în protecția minorilor.
În comunicatul oficial, OpenAI a explicat că părinții vor putea conecta contul copilului la propriul cont și vor putea seta reguli clare privind interacțiunea cu ChatGPT. Printre opțiuni se vor afla limite de timp de utilizare, restricții pe subiecte sensibile și ajustări legate de tonul răspunsurilor generate de AI. De asemenea, compania a anunțat implementarea unui sistem de alertă care va notifica părinții dacă modelul detectează semne de suferință psihică acută. Această măsură are scopul de a permite intervenția rapidă și de a oferi părinților acces la informații despre riscurile la care poate fi expus copilul.
OpenAI a promis că parametrii de control pentru conturile minori vor putea fi ajustați cu mai multă acuratețe, astfel încât interacțiunile cu ChatGPT să fie adaptate la nevoile și vulnerabilitățile adolescenților. În paralel, compania are în vedere implementarea unor măsuri suplimentare, precum redirecționarea conversațiilor sensibile către modele mai avansate, inclusiv GPT-5 Thinking, pentru a aplica directive de securitate mai stricte și pentru a reduce riscurile de răspunsuri periculoase.
Impactul tragediei din California a intensificat dezbaterile despre responsabilitatea dezvoltatorilor de AI în protecția sănătății mintale a tinerilor. Specialiștii și părinții atrag atenția asupra vulnerabilității adolescenților în fața produselor digitale, în condițiile în care tehnologia poate influența decizii grave. OpenAI recunoaște că trebuie să îmbunătățească modul în care modelele sale gestionează situațiile de criză emoțională și că sistemele vor fi antrenate mai riguros pentru identificarea semnelor de suferință.
Aceste măsuri ar putea constitui un precedent în stabilirea responsabilității companiilor de AI față de utilizatorii minori. În același timp, dezbaterea etică despre interventia algoritmilor în viața privată a tinerilor continuă, fiind esențială monitorizarea evoluției și adaptării legislative. În final, introducerea controlului parental pentru ChatGPT reprezintă un pas important în asigurarea siguranței, dar nu înlocuiește necesitatea unei implicări active a părinților și a societății în protejarea sănătății mintale a adolescenților. Este crucial ca evoluțiile în domeniu să fie urmărite cu atenție, pentru a păstra un echilibru între inovație și responsabilitate.
Fii primul care comentează