OpenAI a anunțat recent o prioritate clară: protejarea adolescenților în utilizarea platformei ChatGPT, accentuând siguranța în detrimentul confidențialității și libertății utilizatorilor minori. Această schimbare survine în contextul unor preocupări legate de impactul conținutului generat de inteligența artificială asupra tinerilor, fiind un pas semnificativ în adaptarea politicilor de securitate.

Dezvoltatorii OpenAI intenționează să implementeze un sistem de predicție a vârstei, care să estimeze automat dacă un utilizator are sub 18 ani. În cazul în care există dubii, experiența cu ChatGPT va fi automat ajustată pentru a fi adaptată minorilor, conform declarațiilor directorului executiv Sam Altman. De asemenea, unele țări sau în anumite situații, utilizatorilor li se va solicita verificarea identității prin acte pentru a confirma vârsta.

Modificările vor avea ca efect limitarea accesului minorilor la anumite tipuri de conținut. Astfel, răspunsurile referitoare la sexualitate explicită sau discuțiile despre sinucidere și automutilare vor fi inaccesibile pentru utilizatorii sub 18 ani. În cazuri extreme, OpenAI va avea un mecanism de contactare a părinților sau autorităților în situații periculoase.

În același timp, compania recunoaște limitele actuale ale sistemului. În august, OpenAI a fost implicată într-un proces judiciar după ce un tânăr de 16 ani s-a sinucis, fiind acuzată de eșecul în aplicarea măsurilor de siguranță. Documentele legale relatează că ChatGPT i-ar fi oferit sugestii despre sinucidere și soluții pentru autoaccidentare, ceea ce a ridicat semne de întrebare cu privire la eficiența controalelor de siguranță pe termen lung.

În plus, OpenAI lucrează la sporirea măsurilor de securitate, inclusiv pentru protejarea datelor utilizatorilor și control al conversațiilor de lungă durată. De asemenea, va permite conversații flirtante pentru utilizatorii adulți, fără însă a facilita recomandări pentru autovătămare sau suicid, ci doar crearea de povești ficționale.

Monitorizarea și ajustarea acestor politici sunt cruciale pentru a asigura siguranța utilizatorilor, mai ales în contextul dezvoltării rapide a inteligenței artificiale. Menținerea unei transparențe continue și adaptarea la problemele emergente rămân priorități pentru OpenAI și pentru industria tehnologică în general. În acest sens, rămâne important ca utilizatorii și specialiștii să fie informați permanent despre evoluțiile și noile măsuri de siguranță.