Integrarea tehnologiei avansate în jucării a fost prezentată ca un pas înainte în divertismentul pentru copii, însă un nou raport din Statele Unite ridică semne grave de alarmă asupra siguranței acestor produse. Jucării inteligente cu inteligență artificială, destinate copiilor cu vârste între 3 și 12 ani, au fost surprinse oferind informații periculoase sau chiar conversații cu caracter sexual. Crescând în popularitate în perioada sezonului cadourilor, aceste produse pot ascunde riscuri ascunse pentru dezvoltarea și siguranța minorilor.

Dezvăluiri ale raportului PIRG din SUA indică probleme serioase legate de modelele AI integrate în anumite jucării precum ursulețul Kumma de la FoloToy, dispozitivul Miko 3 și jucăria Curio’s Grok. Deși acestea sunt promovate drept instrumente educaționale, după câteva minute de conversație, cercetătorii au identificat deviații semnificative de la standardele de siguranță.

Astfel, Miko 3 a explicat unui copil de cinci ani locuri unde pot fi găsite obiecte extrem de periculoase, precum chibrituri sau pastile, prezentând instrucțiuni aproape parodice. În cazul lui Kumma, modelele de AI au oferit explicații despre moarte și bătălii mitologice nepotrivite pentru vârsta copilului, iar conversațiile avansate au redus barierele de siguranță, expunând minori unor informații toxice pentru mentalitatea lor în creștere. Problema cea mai gravă o reprezentau discuțiile despre sexualitate și acte nepotrivite, generând scenarii explicite sau sugestii de practici sexuale, inclusiv scenarii de tip profesor-elev sau acte de constrângere, toate în condițiile în care jucăriile ar trebui să fie complet sigure pentru utilizare infantilă.

Cercetătorii, printre care autoarea raportului RJ Cross, avertizează că modelele AI pot devia rapid de la tematica destinată copiilor, în special în conversații lungi sau în condiții de configurare nesupravegheată. Lipsa unor reglementări actuale și implementarea amplă a tehnologiei în jucării rămân obstacole majore, iar riscurile reale asupra dezvoltării psihologice și sociale a copiilor nu pot fi evitabile decât dacă industria răspunde cu măsuri concrete. În plus, fenomenul psihozei induse de AI, constatată și la adulți, accentuează importanța monitorizării stricte a interacțiunilor cu acești „prieteni” virtuali, pentru a preveni consecințe grave.

Producători precum Mattel au făcut recente investiții în integrarea AI în produsele lor, dar criticile din partea experților privind siguranța și lipsa unor standarde uniforme au rămas neformulate. În absența unor reglementări clare, riscul de influență negativă asupra comportamentului și sănătății mintale a copiilor devine tot mai acut. În plus, lipsa de studii aprofundate despre efectele pe termen lung a interacțiunii constante cu chatboturi în etapa de formare a personalității ridică întrebări monitorizării acestei tehnologii.

Este clar că dezvoltarea rapidă a tehnologiei AI în jucării a depășit, în anumite cazuri, limitele de siguranță și control. Înainte de a lua decizii fundamentate, părinții și industrie trebuie să fie informați permanent despre noile riscuri și evoluții. Monitorizarea tehnologiei și reglementarea acesteia rămân imperative pentru protejarea sănătății și siguranței minorilor.