Un raport recent al organizației pentru drepturile omului Global Witness scoate în evidență probleme grave privind modul în care platforma TikTok recomandă conținut sexualizat minorilor, chiar și pentru conturile configurează pentru vârsta de 13 ani. Studiul arată că algoritmii platformei pot sugera în mod automat termeni de căutare și videoclipuri cu conținut explicit, chiar dacă nu există interacțiuni din partea utilizatorilor, punând în pericol siguranța minorilor online. Aceste descoperiri relevă dificultățile actuale ale tehnologiilor de moderare și impactul limitărilor legale recente.
La sfârșitul lunii iulie și începutul lunii august, cercetătorii au creat patru conturi de test pentru a verifica filtrarea conținutului explicit, fără a efectua căutări active sau interacțiuni. Conturile au fost setate cu vârsta de 13 ani și au activat modul de siguranță restrictionat, dar sugestiile de videoclipuri neadecvate pentru minori au ieșit în evidență. Surprinzător, algoritmii au recomandat conținut sexual explicit, cum ar fi videoclipuri cu acte sexuale explicite și imagini provocatoare, ascunse în videoclipuri aparent inofensive pentru a evita filtrele.
În cadrul testelor, au fost identificate și videoclipuri cu femei care își expuneau lenjeria sau simulau masturbarea, toate apărând ca sugestii în fluxul de conținut. Global Witness afirmă că aceste rezultate sunt „șocante” prin persistenta și rapiditatea cu care acestea apar, evidențiind dificultăți în moderarea conținutului prezentat minorilor. Deși platforma TikTok acuză că are peste 50 de funcții pentru siguranța adolescenților, problemele persistă.
În comunicările oficiale, TikTok susține că elimină rapid conținut încălcat regulilor, iar peste 90% dintre videoclipurile problematice sunt eliminate înainte de a fi vizualizate. Platforma anunță că, după raportarea acestor descoperiri de către Global Witness, a actualizat algoritmii de sugestii și a eliminat conținutul nepotrivit. Totodată, subliniază că promovează o experiență „adecvată vârstei” și a îmbunătățit măsurile de siguranță pentru utilizatorii minori.
Legislația recentă din Marea Britanie, precum „Children’s Codes” din Online Safety Act, impune platformelor obligația de a implementa măsuri mai eficiente pentru verificarea vârstei și de a bloca accesul la conținut periculos. Cu toate acestea, investițiile în tehnologii de moderare și verificare a vârstei încă nu au fost suficiente pentru a elimina complet problemele. Problemele persistă, iar autoritățile de reglementare sunt chemate să monitorizeze îndeaproape modul în care platformele își îndeplinesc angajamentele.
Rezultatele studiului evidențiază necesitatea unei supravegheri continue și a actualizării eficiente a măsurilor de protecție pentru minori în mediul online. Pe termen mediu și lung, succesul depinde de modul în care platformele combină moderarea automată, verificarea identității și intervențiile umane. Este important ca autoritățile și companiile să monitorizeze evoluția acestor tehnologii, având în vedere riscurile persistente pentru siguranța minorilor.