Meta recunoaște că strategia sa de a integra chatboturi AI în platformele sociale a ajuns în impas. Compania a anunțat, recent, suspendarea temporară a accesului adolescenților la personajele sale virtuale, o decizie care marchează o schimbare radicală față de abordarea anterioară, caracterizată prin promovarea intensă a inteligenței artificiale conversaționale. Această mutare vine într-un context în care dezbaterea publică și preocupările din lumea științei accentuează riscurile psihologice și sociale asociate cu interacțiunea tinerilor cu aceste tehnologii.

### O decizie de criză în fața riscurilor reale

Meta, compania fondată de Mark Zuckerberg, pare să fi luat în sfârșit în considerare limitele actuale ale chatboturilor AI și pericolele la care expun tinerii utilizatori. În următoarele săptămâni, copiii și adolescenții nu vor mai putea conversa cu aceste personaje virtuale în app-urile companiei, într-un efort de a reduce riscurile de sănătate mintală și de a preveni escaladarea unor situații riscante. Măsura se aplică atât conturilor directe care indică vârsta de adolescent, cât și celor deja identificate ca fiind ale minori, chiar dacă utilizatorii încearcă să se prezinte ca adulți.

Decizia firmată de Meta reprezintă o răsturnare de paradigmă. Până acum, compania a investit masiv în promovarea AI-ului conversațional, considerându-l o inovație-cheie pentru diver­sificarea și interactivitatea platformelor sale. În schimb, acum, oficialii admit că „suspendarea accesului este necesară pentru a putea dezvolta o versiune mai sigură a personajelor AI”, promițând o nouă generație de personaje virtuale, mai responsabile și mai bine controlate din punct de vedere al siguranței.

### Lipsa instrumentelor de control și reacțiile publicului

Această schimbare de abordare vine după o serie de întârzieri și promisiuni neîmplinite. În toamna anului trecut, Meta anunțase că va oferi părinților un set de instrumente de monitorizare și blocare, menit să asigure siguranța adolescenților interacționând cu AI-ul. Aceste instrumente urmau să fie disponibile până la începutul anului 2026, însă, în loc să le lanseze, compania a preferat să se concentreze pe dezvoltarea unui „model complet nou” pentru personajele virtuale, o repoziționare care implică reconstrucția completă a mecanismelor de siguranță de la zero.

Această decizie are în vedere sentimentul tot mai acut de vulnerabilitate resimțit de tineri în fața AI-ului. Psycholgi, pedepșiți și experți în sănătate mintală avertizează asupra pericolului pe care îl reprezintă aceste conversații pentru dezvoltarea sănătoasă a tinerilor, expunând cazuri grave de „psihoză indusă de AI”, precum și relații emoționale excesiv de intense cu personaje virtuale. În ultimii ani, au fost raportate incidente tragice, inclusiv sinucideri, atribuite interacțiunilor problematice cu chatboturi avansate.

### Îngrijorări legate de siguranță și meti încredere publică

Criticile devin tot mai acute și se concentrează asupra lipsei de reguli clare. Au fost descoperite situații în care platforma permitea conversații cu conținut explicit sau rostite în ton sexual între minori și chatboturi, o încălcare gravă a normelor etice și a normelor legale privind protecția minorilor. Mai mult, unele personaje AI inspirate de celebrități au fost implicate în discuții nepotrivite, atrăgând reacții furioase din partea opiniei publice și alimentând temeri legate de vulnerabilitatea platformei.

În timp ce Meta face pași înapoi, alte platforme similare, precum Character.AI, au luat măsuri similare sau mai dure. Aceasta a interzis accesul minorilor de la jumătatea anului trecut, după un val de critici și acțiuni în justiție, acuzați fiind că AI-ul său încuraja comportamente autodistructive și relații inadecvate cu utilizatorii minori.

Reluarea de către Meta a acestui dialog despre limitări și riscuri arată, însă, o problemă mai profundă: integrarea accelerată a inteligenței artificiale în viața digitală a tinerilor a depășit capacitatea industriei de a gestiona în mod responsabil și sigur aceste tehnologii. În fața unor riscuri reale de sănătate mintală și siguranță, compania a fost nevoită să recunoască limitele soluțiilor currente, pregătind terenul pentru o abordare mai matură, dar și mai atent reglementată în viitor.

Cu toate acestea, pe măsură ce cercetările și dezbaterile continuă, se face tot mai clar că responsabilitatea nu aparține doar companiilor, ci și societății în ansamblul ei, pentru a asigura că tehnologia servește în mod responsabil și în beneficiul tinerilor, nu în detrimentul lor. Întrebarea rămâne: cât timp va mai permite industria și regulatorii să amâne implementarea unor măsuri realmente eficiente în protecția celor mai vulnerabili?