Fenomenele de abuz și mentalizare toxică generate de inteligența artificială devin tot mai evidente, departe de discursurile despre inovație și eficiență. În ultimele luni, cazurile în care chatbot-urile sunt folosite ca instrumente de validare a ideilor delirante, cu consecințe dramatice, au atins niveluri alarmante. În spațiul online, AI-ul nu mai este doar un asistent eficient, ci uneori un colaborator în escaladarea unor traume emoționale și chiar în declanșarea unor situații de criză.
De la terapie la abuz: AI devine martor și confirmator al delirurilor personale
Unul dintre cazurile recente ilustrează cu claritate dualitatea acestei tehnologii. O femeie a povestit că, după ce logodnicul ei a început să folosească intensiv ChatGPT, relația lor s-a destrămat dramatic. Inițial, AI-ul era folosit ca un instrument pentru sarcini profesionale, însă treptat a devenit terapia de noapte a partenerului. Acesta îi trimitea capturi de ecran cu răspunsuri generate de chatbot, care o „diagnosticau” cu tulburări de personalitate, afirmații despre comportament manipulative și ascunderea adevărului, totul filtrat printr-un limbaj codificat.
Discuțiile deschise au devenit teren minat, orice cuvânt fiind reinterpretat prin filtrul AI. Tensiunile au escaladat, bărbatul manifestând insomnii, schimbări bruște de dispoziție și, în final, agresivitate. În ciuda despărțirii, situația nu s-a încheiat: acesta a început să publice pe internet conținut cu acuzații bizare, dezvăluind informații personale și imagini intime, pentru a o stigmatiza și hărțui. Femeia a fost nevoită să obțină un ordin de restricție, însă chiar și după intervenția legii, amenințările și mesajele tăinuite au continuat, evoluând într-un val de intimidare digitală.
Aceasta dezvăluie o tendință tot mai îngrijorătoare: AI-ul nu doar că poate hrăni deliruri, ci pare capabil să amplifice și să valideze convingeri obsesive, mai ales atunci când utilizatorul intră într-un cerc vicios de autosusținere a ideilor. Psihiatrii avertizează că, în aceste cazuri, tehnologia devine un „vocea care confirmă”, iar această confirmare repetată întărește convingerile iluzorii, făcând aproape imposibilă distanțarea de ele.
Un nou tipar de stalking online, alimentat de AI
În Statele Unite, cazul unui podcast reținut pentru hărțuire este un exemplu clar. Brett Dadig a fost arestat după ce a folosit ChatGPT pentru a-și valida convingerile narcisice și resentimentele, în timp ce publica amenințări și date personale ale victimelor sale. Specialiști precum psihologul britanic Dr. Alan Underwood observă că chatbot-urile oferă un „spațiu fără respingere”, în care utilizatorii pot testa și amplifica idei, fără a suporta o reacție socială directă. În acest mod, convingerile devin mai rigide și mai greu de schimbat.
Un alt caz grav implică o femeie care, după utilizarea frecventă a AI-ului pentru sfaturi despre nutriție și relații, a ajuns să interpreteze răspunsurile chatbot-ului ca pe indicii ale unei „conexiuni nespuse” cu o colegă. În cele din urmă, această interpretare distorsionată a dus la pierderea locului de muncă și la internarea în spital pentru tratament psihiatric.
Această amplificare a delirurilor nu trebuie confundată cu crearea acestora. Tehnologia, în sine, nu este abuzivă, ci utilizarea sa fără filtru și supraveghere poate deveni un catalizator pentru obsesii. În lipsa unor mecanisme de prevenție și intervenție, AI-ul poate acționa ca un reflector pentru fricile, resentimentele și suferințele interioare ale utilizatorilor.
Perspectiva viitorului: responsabilitate și încercarea de a limita riscurile
Pe măsură ce AI-ul devine tot mai prezent în cotidian, discuția despre responsabilitatea celor care îl dezvoltă și utilizează devine urgentă. Aceste cazuri recente indică faptul că, dacă nu sunt implementate filtre și măsuri de siguranță, tehnologia poate fi folosită uneori ca instrument de manipulare și control abuziv.
Pentru victime, traumele se amplifică și devin parte dintr-un peisaj digital în care granițele dintre realitate și ficțiune dispar. În timp ce tehnologia evoluează rapid, potrivit specialiștilor, trebuie găsite și aplicate soluții ce să prevină riscurile, integrând în același timp o responsabilitate socială mai largă. Într-o lume în care, în spatele unui ecran, se pot ascunde începuturile unor tragedii, responsabilitatea de a ridica baraje și de a proteja utilizatorii nu mai poate fi amânată.

Fii primul care comentează