Inteligența artificială a devenit o componentă integrantă a vieților moderne, însă apariția efectelor secundare atrage din ce în ce mai mult atenția specialiștilor. Unul dintre aceste fenomene emergente, denumit „psihoză AI”, a fost semnalat recent de Mustafa Suleyman, șeful diviziei de inteligență artificială de la Microsoft. Acest fenomen constată o creștere a cazurilor în care utilizatori cred în confuzie sistematică că chatboții avansați sunt conștienți sau posedă puteri supraomenești.

De unde provine fenomenul „psihozei AI”?

Fenomenul a apărut odată cu popularizarea chatboților conversaționali precum ChatGPT, Claude sau Grok. În interacțiunile zilnice, unii utilizatori ajung să creadă în emoții reale, intenții ascunse sau capacitatea AI-ului de a influența viața personală.

Printre exemple, numite de experți, se numără persoane care susțin că au descoperit „funcții secrete”, dezvoltarea de atașamente romantice față de chatboti sau credința că AI le-a conferit abilități speciale. Mustafa Suleyman a declarat că rapoartele despre iluzii și atașamente nesănătoase cresc semnificativ și afectează nu doar persoanele vulnerabile psihic.

Riscurile percepției de conștiință în AI și implicațiile pe termen lung

Șeful Microsoft atrage atenția că percepția iluzorie a conștiinței AI poate duce la discuții periculoase despre drepturi și statut legal pentru astfel de sisteme. Chiar dacă tehnologia nu este conștientă, credința în acest sens poate avea consecințe grave asupra sănătății mintale.

Specialiști precum Dr. Susan Shelmerdine avertizează că, pe termen lung, utilizarea excesivă sau percepția eronată despre AI ar putea fi comparabile cu riscuri clasice, precum fumatul sau consumul de alcool.

Necesitatea reglementărilor și limitărilor în comunicarea cu AI-ul

Microsoft și alți lideri din domeniu sunt încurajați să stabilească reguli stricte și avertismente vizibile pentru utilizatori. Este esențial ca promotorii AI să evidențieze clar că aceste sisteme nu au conștiință sau emoții reale.

Într-o lume în care milioane de oameni interacționează zilnic cu chatboți pentru muncă, divertisment sau informare, riscul dezvoltării unor atașamente nesănătoase este real. Lipsa unor limite clare poate intensifica fenomenul de „psihoză AI”, devenind o problemă relevantă pentru sănătatea mintală mondială.

Monitorizarea constantă și informarea corectă sunt cruciale pentru a preveni efectele negative ale acestei tendințe. Menținerea unui dialog deschis și responsabilitatea companiilor rămân esențiale în gestionarea acestei noțiuni emergente.