ULTIMA ORA
Tehnologie

Aplicațiile de „iubite AI” expun utilizatorii la riscuri majore de securitate Oamenii de știință au descoperit vulnerabilități critice în numeroase aplicații de tip „companion AI”, care pun în pericol confidențialitatea datelor personale ale utilizatorilor

Cristian Marinescu

Aplicațiile de „iubite AI” expun utilizatorii la riscuri majore de securitate

Oamenii de știință au descoperit vulnerabilități critice în numeroase aplicații de tip „companion AI”, care pun în pericol confidențialitatea datelor personale ale utilizatorilor. Deficiențele de securitate includ expunerea istoricului conversațiilor, credențiale stocate în codul aplicațiilor și alte breșe care permit accesul neautorizat la informații sensibile. Specialiștii avertizează asupra pericolului scurgerilor de date, care pot afecta milioane de utilizatori.

Breșe de securitate serioase

Cercetătorii au identificat nu mai puțin de 14 vulnerabilități critice și sute de probleme de securitate în 17 aplicații populare de companion AI. Aceste aplicații, concepute pentru a oferi suport emoțional sau simple conversații, au deficiențe care permit accesul neautorizat la informații private. În zece dintre aceste aplicații, vulnerabilitățile ar putea conduce direct la istoricul conversațiilor utilizatorilor.

Experții au descoperit cazuri de credențiale cloud lăsate direct în codul aplicațiilor, expunerea token-urilor de acces, probleme de tip XSS (cross-site scripting) și breșe care permit furtul de fișiere de pe dispozitive. Aceste probleme grave pot duce la accesul la conversații intime, imagini personale sau date de sesiune active, cu consecințe majore pentru utilizatori.

Scurgeri de date: un pericol real

Riscul scurgerilor de date nu este doar teoretic. În octombrie 2025, două aplicații de companion AI, Chattee Chat și GiMe Chat, au fost implicate într-o expunere masivă de date, cu aproximativ 43 de milioane de mesaje intime și 600.000 de fotografii provenite de la peste 400.000 de utilizatori. Investigațiile au arătat că aceste date erau accesibile fără protecții adecvate, permițând vizualizarea conținutului sensibil.

În ianuarie și februarie 2026, aplicația Chat & Ask AI a expus aproximativ 300 de milioane de mesaje, asociate cu 25 de milioane de utilizatori, după o configurare greșită a bazei de date. Printre conversațiile expuse se aflau discuții despre sinucidere, droguri, hacking și alte teme profund sensibile. Aceste incidente arată că nu doar datele „jenante” pot fi expuse, ci și confesiuni care pot fi exploatate pentru șantaj sau furt de identitate.

Legislația, în urma tehnologiei

Legislația se adaptează cu greu la evoluția rapidă a aplicațiilor de companion AI. Acestea nu sunt tratate ca produse medicale, deși mulți utilizatori le folosesc pentru suport emoțional. Autoritățile americane au lansat o investigație privind chatbot-urile-companion, dar accentul oficial a fost mai mult pe efectele asupra copiilor și adolescenților, nu pe securitatea tehnică a aplicațiilor.

Statele precum New York și California au început să impună reguli legate de dezvăluirea utilizării inteligenței artificiale și protocoale pentru autovătămare, dar aceste măsuri nu rezolvă în mod automat vulnerabilitățile tehnice. În Italia, autoritatea de protecție a datelor a amendat dezvoltatorul Luka Inc. cu 5 milioane de euro pentru încălcări ale GDPR. Concluzia pentru utilizatori este simplă: orice conversație cu o „iubită AI” ar trebui considerată publică.

Mai mulți experți în securitate cibernetică au recomandat utilizatorilor să evite partajarea informațiilor compromițătoare sau a datelor personale în cadrul acestor aplicații.

Sursa: Playtech.ro