Un nou tip de atac cibernetic denumit „AgentFlayer” îngrijorează specialiști în securitate, fiind capabil să fure date sensibile din Google Drive fără ca victima să fie conștientă. Exploatând o vulnerabilitate a funcției Connectors din ChatGPT, această escrocherie transformă documente aparent inofensive într-un instrument de compromitere a informațiilor critice.

Un atac „zero-click” precum AgentFlayer se caracterizează prin faptul că nu necesită nicio interacțiune din partea victimei. Principiul său constă în utilizarea unui fișier partajat în Google Drive, în care instrucțiuni malițioase sunt ascunse subtil, cu font alb și dimensiune minimă. Când utilizatorul folosește ChatGPT, acesta execută comenzile ascunse din document, trimițând chei API și alte informații sensibile către serverul infractorilor. Astfel, datele sensibile pot fi colectate fără ca utilizatorul să observe vreo activitate suspectă.

Vulnerabilitatea identificată provine din exploatarea funcției Connectors din ChatGPT, care permite asistentului AI să se conecteze la aplicații și servicii externe. Deși această facilitate aduce beneficii de productivitate, ea devine, în realitate, o țintă pentru atacuri cibernetice sofisticate. Specialistii avertizează că algoritmii IA pot fi manipulați prin prompturi ascunse, motiv pentru care sistemele AI integrate cu servicii externe devin mai vulnerabile.

Experții au raportat această problemă către OpenAI în cursul anului precedent, iar compania a implementat măsuri de reducere a riscurilor. Totuși, pericolul nu poate fi înlăturat complet. Specialiștii în securitate avertizează că atacurile de tip zero-click, precum AgentFlayer, reprezintă o etapă nouă în evoluția criminalității cibernetice, folosind modele AI pentru activități malițioase. De aceea, utilizatorii trebuie să fie extrem de atenți la fișierele partajate și să utilizeze măsuri suplimentare de protecție, precum autentificarea cu doi factori și monitorizarea constantă a activității conturilor.

Pentru a se proteja pe viitor, este vital ca utilizatorii să fie informați în permanență despre riscurile asociate tehnologiilor AI. În timp ce platformele precum Google sau OpenAI adaptează și își îmbunătățesc mecanismele de siguranță, responsabilitatea individuală rămâne esențială pentru prevenirea vulnerabilităților și a exfiltrării neautorizate de date.

Atacurile de tip AgentFlayer subliniază cât de rapid pot fi transformate instrumentele utile în arme ale infractorilor. Protejarea datelor confidențiale în cloud devine o prioritate, mai ales în contextul în care modelele AI pot fi manipulate pentru exploatare. Este esențial ca utilizatorii să rămână informați și vigilenți, pentru a face față noilor provocări ale securității cibernetice.