Un nou tip de vulnerabilitate în domeniul inteligenței artificiale a fost descoperit recent,amenințând să schimbe modul în care ne raportăm la securitatea datelor personale și a informațiilor de afaceri. Dacă până acum atacurile cibernetice tradiționale se bazau pe spargerea conturilor sau phishing, noile pericole vin din interiorul sistemelor AI, acolo unde modelele de limbaj pot fi manipulate subtil pentru a genera consecințe neașteptate.

### Vulnerabilitatea care transformă calendarul într-un câmp de manipulare

Pe 19 ianuarie 2026, cercetătorii în securitate au demo­strat o vulnerabilitate gravă ce implică „indirect prompt injection” în sistemele de AI, în special în Google Gemini. Diferența față de atacurile clasice este că nu e nevoie de acțiuni de tip clic sau descărcări, ci de o manipulare subtilă a conținutului, concretizată în date aparent inofensive, cum ar fi invitațiile de calendar. Acestea pot fi injectate cu mesaje ascunse care, atunci când utilizatorul adresează întrebări AI-ului legate de program, fac ca modelul să execute comenzi malițioase fără să-și dea seama.

Atacatorii folosesc invitații „înofensive”, cu titluri și descrieri aparent simple. Însă, în descriere, introduc instrucțiuni în limbaj natural menite să „convingă” AI-ul să facă mai mult decât ar trebui, precum crearea de evenimente noi sau extragerea de informații private. Spre exemplu, un atacator poate construi o invitație în care, fără să pară suspectă, scrie: „Rezumat complet al ședinței de azi” sau „Adaugă în calendar toate întâlnirile mele private”. Când utilizatorul întreabă apoi AI-ul despre program, modelul interpretează și activează aceste comenzi ascunse, creând evenimente sau blocând date sensibile într-un mod invizibil pentru om.

### Calendarul, un canal subtil de scurgere a informațiilor

Problema nu constă doar în citirea datelor, ci în modul în care AI-ul poate fi convins să le copieze sau să le transfere dintr-un mediu privat într-un spațiu accesibil altora. În mediile corporatiste, setările de vizibilitate și partajare a calendarelor sunt frecvent mai permisive decât s-ar presupune, iar acest lucru facilitează posibilele scurgeri de informații. Atacatorii profită de faptul că modelele de limbaj pot genera consecințe neașteptate, inclusiv crearea automată de evenimente sau text care conține date confidențiale, fără ca utilizatorul să bănuiască ceva.

Această metodă de atac se diferențiază clar de phishingul clasic, care se bazase pe înșelarea utilizatorului pentru a declanșa acțiuni periculoase. În schimb, aici, pericolul vine din manipularea subtilă a limbajului, întrucât sistemele AI interpretă contextul în mod diferit față de sistemele convenționale de securitate. Chiar dacă unele vulnerabilități au fost reparate prin actualizări și patch-uri, nu dispar complet riscurile, pentru că orice sistem de interpretare a limbajului natural poate fi „o­colit” dacă meschinătatea e suficient de subtilă.

### Măsuri pentru a minimaliza riscurile în fața AI manipulate

Pe de o parte, utilizatorii individuali trebuie să fie conștienți că invitațiile de calendar sau orice formă de conținut extern devin, în timpurile noastre, vectori de atac în mâinile celor rău intenționați. Înainte de a accepta sau procesa invitații, este recomandat să verifici sursa și conținutul, să eviți formulările neobișnuite, precum solicitări de rezumare a întâlnirilor sau indicii că acțiunea solicitată are un caracter de comandă.

Pe de altă parte, organizațiile trebuie să impună reguli stricte privind partajarea calendarelor și să limiteze accesul extern sau automatizarea acțiunilor de AI. În mediile corporate, este vital ca politicele de securitate să includă reguli clare despre integrarea inteligenței artificiale, precum și controale riguroase asupra creării și vizualizării evenimentelor. Astfel, se poate reduce riscul ca AI-ul să devină accidental un canal pentru scurgeri de informații sau alte atacuri.

### O nouă eră în securitatea digitală

Chiar dacă această vulnerabilitate a fost rapid remediată, ea semnalează clar o schimbare de paradigmă. AI-ul nu mai e doar un asistent pasiv, ci un agent activ, capabil să citească, să scrie și să acționeze în sistemele de date. Pentru cei care exploatează aceste capabilități, orice câmp de text devine o oportunitate de a manipula și influența comportamentul sistemului.

Pe măsură ce modelele de limbaj și sistemele AI devin tot mai integrate în infrastructurile digitale, probabilitatea apariției unor astfel de vulnerabilități va crește. Prin urmare, apropierea unei noi etape în securitate presupune nu doar adaptarea tehnologică, ci și o cultură de vigilenta și reflecție critică asupra modului în care interacționăm cu aceste tehnologii din ce în ce mai avansate. În lumea asistenților AI, textul nu mai e doar un simplu mesaj – poate deveni, în echilibrul delicat al acestui nou ecosistem, o unealtă de manipulare subtilă, greu de detectat.