Integrarea agenților de inteligență artificială în navigarea pe internet și automatizarea proceselor precum completarea formularelor sau trimiterea e-mailurilor reprezintă un pas semnificativ în evoluția digitală. Însă, odată cu această creștere a funcționalităților, apar și riscuri majore legate de securitatea cibernetică, în special cele legate de atacuri de tip prompt injection. Aceste vulnerabilități exploatează interpretarea textului în context și pot păcăli AI-ul să execute acțiuni malițioase, fără ca utilizatorul să fie conștient.

De ce prompt injection seamănă cu ingineria socială

Atacurile de tip prompt injection exploatează capacitatea modelelor lingvistice de a interpreta și reacționa la text. Un atacator poate insera instrucțiuni malițioase ascunse în pagini web, documente sau e-mailuri, pe care agentul AI le interpretează ca și comenzi relevante. Aceasta nu implică neapărat spargerea tehnică, ci manipularea comportamentului sistemului prin conținut aparent inofensiv.

Centrul Național de Securitate Cibernetică din Marea Britanie a subliniat recent că astfel de atacuri s-ar putea să nu poată fi eliminate complet, fiind considerate o problemă inerentă interpretării textului. Pe măsură ce agentul AI devine tot mai conectat la servicii precum e-mail, cumpărături sau plăți, vulnerabilitățile se amplifică, iar riscul de acțiuni nedorite în numele utilizatorului crește considerabil.

Impactul și noile provocări ale browserelor AI avansate

Lansarea browserului ChatGPT Atlas, în octombrie 2025, a adus în prim-plan conceptul de navigare asistată cu „agent mode”. Această funcție permite AI-ului să nu doar să explice, ci să interacționeze efectiv cu site-urile pentru a finaliza sarcini complexe. Cu toate acestea, această extindere a funcționalităților crește și suprafața de atac a sistemului.

Cercetări recente au demonstrat că influențarea comportamentului AI-ului prin strategii de atac ascunse devine tot mai simplă. Un exemplu arată cum instrucțiuni malițioase pot fi ascunse în structura paginii sau în elemente invizibile pentru utilizator, dar citite de agent.

Strategii de reducere a riscurilor, dar fără garanții complete

OpenAI adoptă o strategie bazată pe testare continuă și actualizări rapide pentru a identifica și remedia vulnerabilitățile. Compania dezvoltă și modele automatizate de atacatori, pentru a descoperi metode noi de exploatare înainte ca acestea să devină o amenințare reală.

Ce recomandă OpenAI pentru utilizatori?
– Limitarea permisiunilor agentului AI la cel strict necesar.
– Activarea confirmărilor pentru acțiuni sensibile (mailuri, plăți).
– Separarea sesiunilor de navigare obișnuită de cele sensibile.

Astfel, utilizatorii trebuie să gestioneze cu prudență și să adopte măsuri de precauție pentru a limita potențialele daune ale agresiunilor cibernetice.

Prin urmare, evoluția tehnologiei și a modelelor lingvistice mari impune o atenție constantă la noile vulnerabilități. În contextul creșterii funcțiilor și conectivității agenților AI, monitorizarea și adaptarea în timp real a măsurilor de securitate rămân esențiale pentru evitarea complicațiilor.