Recent, incidentul de securitate descoperit în cadrul proiectului de protocol NLWeb, dezvoltat de Microsoft, evidențiază importanța crescută a securității cibernetice în era inteligenței artificiale. În contextul în care acest protocol promitea integrarea agenților conversaționali precum ChatGPT în aplicații și site-uri, o breșă gravă de tip path traversal a subminat suchtoarele exemple de inovație. Vulnerabilitatea a expus date sensibilie, ceea ce ridică semne de întrebare privind gestionarea riscurilor în proiectele bazate pe AI.

O vulnerabilitate critică gestionată de cercetătorii Aonan Guan și Lei Wang a fost identificată în luna mai 2025. Aceasta constă în accesul neautorizat la fișierele .env, care conțin chei API și alte date importante pentru funcționarea agenților AI. În contextul actual, aceste chei controlează accesul la modele de ultimă generație precum GPT-4 sau Gemini, utilizate pentru răspunsuri automate și decizii autonome. Astfel, un atacator ar fi putut prelua controlul asupra agenților și ar fi putut manipula sistemele, generând costuri semnificative pentru companii.

Microsoft a lansat un patch pentru remedierea vulnerabilității pe 1 iulie 2025, însă modul în care compania a gestionat incidentul a fost criticat. Lipsa emiterii unui CVE oficial limitează posibilitatea de monitorizare și evaluare globală a riscurilor similare. În plus, refuzul de a oficializa problema contribuie la accentuarea îngrijorărilor legate de transparență și responsabilitate.

Breșa din NLWeb scoate în evidență fragilitatea ecosistemului AI, mai ales în contextul în care agenții conversaționali devin parte integrantă a infrastructurii digitale. Riscul de exploatare a acestor tehnologii nu se limitează la infrastructură, ci ajunge până la mintea sistemelor inteligente, cu posibile repercusiuni grave asupra utilizatorilor și companiilor.

Din punct de vedere al industriei, incidentele recente semnalează necesitatea unei reevaluări a standardelor de securitate pentru proiectele bazate pe inteligență artificială. Respectarea rigorii în procesul de securizare devine esențială pentru evitarea unor situații similare în viitor. În final, aceste evenimente demonstrează importanța monitorizării continue și a actualizării constante a măsurilor de apărare în domeniul AI.