Recent, cercetările în domeniul securității cibernetice au relevat o serie de vulnerabilități majore în instrumentele de dezvoltare integrate (IDE) asistate de inteligență artificială. Aceste deficiențe, denumite „IDEsaster” de către specialiști, pun în pericol securitatea datelor și pot permite execuții de cod la distanță, expunând astfel proiecte și informații sensibile.
Vulnerabilitățile sunt răspândite pe platforme precum Cursor, Windsurf, Kiro.dev, GitHub Copilot și altele. În total, 24 dintre acestea au fost declasificate cu identificatori CVE, semnalând riscuri concrete și oficiale. Descoperirile indică un model periculos: majoritatea AI IDE-urilor tratează funcțiile preexistente ca fiind sigure, ceea ce, în combinație cu agenții AI autonomi, creează oportunități pentru atacatori.
Cum funcționează lanțul de atac „IDEsaster”?
Vulnerabilitățile asociate permit deturnarea prompturilor și ocolirea protecțiilor LLM (Large Language Models). Acestea facilitează acțiuni automate ale agenților AI, fără verificare umană. Funcționalitățile legitime ale IDE-urilor pot fi exploatate pentru a scăpa din zona de securitate și pentru a accesa date sensibile.
Cele mai frecvente scenarii de atac includ:
– citirea de fișiere confidențiale și scurgerea lor prin scripturi automate;
– modificarea configurațiilor IDE-urilor pentru a executa cod malițios;
– rescrierea fișierelor de configurare pentru a rula comenzi periculoase de fiecare dată când se deschide un proiect.
Aceste situații sunt posibile deoarece IDE-urile AI acceptă automat modificări în fișiere și configurații, fără verificări suplimentare. Astfel, funcțiile considerate sigure pot deveni vulnerabile în momentul în care sunt manipulate prin tehnologii AI.
Alte vulnerabilități și recomandări pentru protecție
Pe lângă problema principală, cercetătorii au descoperit și alte vulnerabilități, precum:
– o exploatare de command injection în OpenAI Codex CLI (CVE-2025-61260);
– prompt injections indirecte în Google Antigravity, capabile să fure credențiale;
– o nouă clasa de atac numită PromptPwnd, vizând AI conectați la pipeline-uri CI/CD.
Odată cu creșterea integrării AI în fluxurile de lucru, suprafața de atac se extinde considerabil. LLM-urile au dificultăți în a distinge între instrucțiuni intenționate și conținut otrăvit, transformând aceste instrumente într-un vector pentru exploituri.
Specialiștii recomandă măsuri precum:
– utilizarea doar a proiectelor și fișierelor de încredere;
– monitorizarea constantă a modificărilor din serverele MCP;
– verificarea manuală a surselor externe;
– aplicarea principiului „least privilege” în configurări;
– testarea protecțiilor împotriva atacurilor de tip path traversal și command injection.
Este important ca dezvoltatorii și utilizatorii de IDE-uri AI să adopte noile principii „Secure for AI”, pentru a preveni abuzurile și vulnerabilitățile emergente. Conștientizarea și monitorizarea continuă rămân esențiale pentru asigurarea securității în mediile de dezvoltare asistate de inteligența artificială.

Fii primul care comentează