Un nou raport de securitate informatică evidențiază vulnerabilități grave în sistemele de inteligență artificială, în special în modelele GPT-4o și GPT-5 dezvoltate de OpenAI. Aceste deficiențe permit atacatorilor manipularea chatboților, accesarea datelor personale și compromiterea integrității conversațiilor. În contextul actual, asigurarea siguranței în utilizarea tehnologiilor AI devine o prioritate pentru companii și utilizatori.
Vulnerabilitățile modelelor GPT și tehnicile de manipulare
Cercetătorii de la Tenable au identificat șapte tipuri de vulnerabilități în modelele GPT-4o și GPT-5. Printre cele mai gravate se numără atacurile de tip prompt injection, inclusiv variantele indirecte și zero-click.
Printre metodele deturnate se numără:
- Atacurile de tip “prompt injection” indirect, care introduc instrucțiuni ascunse în pagini web online.
- Atacurile zero-click, care pot compromite sistemul doar prin interogări simple, fără clicuri din partea utilizatorului.
- Exploatarea bug-urilor în redarea codului Markdown pentru ascunderea comenzilor malițioase.
- Tehnica “memory injection”, ce permite introducerea de instrucțiuni ascunse în memoria modelului.
- Ocoliarea filtrelor de siguranță, utilizând adresări false și linkuri mascate.
Atacuri asupra altor sisteme AI și riscul de contaminare a datelor
Incidentul OpenAI nu este singular. Alte sisteme, precum Claude de la Anthropic sau GitHub Copilot Chat, au fost expuse vulnerabilităților similare. În plus, atacurile de tip “PromptJacking” și “agent session smuggling” permit manipularea și scurgerea de informații.
Studiile recente arată că o cantitate foarte mică de date „otrăvite” poate afecta grav comportamentul modelelor AI. De exemplu, circa 250 de documente contaminate pot duce la degradarea performanței.
Riscuri legate de contaminarea datelor și „brain rot”
Specialiștii avertizează asupra pericolului de contaminare a seturilor de date pentru antrenament. Aceasta poate duce la apariția fenomenului de „brain rot”, afectând acuratețea și fiabilitatea modelelor.
Un alt aspect important îl reprezintă influența dezinformării, deoarece optimizarea pentru performanță poate genera răspunsuri înșelătoare și manipulări.
Provocările în asigurarea securității în ecosistemul AI
Deși companiile implementează măsuri pentru reducerea riscurilor, vulnerabilitățile de tip prompt injection nu pot fi complet eliminate. Fiecare nouă funcție, precum integrarea cu motoare de căutare sau memorii personalizate, adaugă riscuri suplimentare.
Experții recomandă testare riguroasă, actualizări frecvente și verificări suplimentare pentru accesul AI la surse externe. Într-o societate în care AI este tot mai integrate în domenii critice, securitatea cibernetică trebuie să fie o prioritate constantă.
Concluzie
Vulnerabilitățile descoperite în modelele de inteligență artificială subliniază importanța monitorizării continue și a actualizării episoadicase a mecanismelor de siguranță. Pe măsură ce tehnologia evoluează, securitatea AI rămâne un domeniu de interes esențial pentru utilizatori și dezvoltatori, necesitând o atenție constantă.

Fii primul care comentează