Un nou studiu publicat de Netskope Threat Labs oferă o perspectivă clară asupra capabilităților actuale ale modelelor de inteligență artificială (AI) în generarea de cod malițios. Deși modelele precum GPT-3.5, GPT-4 și chiar GPT-5 pot produce fragmenturi de malware, acestea sunt departe de a putea lansa atacuri complet autonome și eficiente.

Manipularea AI pentru generarea de malware

Cercetătorii au testat fiabilitatea modelelor GPT în crearea de scripturi malițioase destinate să compromită sistemele informatice. Astfel, folosind tehnici precum prompt injection, modelele au fost manipulate pentru a scrie cod rău intenționat. De exemplu, GPT-4 a cedat în fața unor provocări, dar codul rezultat a fost adesea instabil sau incomplet.

Testarea fiabilității modelelor de inteligență artificială

Pentru a evalua potențialul real de utilizare a AI în scenarii de atac, cercetătorii au solicitat modelelor generarea unor scripturi pentru detectarea mediilor virtualizate. Rezultatele indică probabilitatea de succes, dar și limitările acestor modele:

– GPT-4 are o fiabilitate de aproape 50% în mediile VMware.
– În AWS, acuratețea scade semnificativ, la 15%.
– GPT-5 a demonstrat o îmbunătățire în detectare, însă s-a dovedit mai rezistent la manipulare, refuzând în mare parte să genereze cod malițios.

Modelele AI pot fi păcălite, dar rezultatele sunt instabile și fragile.

Atacurile asistate de AI și implicarea umană

Studiul a confirmat și experiențele recente ale companiilor precum Google și Anthropic. Utilizarea AI pentru atacuri cibernetice necesită încă intervenție umană. Exempel sunt sisteme precum Claude, care au exagerat severitatea vulnerabilităților sau au inventat informații, fiind dependente de aprobarea operatorului. Chiar și instrumente precum Thinking Robot, bazate pe Gemini, potș rescrie cod, dar nu pot opera complet autonom în linii de atac.

Factorii care împiedică automatizarea totală a atacurilor

Există trei bariere majore în lupta pentru execuția unui atac cibernetic complet autonom:

– Modelele de AI nu dețin înțelegerea tehnică aprofundată, ci se bazează pe ghicire.
– Algoritmii avansați detectează manipulările și blochează codurile malițioase.
– Atacurile avansate necesită pași complecși, precum reconectarea sau exfiltrarea datelor, pe care modelele nu le pot gestiona încă eficient.

Pericolul real în momentul de față constă în faptul că AI accelerează dezvoltarea malware-ului și reduce barrierele pentru atacatori amatori. Acestea pot genera variante de cod mai eficiente, mai convingătoare în phishing și totodată pot ocoli uneori detectorii automatizați.

Concluzii și perspective

Deși modelele AI devin tot mai sofisticate, există dificultăți majore în transformarea acestora în arme cibernetice complet autonome. Monitorizarea evoluției acestor tehnologii rămâne esențială, întrucât viitorul poate aduce posibilitatea atacurilor mai rapide și mai greu de detectat, în special dacă actorii statali vor decide să combine AI-ul cu infrastructura operațională reală. În prezent, însă, responsabilitatea și intervenția umană rămân esențiale pentru realizarea oricăror atacuri avansate asistate de inteligența artificială.