
Un nou raport de securitate evidențiază modul în care gruparea Kimsuky, susținută de statul nord-coreean, a exploatat instrumente de inteligență artificială pentru a crea falsuri vizuale și documente contrafăcute folosite în campanii de spionaj cibernetic. În contextul creșterii utilizării AI în operațiuni de securitate, informațiile recente relevă riscuri tot mai mari în domeniul securității cibernetice și al ingineriei sociale.
Utilizarea AI pentru crearea de legitimații militare false
Specialiștii de la Genians Security Center au descoperit că hackeri au folosit ChatGPT pentru a genera legitimații militare contrafăcute. Documentele false au fost create prin tehnici de „prompt engineering”, evitând restricțiile platformei OpenAI. Astfel, au reușit să imite un document oficial, utilizând fotografii publice integrate într-un șablon ajutător.
Procesul de realizare a deepfake-urilor și implicațiile sale
Metadatele fișierului compromis indică utilizarea unor funcții grafice avansate din ChatGPT. Hackeri au formulat cereri ambigue, cerând realizarea unui „mock-up” sau „design de probă”, pentru a evita filtrele de securitate. Acest proces a făcut posibilă generarea unui document vizual convingător, utilizat în campanii de inginerie socială.
Trecerea de la phishing clasic la falsuri vizuale
Gruparea Kimsuky, anterior cunoscută pentru atacuri pe bază de documente Word infectate și campanii de phishing, recurge acum la falsuri vizuale bazate pe AI. Într-un atac recent, legitimația falsă a fost distribuită prin e-mailuri care păreau a fi comunicări oficiale Direcției de Apărare din Coreea de Sud. Deși numele țintei nu a fost dezvăluit, se estimează că numărul victimelor și impactul atacului sunt semnificative.
Riscurile și implicațiile pentru securitatea cibernetică
Utilizarea AI pentru crearea de documente false face ca operațiunile de spionaj să fie mai eficiente și mai greu de detectat. Experții avertizează că aceste metode rămân relativ simple din punct de vedere tehnic și pot fi adaptate pentru diferite scopuri, precum identificarea false, fraude sau manipulare de informații. În plus, compania Anthropic și alte entități au semnalat utilizarea AI de către actori statali pentru a crea identități false și a participa la operațiuni complexe de spionaj.
Concluzie
Din ce în ce mai mult, explorarea și monitorizarea evoluției tehnologiilor AI devin esențiale pentru a înțelege provocările de securitate cibernetică. Este important ca actorii implicați să rămână informați și să adapteze măsurile de protecție în fața noilor strategii de manipulare digitală.
Fii primul care comentează