AI-ul, noua armă a propagandei proruse în războiul din Ucraina
Inteligența artificială a devenit un instrument puternic în mâinile propagandei, amplificând dezinformarea și manipularea în contextul războiului din Ucraina. Conform unei analize recente, noile tehnologii digitale permit răspândirea rapidă și eficientă a narațiunilor favorabile Rusiei, alimentând un fenomen de știri false fără precedent. Conflictul din Ucraina este considerat unul dintre cele mai afectate de acest flagel, iar impactul său se extinde constant.
Operațiuni automatizate și manipularea sistemelor de limbaj
Un aspect îngrijorător al acestei evoluții este trecerea de la producția manuală de știri false la operațiuni complet automatizate. Rețele coordonate pot genera milioane de articole cu ajutorul inteligenței artificiale, distribuindu-le masiv pentru a influența algoritmii și sistemele informatice. Așa-numitul „LLM Grooming” reprezintă o strategie de manipulare prin inundarea spațiului online cu informații false, care sunt apoi preluate și replicate de modele lingvistice mari, precum ChatGPT.
Prin repetare și volum, aceste narațiuni fabricate pot ajunge să fie integrate în răspunsurile automate ale sistemelor conversaționale. Un exemplu specific este rețeaua Pravda, un conglomerat de site-uri active în zeci de țări, care publică lunar zeci de mii de materiale aliniate discursului pro-Kremlin. Prin citări și linkuri încrucișate, articolele capătă o aparență de credibilitate, influențând poziționarea în motoarele de căutare și, implicit, vizibilitatea în ecosistemul digital.
Imagini hiperrealiste și alibiul perfect pentru negare
Progresele în domeniul generării de imagini și videoclipuri au dus realismul la un alt nivel, îngreunând identificarea conținutului manipulat. Au circulat, de exemplu, clipuri cu presupuși soldați ucraineni care criticau mobilizarea sau descriau situații dramatice de pe front, care s-a dovedit ulterior că erau generate cu ajutorul inteligenței artificiale. Diferențele față de realitate sunt minime, ceea ce face dificilă detectarea lor fără instrumente specializate.
Mai grav este efectul secundar: proliferarea conținutului fals oferă un „alibi” pentru contestarea probelor autentice. În momentul în care publicul este bombardat constant cu imagini generate artificial, orice material real poate fi respins ca fiind „creat de AI”. Se creează astfel o prezumție de falsitate, care slăbește încrederea în dovezile reale privind crimele de război sau abuzurile documentate.
Aceste campanii nu sunt limitate la o singură limbă. Conținutul este tradus și adaptat pentru publicuri din Germania, Franța, Spania, Italia sau America Latină, demonstrând coordonare și resurse semnificative. În afara manipulării prin AI, alte campanii vizează descurajarea voluntarilor străini să se alăture forțelor ucrainene sau subminarea negocierilor de pace. Integrarea inteligenței artificiale în aceste operațiuni marchează o etapă nouă și mult mai sofisticată.
Conform unor date recente, experții în securitate cibernetică au raportat o creștere constantă a numărului de conturi false pe rețelele sociale, utilizate pentru răspândirea de informații false legate de conflictul din Ucraina.