X lovește în buzunarele creatorilor de conținut fals despre războaie
Platforma de socializare X, cunoscută anterior ca Twitter, a decis să schimbe regulile de monetizare pentru a combate dezinformarea vizuală generată de inteligența artificială (AI), în special cea legată de conflictele armate. Noua politică vizează limitarea profiturilor obținute din distribuirea de videoclipuri false, menite să inducă în eroare utilizatorii. Măsura vine în contextul în care platforma a fost inundată de materiale care pretind că arată atacuri cu rachete, scene de război sau militari implicați în acțiuni dramatice.
De ce X a ales să lovească direct în monetizare
Decizia X se concentrează pe stoparea stimulilor financiari care încurajează răspândirea de informații false. Scopul este de a descuraja creatorii de conținut să transforme conflictele în surse de profit rapid, bazându-se pe senzaționalism. „Pentru o parte dintre utilizatori, problema nu este doar dezinformarea în sine, ci faptul că imaginile false pot deveni rapid o sursă de trafic, distribuire și bani,” explică sursa.
Noua regulă implică o legătură directă între etichetarea conținutului generat cu AI și accesul la monetizare. Dacă un clip video nu este marcat corespunzător, iar acesta se referă la un context de război, creatorul pierde posibilitatea de a fi plătit pentru acesta. Această abordare contrastează cu simpla etichetare voluntară a conținutului, pe care platforma o implementează deja cu eticheta „Made with AI”. Prin această măsură, X încearcă să echilibreze libertatea de exprimare cu necesitatea de a preveni răspândirea dezinformării.
Platforma își construiește o imagine de spațiu permisiv pentru exprimare. Interzicerea totală a conținutului AI ar fi putut genera acuzații de cenzură. Prin blocarea accesului la monetizare, X permite în continuare publicarea unor astfel de materiale, dar limitează profiturile.
Impactul imaginilor generate de AI în contextul conflictelor
Conținutul fals despre război este considerat periculos pentru că se răspândește într-un moment în care publicul este vulnerabil emoțional. O explozie falsă, scene inventate de distrugere sau prezentarea soldaților în panică pot influența percepția publică și pot distorsiona înțelegerea unui conflict. „Exact în astfel de momente, diferența dintre un clip real și unul fabricat devine esențială,” continuă sursa.
Instrumentele de generare video au devenit suficient de performante pentru a induce în eroare. „Este trivial să creezi conținut care induce lumea în eroare,” se arată. Aceste materiale pot concura direct cu jurnalismul real și cu informațiile verificate. Platforma folosește notele comunității, metadate și alte semnale pentru a detecta conținutul generat cu AI.
Noua regulă a platformei nu rezolvă în totalitate problema, deoarece se concentrează doar pe videoclipurile AI despre conflicte armate. Alte tipuri de conținut manipulator, generate de asemenea cu AI, nu sunt afectate în mod direct de această măsură.
X se confruntă cu multiple critici, incluzând modul în care instrumentul său Grok a fost implicat în controverse legate de imagini sexualizate sau alte ieșiri problematice. Această măsură poate fi percepută ca o încercare de a demonstra capacitatea platformei de a stabili limite, cu scopul de a limita presiunea publică.
În prezent, platforma continuă să lucreze la îmbunătățirea algoritmilor de detectare a conținutului fals, în timp ce creatorii de conținut sunt încurajați să respecte noile reguli pentru a evita restricțiile de monetizare.