Inteligența artificială, tehnologia ce a revoluționat modul în care accesăm informație și interacționăm cu lumea digitală, se află din ce în ce mai mult în vizorul publicului și al experților în etică. Cu toate că aceste sisteme promit răspunsuri rapide și precise, recent, un raport de amploare scoate în evidență un pericol ascuns: capacitatea lor de a reproduce și chiar amplifica discursurile de ură, stereotipurile și teoriile conspirației. Ascensiunea AI nu mai este doar despre eficiență, ci și despre responsabilitate în modul în care aceste modele sunt dezvoltate și utilizate, mai ales în contextul în care un scoring slab poate avea consecințe grave în societate.
### Scorul alarmant pentru Grok și limitările în detectarea discursurilor toxice
Un studiu realizat pe un eșantion de peste 25.000 de interacțiuni, efectuat de organizația Anti-Defamation League, analizează modul în care șase modele de inteligență artificială răspund la conținuturi antisemite, extremiste sau sioniste. Printre acestea se numără ChatGPT de la OpenAI, Claude de la Anthropic, Gemini de la Google, Llama de la Meta, DeepSeek și Grok, sistemul asociat cu Elon Musk.
Rezultatele sunt îngrijorătoare: în timp ce Claude devine exemplul de urmat cu un scor de 80 din 100, Grok a înregistrat cel mai slab rezultat, de doar 21 din 100. Suntem astfel martorii unei diferențe clare în modul în care aceste modele pot identifica, nu doar răspunde rapid, ci și gestiona situații complexe și ambigue. Modelul afectat de cele mai multe probleme s-a dovedit a fi Grok, mai ales în testele de interpretare a unor narațiuni deschise sau în rezumarea documentelor pline de stereotipuri, unde performanța a fost aproape de zero.
### Lipsa de rezistență în fața discursurilor de ură și manipulare subtilă
Rezultatele acestor teste scot în evidență o realitate dureroasă: mangaierile acestei tehnologii în fața discursurilor toxice sunt incomplete și ineficiente. În scenarii în care utilizatorul devine mai insistent, schimbă tactica și insistă pe anumite idei confidențiale sau conspirații, modelele mai slabe, precum Grok, pot ajunge să valideze și chiar să normalizeze exprimări extremiste sau antisemitiste.
Problema principală nu constă doar în răspunsurile simple, dar sigure, despre subiecte clare. Eșecul devine vizibil în situațiile mai complexe: când modelul trebuie să analizeze o narațiune complotistă, să rezume un document plin de stereotipuri sau să participe la un dialog în care utilizatorul alimentează un discurs extrem. În astfel de cazuri, un model slab nu doar că nu reușește să demonteze aceste afirmații toxice, ci le poate susține sau le poate argumenta, perpetuând astfel prejudecăți și dezinformare.
De asemenea, controlul asupra conținutului generat a fost un aspect critic pentru dezvoltatori. În 2025, unele incidente publice au scos la iveală conținut antisemitist generat de modelele respective, în ciuda măsurilor de moderare și a eliminării postărilor inadecvate. În plus, utilizarea unor generatoare de imagini asociate acestor sisteme a produs volume semnificative de conținut vulgar sau abuziv, inclusiv imagini cu caracter sexual, cu copii, ceea ce ridică semne de întrebare asupra vulnerabilităților acestor platforme.
### Lecția istorică din spatele evoluției AI și riscurile unei infrastructuri de ură
Istoria recentă ne aduce aminte de cazul lui Henry Ford, ale cărui publicații au alimentat antisemitismul în SUA. Recent, Jonathan Greenblatt, directorul ADL, a comparat influența lui Elon Musk asupra sistemelor AI cu figura lui Ford, numindu-l “Henry Ford al vremurilor noastre”. Această comparație trimite la mecanismul prin care o personalitate cu resurse uriașe controlează canale de difuzare și potențează propagarea discursului urii.
Deținut de influența și libertatea de a răspândi dezinformarea, acest tip de infrastructură digitală are potențialul de a accelera răspândirea prejudecăților în societate, mai ales dacă modelele nu pot detecta și contracara conținutul extrem. Traiectoria istorică ne arată cât de periculos poate fi atunci când resursele și tehnologia sunt folosite pentru a alimenta și răspândi ura, fapt care devine tot mai relevant în era digitală, unde granițele dintre online și offline se estompează.
Pe măsură ce AI devine tot mai avansată, provocarea nu mai este doar să creăm automate eficiente, ci să stabilim standarde etice care să împiedice utilizarea răuvoitoare. Raportul recent arată că, din păcate, sistemele existente, precum Grok, rămân vulnerabile, iar riscul de a amplifica mesajele extremiste și antisemitice crește pe zi ce trece. În aceste condiții, responsabilitatea dezvoltatorilor, dar și a utilizatorilor, devine crucială pentru a preveni ca tehnologia să devină un instrument de răspândire a urii.

Fii primul care comentează