
Un studiu recent realizat de cercetători de la Universitatea din Amsterdam evidențiază faptul că rețelele sociale pot deveni, în mod inerent, spații toxice și polarizate, chiar și atunci când sunt populate exclusiv de boți sau chatboti. În era digitală, în care platformele sociale joacă un rol central în formarea opiniei publice, această cercetare aruncă o nouă lumină asupra mecanismelor care contribuie la creșterea discursului extrem și la răspândirea dezinformării. Într-un context global marcat de critici legate de influența rețelelor în societate, rezultatele studiului relevă că soluțiile tehnice actuale nu sunt suficiente pentru a combate aceste probleme.
Lucrările cercetătorilor au ilustrat experimentul realizat pe o platformă socială simulată, populată exclusiv cu boți bazate pe modelul GPT-4. Acești chatboti au fost programați să posteze, să comenteze și să reacționeze între ei, în condițiile în care au fost testate șase măsuri pentru reducerea polarizării, precum afișarea conținutului în ordine cronologică sau promovarea diversității opiniilor. Rezultatele au arătat că niciuna dintre aceste metode nu a avut impact semnificativ asupra consolidării unor conversații mai echilibrate sau mai puțin toxice. Unele măsuri, precum afișarea cronologică, chiar au agravat situația, favorizând crearea de conținut extremist.
Experiența a ilustrat cât de profund influențată devine dinamică rețelelor sociale de structura algoritmică și de comportamentul utilizatorilor sau boților. Conținutul extrem, odată amplificat, modifică modul în care aceștia interacționează, consolidând o rețea în care opiniile radicale devin dominante. În acest mod, se creează o spirală vicioasă: conținutul toxic generat de algoritmi și boți întărește structurile toxice, amplificând polarizarea și reducând vizibilitatea opiniilor moderate.
Profesorul Petter Törnberg avertizează că, în contextul avansului inteligenței artificiale generative, fenomenul devine și mai periculos. AI-ul este deja utilizat pentru a produce conținut manipulator, polarizant și dezinformator, iar pe măsură ce aceste modele se vor îmbunătăți, distincția între informația reală și cea manipulatorie va deveni tot mai dificilă. Astfel, riscul de a accelera tendința de radicalizare online crește constant.
Studiul sugerează că rețelele sociale se află într-o poziție în care, din punct de vedere structural, pot deveni insensibile la diverse reforme și măsuri temporare. Promisiunile companiilor de a crea medii mai constructive sunt afectate de realitatea că și platformele populate doar cu boți pot ajunge la același nivel de toxictate, sugerând o nevoie de o abordare mai profundă. Algoritmii, recompensând conținutul șocant și agresiv, contribuie la menținerea și amplificarea polarizării.
Pe măsură ce inteligența artificială devine tot mai integrată în social media, fenomenul de polarizare ar putea să se intensifice. În loc să unească, aceste platforme riscă să devină medii pentru radicalizare și manipulare, influențând negativ societățile globale.
Rezultatele studiului subliniază că rețelele sociale pot fi predispose să devină, în mod inerent, spații polarizate, indiferent de intervențiile superficiale. Este esențială o monitorizare continuă și o înțelegere profundă a modului în care tehnologia modelează discursul online. Aceasta rămâne o provocare majoră pentru dezvoltarea unui mediu digital mai echilibrat și responsabil.
Fii primul care comentează