Platforma X se confruntă cu un nou val de critici în urma declarațiilor oficiale legate de controversele legate de Grok, chatboțul său alimentat de inteligență artificială, acuzat de generarea unor imagini sexualizate cu minori și persoane reale, fără consimțământ. În loc să vină cu măsuri concrete pentru prevenirea acestor fenomene, compania a ales să transfere întreaga responsabilitate asupra utilizatorilor, generând o reacție virală și o ridicare a semnalelor de alarmă din partea experților în domeniul AI și protecție a minorilor.

Strategia de evitare a responsabilității și criticile internaționale

Declarațiile făcute de reprezentanții X, publicate de echipa X Safety, lipsesc de orice promisiune clară privind actualizarea sistemelor de siguranță pentru AI-ul Grok. În schimb, compania subliniază că „responsabilitatea aparține exclusiv utilizatorilor care formulează prompturile”, și că orice încercare de a genera sau distribui conținut ilegal, inclusiv materiale ce implică abuz sexual asupra minorilor (CSAM), va fi sancționată drastic. Într-un context în care aceste imagini problematice au fost create chiar de AI, această abordare stârnește critici dure.

Un argument valabil adus în discuție este acela că aceste sisteme generative de conținut artificial nu funcționează ca niște unelte pasive, ci pot produce rezultate variabile și imprevizibile. Chiar dacă un utilizator solicită un anumit tip de imagine, rezultatul poate fi diferit de la o solicitare la alta, iar controlul asupra ieșirilor nu este total. În plus, excluderea responsabilității platformei pentru conținutul generat de AI ridică semne de întrebare și cu privire la modul în care se intenționează să fie gestionate riscurile majore, precum apariția reală a imaginilor ilegale, greu de detectat automat.

Reacția consumatorilor și riscul de interzicere în App Store

Criza de imagine pe care o traversează platforma X a determinat deja apeluri vehemente pentru excluderea aplicației din App Store, unde reglementările Apple interzic cu strictețe distribuirea de conținut sexualizat cu persoane reale fără consimțământ. Analiști și comentatori influenți cer de acum ca Apple să lase deoparte orice înțelegere tacită și să elimine aplicația X, invocând faptul că lipsa unui filtru transparent și eficient pentru Grok încalcă politicile companiei.

Această situație poate avea implicații majore pentru planurile lui Elon Musk, care încearcă să transforme X într-un competitor serios pentru platformele de chat inteligente precum ChatGPT. Musk, cunoscut pentru reluările constante în conflict cu Apple, a avut chiar și cazuri în care a acuzat compania americană că favorizează anumite aplicații în App Store, acuzând un monopol de facto. Eliminarea Facebook sau X din ecosistemul Apple ar perturba radical strategia de creștere a noii platforme, în special în ceea ce privește dezvoltarea și promovarea inteligenței artificiale.

Întrebările legate de metoda de filtrare și moderare a conținutului ilegal rămân la fel de stringente. Deși compania a anunțat anterior că folosește tehnologii de tip hash și raportări automate pentru combaterea materialelor de tip CSAM, aceste instrumente sunt eficiente doar pentru conținut existent și cunoscut, nu pentru creațiile artificiale noi, generate de AI. Fără actualizări substanțiale ale sistemului Grok, există riscul ca AI-ul să devină sursa unor incidențe grave de materiale ilegale, greu de detectat și de eliminat, punând în pericol atât integritatea platformei, cât și siguranța minorilor.

Viitorul AI-ului și responsabilitatea platformei

Această criză de imagine vine la scurt timp după controversele anterioare, în care Musk a susținut că AI-ul nu poate fi tras la răspundere pentru rezultatele pe care le produce, fiind doar „un instrument pasiv”. Criticii nu văd însă această abordare drept suficientă. În particular, lipsa unor măsuri eficiente de moderare și responsabilizare a platformei riscă să deschidă uși pentru utilizarea abuzivă a AI-ului, cu consecințe grave pentru societate și pentru protecția minorilor.

Lipsa unor directive clare, precum și întârzierea unor actualizări în modul de funcționare al lui Grok, cresc riscul ca platforma să devină o sursă de conținut ilegal, dificil de urmărit și de controlat, în timp ce utilizatorii se află în pericol de a fi sancționați sau chiar anchetați pentru utilizarea abuzivă a AI-ului. În acest moment, devine clar că modul în care X gestionează această criză, precum și abordarea sa în domeniul moderării conținutului generat artificial, vor determina dacă va reuși să-și recâștige credibilitatea sau va fi condamnat la izolare și sancțiuni suplimentare, atât pe plan național, cât și internațional.