Lansarea aplicației Sora, cea mai recentă creație a companiei OpenAI, a atras atenția atât prin inovație, cât și prin controverse. Aceasta promitea să revoluționeze modul în care se generează videoclipuri AI, dar a stârnit rapid discuții despre drepturile de autor, etică digitală și riscuri de dezinformare. În câteva zile, platforma a fost folosită pentru a crea conținut viral, uneori ofensator sau ilegal, ceea ce a determinat compania să ajusteze politicile inițiale.
Generarea videoclipurilor AI și controversele privind conținutul generat
Sora este asemănătoare cu un „TikTok pentru conținut AI”, permițând utilizatorilor să creeze videoclipuri de 10 secunde, complet cu sunet, doar prin instrucțiuni text. Utilizatorii pot realiza scene diverse, de la peisaje futuriste până la personaje fictive sau celebre inserate în situații absurde. Însă, în scurt timp, feed-ul aplicației a fost invadat de clipuri controversate, precum parodii sau conținut care încalcă drepturile de autor.
Reacția OpenAI și modificările politicilor
Inițial, OpenAI a adoptat un sistem de tip opt-out, în care deținătorii de drepturi trebuiau să solicite explicit eliminarea anumitor personaje sau mărci. După reacțiile negative, compania a anunțat schimbări, oferind titularilor de drepturi mai mult control asupra conținutului generat. Sam Altman, CEO-ul OpenAI, a recunoscut că echipa nu anticipase reacția emoțională a publicului și impactul major al imaginilor generate.
Controlul utilizatorilor și măsuri de siguranță
Pentru a preveni abuzurile, OpenAI a introdus funcții prin care utilizatorii pot seta restricții personalizate asupra „cameo”-urilor digitale. Aceasta permite limitarea utilizării imaginii proprii sau evitarea includerii unor fraze sau personaje nedorite. În plus, compania lucrează la o marcaj vizibil mai dificil de șters, pentru a identifica conținutul AI și a limita răspândirea dezinformărilor.
Între inovație și riscuri etice
Dezvoltarea versiunii Sora 2, fără restricții și cu posibilitatea de integrare în API-uri, ridică noi semne de întrebare privind protecția împotriva deepfake-urilor și utilizarea abuzivă. Criticii avertizează asupra riscului de propagare a conținuturilor false, pornografice sau politice, într-un context în care tehnologia devine tot mai accesibilă.
Eforturile pentru responsabilitate și monitorizare
OpenAI continuă să adapteze tehnologia, promițând implementarea unor filtre și verificări mai stricte. Colaborarea cu parteneri precum SoftBank și Oracle, prin proiectul Stargate, evidențiază accentul pus pe infrastructură și extinderea capacităților tehnice. Altman menționează că incidentele inițiale sunt o etapă necesară pentru a înțelege limitele și riscurile AI-ului vizual.
Concluzie
Lansarea Sora evidențiază cât de dificil este să se mențină un echilibru între inovație și responsabilitate socială. Monitorizarea evoluțiilor și adaptarea la problemele legate de drepturile de autor și dezinformare sunt esențiale în această perioadă de dezvoltare rapidă a tehnologiilor AI. Informarea continuă rămâne cheia pentru a înțelege impactul acestor opțiuni asupra societății.

Fii primul care comentează