OpenAI revine în centrul atenției cu anunțul surprinzător despre recrutarea unui director pentru gestionarea riscurilor asociate inteligenței artificiale. Într-o mutare curajoasă, compania condusă de Sam Altman caută un specialiast cu experiență pentru a coordona și dezvolta programul de pregătire de siguranță a sistemelor de AI, într-un context în care aceste tehnologii continuă să manifeste riscuri din ce în ce mai grave.

### O poziție de referință, cu salariu uriaș

Poziția, intitulată „head of preparedness”, vine cu un salariu anual de peste jumătate de milion de dolari – exact 555.000 de dolari – și are ca scop principal extinderea și coordonarea programului de prevenție și gestionare a riscurilor. Rolul implică stabilirea unor măsuri concrete pentru a evalua și limita efectele negative ale modelelor de inteligență artificială, precum ChatGPT, care în ultimul an au fost subiectul unor controverse extrem de delicate.

Nu este o întâmplare această alegere, mai ales dacă privim contextul actual în care ChatGPT a continuat să manifeste probleme serioase: halucinații în documente juridice, acuzații de promovare a conținutului dăunător sau chiar implicarea în scandaluri de „deepfake”-uri cu imagini ale unor personalități istorice. În plus, compania a fost nevoită să limiteze funcționalitatea generării de video cu personaje respectate, precum Martin Luther King Jr., din cauza utilizărilor abuzive.

### Provocări juridice și etice pe măsură

Această poziție a apărut pe fondul unui context juridic complicat pentru OpenAI. În ultimele luni, compania s-a confruntat cu numeroase plângeri și scandaluri legate de modul în care modelele sale de AI pot afecta sănătatea mintală a utilizatorilor sau pot oferi informații eronate, uneori extrem de dăunătoare. Un caz extrem îl reprezintă sinuciderea unui adolescent în SUA, după ce a cerut sfaturi despre acest subiect de la ChatGPT, ceea ce a determinat echipa să limiteze anumite funcționalități.

Sam Altman a recunoscut public faptul că modelele de AI pot avea efecte negative majore: „Intrăm într-o lume în care avem nevoie de o înțelegere și o măsurare mai nuanțate ale modului în care aceste capabilități pot fi abuzate și ale felului în care putem limita aceste efecte negative, atât în produsele noastre, cât și în lume.” El atrage atenția că fără măsuri stricte și evaluări riguroase, riscă să se confrunte cu responsabilități legale și cu pierderea încrederii publice.

### Un job extrem de dificil, cu perspective ambițioase

Noul responsabil va avea o sarcină dificilă: trebuie să conceapă și să implementeze strategii pentru evaluarea și reducerea riscurilor generate de tehnologia AI, într-un moment în care compania încearcă să-și crească exponenițial veniturile. Altman a anunțat că intenționează să urce cifra de afaceri a OpenAI, de la aproximativ 13 miliarde de dolari pe an la peste 100 de miliarde, în viitorul apropiat, și să lanseze noi produse pentru consumatori, bazate pe AI, având în vedere și potențialul pentru automatizarea științei, estimat a crea valoare uriașă.

Această dinamică, combinată cu responsabilitatea de a preveni abuzurile și efectele adverse ale tehnologiei, face ca poziția de conducere pentru gestionarea riscurilor să fie una dintre cele mai complexe și critice ale momentului în domeniul inteligenței artificiale.

Pe măsură ce OpenAI vrea să devină un jucător major nu doar în cercetare, ci și în piața comercială, provocările etice și juridice vor juca un rol central. În acest context, recrutarea celui care va ocupa poziția de „head of preparedness” nu va fi doar o formalitate, ci o încercare de a echilibra inovația cu responsabilitatea, pentru a asigura nu doar progres tehnologic, ci și siguranță și încredere în tehnologiile de ultimă generație.