Avertismentele privind siguranța inteligenței artificiale au fost ignorate la OpenAI, potrivit unor documente interne și relatări ale foștilor angajați, sugerând că angajamentul inițial al companiei față de siguranță a fost diluat. Informațiile indică o discrepanță între declarațiile publice ale directorului executiv, Sam Altman, și realitatea resurselor alocate pentru cercetarea privind siguranța IA.

Promisiuni fără acoperire

În 2022, după ce o lucrare de cercetare a ridicat semne de întrebare cu privire la „alinierea înșelătoare” a modelelor IA, SAM Altman a promis că va investi un miliard de dolari pentru a aborda această problemă. El ar fi vrut să ofere chiar un premiu pentru a stimula cercetarea în domeniu. Un student doctorand de la Universitatea din California, Berkeley, a fost convins de angajament și a părăsit mediul academic pentru a se alătura OpenAI.

Cu toate acestea, în primăvara lui 2023, promisiunile au început să se schimbe. În loc de investiția inițială, SAM Altman a pledat pentru înființarea unei echipe interne de „super-aliniere”. Anunțul oficial prevedea alocarea a „20% din capacitatea de calcul pe care am asigurat-o până în prezent”. Această resursă era estimată la peste un miliard de dolari.

Realitatea a fost însă alta. Mai mulți cercetători au declarat că resursele reale alocate au fost între 1% și 2% din capacitatea de calcul a companiei. Mai mult, o parte din capacitatea de calcul disponibilă echipei era de fapt pe cele mai vechi echipamente. Cercetătorii au suspectat că hardware-ul superior era rezervat activităților generatoare de profit.

Preocupări ignorate și decizii controverse

Între timp, Ilya Sutskever, unul dintre fondatorii OpenAI, și-a intensificat îngrijorările legate de siguranța IA. El a convocat o întâlnire în care a avertizat că toți angajații vor trebui să se concentreze pe siguranță „sau vom fi distruși”. Cu toate acestea, echipa de super-aliniere a fost dizolvată în anul următor, fără a-și finaliza misiunea.

Mai târziu, mesaje interne arată că membrii conducerii și ai consiliului de administrație au început să creadă că omisiunile și dezinformările lui SAM Altman ar putea avea implicații asupra siguranței produselor OpenAI. Într-o întâlnire din decembrie 2022, SAM Altman a asigurat membrii consiliului că diverse caracteristici ale modelului GPT-4 au fost aprobate de un comitet de siguranță. Documentația solicitată de unul dintre membrii consiliului a arătat că cele mai controversate caracteristici nu fuseseră aprobate.

Un alt incident a scos în evidență neglijarea siguranței. SAM Altman nu a menționat consiliului că MICROSOFT lansase o versiune timpurie a ChatGPT în India fără o revizuire de siguranță obligatorie.

În prezent, OpenAI nu a comentat public acuzațiile.