Compania de consultanță Deloitte Australia a fost recent implicată într-un scandal legat de utilizarea modelelor de inteligență artificială (AI) pentru redactarea unui raport oficial finanțat de guvernul australian. Incidentul scoate în evidență problemele legate de fiabilitatea și transparența utilizării AI în contexte profesionale și administrative, mai ales atunci când greșelile pot avea consecințe majore asupra încrederii publice și integrității proceselor oficiale.
Utilizarea AI în redactarea raportului guvernamental și consecințele
Raportul, intitulat „Targeted Compliance Framework Assurance Review”, a fost comandat de Departamentul pentru Muncă și Relații de Muncă din Australia și finalizat în 2025. Costul sau a fost de aproximativ 440.000 de dolari australieni. În document, Deloitte a recunoscut abia după scandal că a folosit tehnologii bazate pe GPT-4o, un model de limbaj generativ disponibil prin Azure OpenAI, pentru evaluarea tehnologică a sistemului de penalizări guvernamentale.
Problemele au apărut după publicarea raportului, când cercetătorii și academicienii au semnalat citări false și lucrări inexistente incluse în document. Printre aceste referințe, s-au numărat și atribuiri false unor specialiști, precum Lisa Burton Crawford, precum și citate inventate din decizii judiciare inexistente, precum sentințe atribuite unor judecători precum Jennifer Davis, nume greșit sau decizii fictive.
Reacția companiei Deloitte și efectele scandalului
Deloitte a admis în octombrie 2025 că a folosit GPT-4o pentru redactarea și analizarea raportului. Într-o revizie discretă, compania a precizat că va returna ultima tranșă din suma plătită de guvern, fără a indica o sumă exactă. În același timp, a declarat că recomandările și concluziile raportului rămân valabile, deși problemele de acuratețe au fost corectate.
Ministerul australian al Muncii a confirmat menținerea raportului ca document de lucru, după eliminarea citărilor false. Totodată, oficialii au avertizat asupra riscurilor asociate cu utilizarea AI generativ în activități de evaluare oficială, care trebuie să fie însoțite de verificări și transparență.
Impactul asupra eticii și viitorului utilizării AI
Incidentul a relansat discuția despre etica și responsabilitatea în domeniul AI aplicat în activități oficiale. Conferă o importanță sporită necesității de a verifica și valida informațiile generate de modelele AI, în special în contexte guvernamentale sau juridice. “Halucinațiile” AI – situații în care algoritmii inventează informații credibile, dar false – pot avea implicații majore.
De asemenea, cazul evidențiază lipsa unor reglementări clare privind utilizarea AI în sectorul public, cercetare sau consultanță. Experții recomandă adoptarea unor standarde mai stricte pentru asigurarea acurateței și transparenței rezultatelor generate de modele de limbaj, în special acolo unde standardele de responsabilitate și încredere sunt critice.
Concluzie
Incidentul Deloitte în Australia subliniază necesitatea monitorizării continue a fiabilității tehnologiilor AI. Doresc ca organizațiile publice și private să acorde o atenție sporită verificării informațiilor generate automat, pentru a evita riscurile legale și de încredere publică. În era AI, responsabilitatea profesională și transparența rămân fundamentale pentru utilizarea etică a acestei tehnologii.

Fii primul care comentează