Jurnalist de renume, suspendat după ce a folosit inteligența artificială pentru a genera citate false
Peter Vandermeersch, jurnalist și manager media cu o carieră importantă în spate, a fost suspendat temporar din funcția de fellow pentru „jurnalism și societate” de către Mediahuis. Motivul? Folosirea unor instrumente de inteligență artificială (AI) pentru a genera citate care nu corespundeau realității. Scandalul pune sub semnul întrebării limitele utilizării AI în jurnalism și ridică semnale de alarmă cu privire la credibilitatea presei.
Vandermeersch a recunoscut, pe blogul său de pe platforma Substack, că a utilizat aplicații precum ChatGPT, Perplexity și Google Notebook pentru a rezuma articole lungi. Pornind de la aceste rezumate, a scris ulterior textele. Recunoașterea vine odată cu o serie de detalii îngrijorătoare. Sistemele de AI au „inventat citate”, după cum afirmă jurnalistul, iar acesta le-a preluat ca fiind declarații autentice. „AI-ul a ajuns să «pună cuvinte în gura oamenilor»”, a scris Vandermeersch.
Erorile nu s-au oprit aici. Jurnalistul a admis că nu a verificat suficient informațiile și că a descoperit problema încă de anul trecut, când două dintre articolele sale conțineau citate generate de AI, fără a le corecta ulterior. Prin urmare, suspendarea sa nu face decât să reliefeze importanța verificării informațiilor și a acurateței în jurnalism.
Problemele pot apărea rapid încrederea exagerată în AI
La prima vedere, cazul poate părea rezultatul unei încrederi exagerate în noile tehnologii digitale. Implicațiile sunt, însă, mult mai profunde. Credibilitatea este piatra de temelie a presei. Citatele directe, în special, conferă autoritate și precizie. Când un citat este fabricat de AI, se produce o alterare a unuia dintre elementele de bază ale jurnalismului. Un cititor se așteaptă ca prezența ghilimelelor să indice o verificare prealabilă, o sursă și o responsabilitate editorială.
Mai mult, situația este cu atât mai gravă cu cât vine din interiorul unei instituții media. Vandermeersch nu este un începător, ci un jurnalist cu experiență, care ar fi trebuit să fie conștient de limitele AI. Scandalul are o încărcătură simbolică puternică: dacă un nume cunoscut publică afirmații inexistente, generate de AI, se ridică întrebarea câți alți jurnaliști folosesc aceste instrumente fără o verificare adecvată.
Provocările utilizării AI în jurnalism
În ultimele luni, tot mai multe redacții au început să integreze AI în fluxul de lucru, inclusiv pentru traduceri, generare de idei sau rezumate. Vandermeersch însuși a menționat că utilizează astfel de instrumente. Problema principală nu este utilizarea AI în sine, ci tentația de a trata rezultatele generate de acestea ca fapte verificate.
Modelele lingvistice pot produce texte convingătoare, dar nu au capacitatea de a face distincția dintre adevăr și fals. Când aceste produse sunt tratate ca surse de informații, presa se confruntă cu un risc major. Viteza și comoditatea pot începe să afecteze standardele profesionale. Cazul nu demonstrează că întreaga presă a cedat în fața AI, dar evidențiază cât de rapid poate apărea o breșă gravă atunci când verificarea umană devine superficială.
În prezent, nu se cunosc alte detalii despre ancheta internă a Mediahuis, dar este de așteptat ca aceasta să ofere date despre impactul scandalului asupra reputației instituției.
Sursa: Playtech.ro