ULTIMA ORA
Tehnologie

Conferința ICML a demascat folosirea ilegală a inteligenței artificiale în evaluarea lucrărilor științifice, respingând sute de articole

Cristian Marinescu

Conferința ICML a demascat folosirea ilegală a inteligenței artificiale în evaluarea lucrărilor științifice, respingând sute de articole.

O conferință științifică de prestigiu a implementat o metodă ingenioasă pentru a detecta utilizarea neautorizată a inteligenței artificiale (AI) în procesul de evaluare a lucrărilor. Sistemul, bazat pe introducerea de „instrucțiuni invizibile” în documente, a dus la respingerea a aproape 500 de articole. Decizia organizatorilor a creat un precedent important pentru lumea cercetării, într-un moment în care utilizarea AI în evaluare este în creștere.

Un sistem ingenios de detectare a fraudelor

Metoda folosită de ICML (International Conference on Machine Learning) a implicat inserarea de „watermark”-uri în fișierele PDF trimise pentru evaluare. Aceste instrucțiuni, imperceptibile pentru cititorul uman, puteau fi detectate de modelele de limbaj mari (LLM). Dacă un recenzor folosea un astfel de model pentru a genera un review, acesta era forțat să includă anumite expresii specifice, acționând ca un indicator al utilizării AI.

Organizatorii conferinței au subliniat că nu au folosit detectoare generice de text AI, ci un mecanism propriu. Fiecare caz suspectat a fost verificat manual pentru a evita erorile. În urma acestei acțiuni, 497 de lucrări au fost respinse, reprezentând aproximativ 2% din totalul trimiterilor. Deși organizatorii au recunoscut că metoda nu este infailibilă și că pot exista modalități de a o evita, mesajul transmis a fost clar: încălcarea regulilor asumate atrage sancțiuni, indiferent de calitatea review-ului.

Implicațiile pentru lumea cercetării

Utilizarea inteligenței artificiale în peer review a devenit o practică tot mai răspândită, în ciuda interdicțiilor formale din numeroase publicații științifice. Un sondaj realizat în 2025 a arătat că mai mult de jumătate dintre cercetători foloseau astfel de instrumente pentru evaluare. Această discrepanță evidențiază tensiunea dintre utilitatea practică a AI și normele etice ale publicării științifice.

Conferința ICML a încercat să gestioneze această situație prin adoptarea a două politici paralele. Una interzicea complet utilizarea LLM-urilor în evaluare, iar cealaltă permitea o utilizare limitată. Sancțiunile au fost aplicate exclusiv celor care au încălcat politica strictă. Reacțiile în comunitate au fost împărțite, unii cercetători salutând fermitatea conferinței, în timp ce alții au exprimat îngrijorări cu privire la posibilele efecte asupra recenzorilor.

Decizia ICML marchează un moment important pentru integritatea academică. Organizatorii de conferințe și editorii de jurnale au acum un exemplu concret de aplicare a regulilor privind AI. În contextul presiunii constante de a publica, această schimbare ar putea remodela rapid limitele dintre asistența tehnologică legitimă și potențialele fraude academice. Ulterior scandalului, mai multe conferințe și publicații de profil au anunțat revizuirea politicilor interne privind utilizarea inteligenței artificiale în procesul de evaluare.

Sursa: Playtech.ro