Un nou scandal de proporții a zguduit industria globală a inteligenței artificiale, evidențiind riscurile ascunse ale utilizării neautorizate a tehnologiilor avansate. În centrul acestor tensiuni se află compania americană Anthropic, care acuză mai multe jucători din China, printre care și DeepSeek, de folosirea modelului său Claude pentru a-și îmbunătăți sistemele AI printr-o practică numită „distilare” în mod ilicit. Reacția companiei vine pe fondul unor semnale tot mai vizibile privind posibilitatea ca tehnologiile de ultimă generație să fie exploatate în moduri periculoase, fără respectarea normelor de siguranță și etică.

Practici de „distilare”: între utilizare legitimă și abuz

„Distilarea” este, conform explicațiilor oficiale, o metodă frecvent utilizată în domeniu pentru a crea versiuni mai eficiente ale unor modele AI complexe. În esență, aceasta implică antrenarea unui model mai mic, folosind rezultatele generate de un model mai puternic, pentru a-i transfera capacitățile. Tehnica permite dezvoltarea unor sisteme rapide și eficiente, cu costuri reduse, fiind un instrument valoros pentru cercetători și dezvoltatori.

Însă, în mâinile celor rău intenționați, această metodă devine un instrument de fraudă. Potrivit Anthropic, companii precum DeepSeek au creat peste 24.000 de conturi false, generând mai mult de 16 milioane de interacțiuni cu Claude. Scopul: extragerea mecanismelor sofisticate de raționament ale modelului și transferarea acestora în sisteme autonome, dezvoltate independent și fără respectarea normelor de siguranță.

Analiza evidențiază că aceste acțiuni s-au desfășurat la scară industrială, concentrându-se pe abilitățile avansate de logică și discernământ ale modelului Claude. Mai grav, Anthropic susține că aceste interacțiuni au fost folosite pentru a crea versiuni „sigure din punct de vedere al cenzurii”, adaptate pentru a răspunde unor întrebări politice sensibile. În acest mod, anumiți parteneri asiatici își pot ajusta sistemele astfel încât să evite limitările impuse de standardele de siguranță ale modelului original.

Riscuri geopolitice și solicitări pentru restricții

Revelațiile vin într-un context geopolitic tensionat, în care autoritățile din întreaga lume încearcă să reglementeze rapid industria AI, temându-se de potențiale amenințări la adresa securității naționale. Anthropic avertizează asupra faptului că modelele „distilate” în mod ilegal pot să nu mai beneficieze de mecanismele de siguranță și cenzură incorporate în versiunile originale ale sistemelor AI. Astfel, există riscul ca astfel de tehnologii să fie integrate în infrastructuri militare, de supraveghere sau de ciberbeleid, deschizând culoare pentru utilizări periculoase sau neetice.

De asemenea, recentele acțiuni au fost însoțite de o scrisoare deschisă adresată legislatorilor americani, în care OpenAI acuză DeepSeek de încercări de a „beneficia gratuit” de cercetarea și resursele laboratoarelor de AI din SUA. Acest conflict adaugă și mai multă tensiune în dezbaterea globală privind controlul și reglementarea rapidă a tehnologiilor de ultimă generație.

În acest context, Anthropic face apel la o reacție coordonată a industriei, a furnizorilor de servicii cloud și a autorităților de reglementare. O măsură propusă cu tensiune este restricționarea accesului la cipuri avansate, esențiale pentru antrenarea modelelor de mare dimensiune, pentru a limita astfel amploarea eventualelor campanii de „distilare” ilegale și pentru a preveni utilizarea lor în scopuri malefice.

Perspectiva viitorului: între reglementare și inovație

Pe măsură ce industria AI continuă să evolueze, provocarea principală rămâne consolidarea unor standarde etice și de siguranță eficiente pentru a stopa practicile abuzive. În condițiile în care companiile din întreaga lume încep să conștientizeze pericolul extinderii tehnologiilor fără o reglementare corespunzătoare, perspectiva unui control mai strict devine tot mai clară.

Este de așteptat ca, în următoarele luni, autoritățile și organismele de reglementare să își intensifice eforturile pentru a introduce norme stricte, atât pentru utilizarea, cât și pentru dezvoltarea inteligenței artificiale. De asemenea, discuțiile privind colaborarea internațională pentru un cadru global de reglementare se intensifică, pentru a preveni ca astfel de practici ilicite să devină norma industriei.

În timp ce provocările sunt evidente, modul în care acesteătă manifestări vor influența viitorul AI depinde în mare măsură de vigilența și integritatea celor implicați. Întrebarea rămâne: până unde sunt dispuși să meargă cei care dezvoltă și implementează aceste tehnologii, pentru a echilibra inovația cu responsabilitatea?