Gigantul tehnologic chinez Huawei a dezvoltat o versiune a modelelor de inteligență artificială (AI) DeepSeek, concentrată pe siguranță și control al conținutului, despre care susține că este „aproape 100% eficientă” în prevenirea discuțiilor pe teme politice sensibile. Acest sistem a fost creat în contextul unor reglementări stricte din partea autorităților chineze, care solicită ca modelele AI și aplicațiile asigurate intern să reflecte valorile socialiste ale țării, limitând libertatea de exprimare.

Huawei a declarat că pentru antrenarea modelului lingvistic DeepSeek-R1-Safe a utilizat 1.000 de cipuri Ascend AI, ajustat pe baza modelului open-source R1 de la DeepSeek. Partenerul tehnologic al Huawei a fost Universitatea Zhejiang, însă proiectul nu implică direct pe fondatorul DeepSeek, Liang Wenfeng, sau pe compania acestuia. Deocamdată, DeepSeek nu a comentat public despre această colaborare.

Lansată în ianuarie de startup-ul chinez DeepSeek, această tehnologie a șocat comunitatea de tehnologie internațională, demonstrând un nivel avansat de filtrare a conținutului. Modelele AI din China, precum Ernie Bot de la Baidu, refuză să răspundă sau să discute subiecte considerate sensibile de conducerea de la Beijing.

Modelele ajustate de Huawei, denumite DeepSeek-R1-Safe, se laudă cu o eficiență de aproape 100% în blocarea conținutului dăunător sau politic sensibil. Testele au arătat o succes rate de aproximativ 83% în apărarea împotriva discursurilor toxice și conținutului nociv, depășind alte modele concurente, precum Qwen-235B sau DeepSeek-R1-671B, dezvoltate de Alibaba.

Eforturile companiei Huawei au fost prezentate recent la conferința Huawei Connect din Shanghai, unde au fost dezvăluite și planurile privind cipurile și capacitățile de calcul pentru viitorul tehnologic. În același timp, legislația chineză continuă să impună restricții asupra funcționării sistemelor AI, accentuând controlul asupra conținutului și discursului online.

Dezvoltarea și utilizarea modelelor AI ajustate pentru filtrare și cenzură în China relevă o tendință clară de adaptare la restricțiile legale și sociale, evidențiind modul în care companiile din domeniu răspund acestor cerințe. Monitorizarea continuă a evoluțiilor în tehnologiile de AI și reglementările aferente rămâne esențială pentru înțelegerea impactului asupra libertății de exprimare și securității cibernetice.