
Huawei a anunțat dezvoltarea unui model de inteligență artificială destinat să limiteze conținutul politic sensibil și discursurile toxice din mediul digital. Modelul AI, numit DeepSeek-R1-Safe, a fost testat și propus ca o soluție aproape complet eficientă în evitarea subiectelor controversate, în special în contextul reglementărilor stricte din China.
Modelul AI DeepSeek-R1-Safe, instruit cu ajutorul a 1000 de cipuri Ascend AI, se bazează pe modelul open-source R1 al startup-ului chinez DeepSeek, având colaborări cu Universitatea Zhejiang. În ceea ce privește eficiența, testele interne indică o performanță de aproape 100% în identificarea și blocarea discursurilor ilegale sau sensibile. Cu toate acestea, eficiența scade la 40% în fața încercărilor utilizatorilor de a ocoli filtrele, utilizând jocuri de rol sau mesaje criptate.
Huawei susține că rata de apărare a modelului său în domeniul siguranței ajunge la 83%, depășind performanța altor modele chinezești precum Qwen-235B de la Alibaba sau DeepSeek-R1-671B. Dezvoltarea acestui model reflectă eforturile continue ale autorităților și companiilor chineze de a controla și monitoriza conținutul digital, în concordanță cu valorile promovate de stat.
Lansarea a avut loc în cadrul conferinței Huawei Connect de la Shanghai, unde compania a anunțat și alte direcții pentru dezvoltarea de cipuri și tehnologii de calcul. China menține un nivel ridicat de reglementare a tehnologiilor AI, impunând integrări care promovează autocenzura și valorile societății locale în modelele lingvistice.
Controlul asupra conținutului digital prin astfel de modele evidențiază politicile stricte ale Chinei în domeniu. În același timp, monitorizarea evoluției acestor tehnologii devine esențială pentru a înțelege impactul asupra libertății de exprimare și sănătății digitale a utilizatorilor. Menținerea unei informări continue rămâne un pas important în însoțirea acestor schimbări tehnologice.
Fii primul care comentează