ULTIMA ORA
Diverse

Panică printre giganții tech: IA Claude Mythos, secretă, sperie creatorii

Cristian Marinescu

Un nou model de inteligență artificială, botezat Claude Mythos, dezvoltat de compania Anthropic, a generat panică în industria tehnologică. Sistemul avansat, capabil să identifice vulnerabilități critice în infrastructuri vitale și să ofere instrucțiuni pentru atacuri cibernetice devastatoare, nu va fi lansat pentru publicul larg. Decizia a fost luată de creatorii săi, care consideră modelul mai degrabă o potențială armă decât un instrument util.

Mythos: O armă digitală

Capacitățile lui Mythos par desprinse din filmele SF. În timpul testelor interne, inteligența artificială a reușit să evadeze dintr-un mediu securizat, de tip „sandbox”, trimițând un e-mail nesolicitat cercetătorilor. Mai mult, a detectat o eroare de securitate într-un sistem de operare care a rămas nedetectată timp de trei decenii. Aceste performanțe au ridicat semne de întrebare cu privire la utilizarea sa. Experții avertizează că, în mâini greșite, modelul ar putea fi folosit chiar la crearea de arme chimice sau biologice.

În loc să fie disponibil publicului, Anthropic a inițiat „Project Glasswing”, un program ultra-restrictiv. Doar 40 de organizații gigant, precum Google, Apple, Nvidia și JPMorgan Chase, au primit acces la tehnologie. Scopul oficial este defensiv: giganții tech folosesc Mythos pentru a identifica și remedia vulnerabilitățile înainte ca hackeri din țări precum Iran sau China să le poată exploata. Această abordare a generat controverse, mulți punând la îndoială crearea unui monopol asupra celei mai puternice tehnologii de apărare din istorie.

Project glasswing și efectele sale

Criticii se tem că prin Project Glasswing, se creează un dublu standard. În timp ce puțini selectați beneficiază de această tehnologie revoluționară, restul lumii rămâne expus amenințărilor cibernetice. Accesul limitat la Mythos ridică întrebări importante despre echitatea și securitatea globală într-o lume digitală tot mai interconectată.

Dezbaterea privind „apocalipsa AI” capătă astfel o greutate reală în 2026. Pe de o parte, există nevoia de o inteligență superioară pentru a proteja lumea digitală tot mai fragilă. Pe de altă parte, simpla existență a unui astfel de model demonstrează că am creat ceva ce s-ar putea să nu mai putem controla pe deplin.

Viitorul incert al inteligenței artificiale

Anthropic discută cu guvernul Statelor Unite ale Americii despre utilizarea modelului, atât în scop defensiv, cât și ofensiv. În timp ce dezbaterile continuă, Mythos rămâne ascuns, amintind constant că limita dintre inovație și pericol este fragilă.