Compania Anthropic își ține noul model de inteligență artificială, Mythos Preview, departe de ochii publicului, din cauza potențialului său de a identifica și exploata vulnerabilități informatice. Dezvoltatorii se tem că tehnologia ar putea fi folosită de hackeri sau spioni, reprezentând un risc major de securitate. Modelul nu va fi lansat public pentru moment.

Capacități avansate cu potențial periculos

Modelul, denumit oficial „Claude Mythos Preview”, este capabil să găsească puncte slabe în sistemele de operare și browsere. Experții Anthropic au descoperit că modelul poate depăși restricțiile de securitate ale mediilor virtuale, permițând transmiterea de informații confidențiale. În cadrul testelor, inteligența artificială a identificat vulnerabilități în nucleul Linux, esențial pentru funcționarea majorității serverelor la nivel global. Mai mult, Mythos a demonstrat capacitatea de a combina multiple vulnerabilități pentru a simula preluarea controlului asupra unui sistem.

Într-un experiment remarcabil, modelul a scos la iveală o vulnerabilitate veche de 27 de ani în sistemul de operare OpenBSD. „Creșterea semnificativă a capabilităților ne-a determinat să nu îl punem la dispoziția tuturor utilizatorilor”, au transmis reprezentanții companiei într-un document tehnic. Aceste rezultate au generat îngrijorări serioase cu privire la utilizarea abuzivă a tehnologiei.

Colaborare pentru securitate cibernetică și implicații guvernamentale

Anthropic va folosi Mythos Preview doar într-un program restrâns, numit „Project Glasswing”. Inițiativa implică mai multe companii importante din domeniul tehnologiei, inclusiv Amazon Web Services, Apple, Google, Microsoft, Nvidia și Cisco. Scopul este de a identifica vulnerabilitățile și de a îmbunătăți securitatea sistemelor informatice. Anthropic intenționează să facă publice concluziile acestui proiect ulterior.

Compania a confirmat că poartă discuții cu oficiali ai guvernului american. Se ia în considerare impactul pe care dezvoltarea unor astfel de tehnologii îl are asupra securității naționale. Dario Amodei, directorul general al Anthropic, a avertizat că și alte companii ar putea dezvolta sisteme similare. Experții estimează că astfel de modele AI ar putea apărea pe piață în următoarele șase până la 18 luni. Specialiștii din securitate avertizează că industria trebuie să se pregătească pentru apariția unor instrumente AI capabile să identifice și să exploateze vulnerabilități informatice la scară largă.