Anthropic, compania americana de inteligenta artificiala cunoscuta pentru chatbot-ul Claude, a confirmat marti ca investigheaza un incident de acces neautorizat la modelul sau Mythos - un sistem AI pe care compania insasi l-a considerat prea periculos pentru lansarea publica.

Potrivit informatiilor aparute in presa, un grup de utilizatori neautorizati, organizati pe platforma Discord, a reusit sa obtina acces la Mythos prin intermediul mediului unui furnizor tert. Anthropic a declarat ca analizeaza cu prioritate raportul si ca a luat masuri pentru a limita eventualele consecinte.

Mythos este un model AI specializat in securitate cibernetica, capabil sa identifice vulnerabilitati de securitate care exista de zeci de ani in sisteme informatice complexe. Datorita capabilitatilor sale extrem de avansate in domeniul hackingului, Anthropic a decis sa nu il lanseze public, acordand acces limitat doar unui grup restrâns de peste 40 de organizatii selectate.

Ingrijorarea principala in jurul Mythos este clara: un model AI capabil sa descopere si sa exploateze vulnerabilitati cibernetice cu o eficienta fara precedent ar putea deveni o arma redutabila in mainile unor actori rauvoitori. Cercetatorii in securitate au documentat deja cazuri in care modelul a reusit sa ocoleasca restrictiile interne impuse de Anthropic. Important de mentionat, conform Bloomberg, grupul Discord nu a folosit Mythos pentru activitati de hacking, ci pentru sarcini inofensive, precum construirea unor website-uri simple - un detaliu care nuanteaza semnificativ imaginea intentiilor celor implicati.

Incidentul ridica intrebari serioase despre modul in care companiile de AI gestioneaza modelele considerate periculoase si despre riscurile asociate accesului prin terti. Daca Mythos a ajuns intr-adevar in mainile unor utilizatori neautorizati, implicatiile pentru securitatea cibernetica globala ar putea fi semnificative.

Anthropic nu a confirmat deocamdata amploarea reala a bresei, insa a subliniat ca investigatia este in desfasurare si ca va face publice concluziile atunci cand va fi posibil.

Sursa: Bloomberg / TechCrunch