Unul dintre cele mai îngrijorătoare incidente din lumea inteligenței artificiale a ajuns în atenția echipei Sold Out Media și a fost dezbătut pe larg în podcastul INTERNET BÂRFE – Episodul 8. Este vorba despre Mythos, un model AI dezvoltat de Anthropic și specializat în identificarea vulnerabilităților de securitate cibernetică, unele vechi de zeci de ani.
Situația a început simplu și s-a complicat rapid. Un grup de utilizatori de pe Discord a reușit să obțină acces neautorizat la acest model, ceea ce a declanșat imediat alarme în interiorul companiei. Motivul îngrijorării este evident: un AI care poate localiza și exploata găuri de securitate în sisteme informatice, ajuns în mâinile greșite, devine o armă cibernetică extrem de puternică.
Anthropic a acționat rapid. Compania a restricționat accesul la Mythos, limitându-l doar la un cerc select de organizații verificate. Măsura este logică, dar incidentul în sine ridică o întrebare mult mai mare: cum ar trebui gestionat accesul la modele AI cu potențial distructiv ridicat?
În cadrul episodului, Speak și Florin Risteu au subliniat că acest tip de incident nu este o excepție, ci mai degrabă un semnal de alarmă pentru întreaga industrie. Pe măsură ce modelele devin mai capabile, riscurile asociate accesului necontrolat cresc proporțional. Nu mai vorbim despre un chatbot care scrie texte ciudate, ci despre sisteme care pot, teoretic, să compromită infrastructuri digitale întregi.
Florin, una dintre vocile principale ale podcastului, a atras atenția asupra unui paradox interesant: companiile dezvoltă aceste modele pentru a îmbunătăți securitatea, dar însăși existența lor creează un nou vector de atac. Cu cât un model este mai bun la identificarea vulnerabilităților, cu atât devine mai valoros pentru hackeri.
Discuția a mers și spre zona de responsabilitate. Cine decide ce organizații sunt suficient de încredere pentru a accesa astfel de modele? Anthropic și-a asumat această decizie unilateral, dar, pe termen lung, industria va avea nevoie de un cadru mai clar, poate chiar de reglementări la nivel internațional.
Ceea ce face acest incident relevant nu este doar dimensiunea tehnică, ci și implicațiile sociale. Într-o lume în care AI-ul devine tot mai prezent în infrastructuri critice, un model precum Mythos reprezintă exact tipul de tehnologie care nu poate fi lăsată fără supraveghere strictă. Episodul 8 din podcastul INTERNET BÂRFE, a reușit să explice această realitate într-un mod accesibil, fără să cadă în panică irațională, dar și fără să minimalizeze riscurile reale.
PODCAST HIGHLIGHTS27 APR. 2026
Mythos, AI-ul de securitate scăpat de sub control
Modelul Anthropic, specializat în securitate cibernetică, a fost accesat neautorizat de un grup de pe Discord. Incidentul ridică întrebări serioase despre cine ar trebui să controleze AI-ul periculos.
Redactia SOM
SOM NEWS







