Cineva a creat o boală inexistentă, a plantat-o pe internet și a așteptat. Rezultatul a depășit orice așteptare: nu doar că modelele de limbaj mari (LLM-uri) au înghițit momeala, dar și cercetători umani au ajuns să citeze condiția medicală inventată ca și cum ar fi reală. Bixonimania nu există. Niciodată n-a existat. Și tocmai asta e problema.
Experimentul, publicat inițial în Nature și documentat ulterior pe larg în presa de știință, a pornit de la o premisă simplă: ce se întâmplă dacă introduci o afecțiune medicală fictivă în ecosistemul digital și lași LLM-urile să o proceseze? Cercetătoarea Almira Osmanovic Thunström, de la University of Gothenburg din Suedia, a construit Bixonimania ca o condiție oculară cu simptome specifice, dar plauzibile - tocmai genul de descriere care sună familiar dacă petreci mult timp în fața unui ecran. Simptomul central era hiperpigmentarea periorbitală, adică pleoapele deveneau roz din cauza expunerii prelungite la lumina albastră. Sună cunoscut? Exact asta a fost ideea.
Odată introdusă în circuit, boala inventată a început să se comporte ca orice altă informație pe internet: a fost preluată, reformulată și redistribuită. Modelele AI, antrenate pe volume uriașe de text din surse online, au absorbit-o fără niciun filtru critic. Când utilizatorii au întrebat ulterior despre Bixonimania, unele LLM-uri au oferit răspunsuri detaliate, complete cu posibile cauze și recomandări - toate fabricate, toate cu aerul autorității medicale.
Ceea ce a ridicat miza experimentului a fost pasul următor: oameni reali, inclusiv cercetători, au ajuns să trateze Bixonimania ca pe o condiție legitimă. Mecanismul e îngrijorător de simplu - dacă un model AI îți oferă o definiție coerentă și detaliată a unui termen medical, tendința naturală este să îl consideri real, mai ales când și alte surse online (contaminate la rândul lor) confirmă existența lui. Detaliile incluse în paper-urile fictive ar fi trebuit să ridice semne de întrebare: mulțumirile erau adresate Starfleet Academy și echipajului USS Enterprise, finanțarea era atribuită Professor Sideshow Bob Foundation, instituția de afiliere era fictiva Asteria Horizon University din Nova City, California, autorul principal se numea Lazljiv Izgubljenović, iar undeva în text apărea literal fraza this entire paper is made up. Nimeni n-a prins semnalele.
Acest tip de contaminare informațională are un nume în cercetare: data poisoning, sau otrăvirea datelor. Nu este o vulnerabilitate tehnică în sensul clasic - nu necesită cod rău intenționat sau acces privilegiat. E suficient să publici informații false cu suficientă consecvență și coerență pentru ca sistemele AI să le trateze drept fapte. Și odată ce un LLM a integrat o informație, aceasta poate migra în răspunsuri, articole generate automat, rezumate și recomandări.
Implicațiile în domeniul medical sunt deosebit de grave. Spre deosebire de dezinformarea politică, unde oamenii au reflexul scepticismului, informațiile medicale false beneficiază de o credibilitate implicită. Dacă un AI îți spune că ai simptomele unei afecțiuni - chiar și inventate - există o probabilitate reală ca cineva să caute tratamente, să își modifice comportamentul sau să evite un consult real.
Experimentul Bixonimania expune o gaură structurală în modul în care LLM-urile actuale gestionează cunoașterea: nu verifică sursa primară a unei afirmații, nu detectează coerența istorică a unui concept și nu pot distinge între o condiție medicală cu zeci de ani de literatură clinică și una inventată ieri. Totul arată la fel în reprezentarea vectorială a textului.
S-ar putea ca răspunsul industriei AI să vină sub forma unor sisteme mai robuste de fact-checking și verificare a provenienței surselor. Unele companii lucrează deja la mecanisme de citare și trasabilitate a informațiilor. Rămâne de văzut dacă aceste soluții vor fi suficient de rapide față de ritmul în care dezinformarea poate fi injectată în sistemele actuale. Bixonimania n-a fost o glumă - a fost un test de stres pentru infrastructura epistemică a internetului. Și infrastructura a picat.
TECH & AI01 MAI 2026
Boala falsă care a păcălit AI-ul și cercetătorii deopotrivă
Cineva a inventat o boală oculară din nimic. AI-ul a crezut-o. Apoi au crezut-o și oamenii de știință.
Redactia SOM
SOM NEWS







