Directorul FBI Kash Patel a lansat o declarație bombă: inteligența artificială a prevenit «numeroase atacuri violente» împotriva Statelor Unite. Sună impresionant. Problema e că nu există nicio dovadă verificabilă care să susțină afirmația - deși a menționat cazuri în North Carolina și New York, niciun detaliu concret nu a fost făcut public. Și totuși, declarația circulă necontestată în spațiul oficial american.
Conform Futurism, Patel a făcut această afirmație fără să ofere detalii verificabile cu privire la numărul de atacuri prevenite, tipul de tehnologie AI folosită, agențiile implicate sau măcar cadrul temporal în care aceste intervenții ar fi avut loc. Directorul FBI a prezentat succesul AI drept un fapt împlinit, într-un context în care Biroul Federal de Investigații extinde activ utilizarea instrumentelor de supraveghere bazate pe inteligență artificială. Nu este prima oară când oficiali americani invocă tehnologia AI ca soluție miraculoasă la probleme complexe de securitate națională, fără a oferi transparență publică asupra modului în care aceste sisteme funcționează sau cât de precise sunt. Subiectul a generat reacții puternice în rândul jurnaliștilor și cercetătorilor în domeniul securității digitale, care cer dovezi concrete înainte ca astfel de declarații să fie tratate drept fapte stabilite.
De ce contează asta dincolo de o simplă declarație neconfirmată? Pentru că afirmațiile oficiale nefondate despre AI și securitate națională au consecințe reale. Atunci când un director FBI spune că AI-ul «a oprit atacuri», fără să fie tras la răspundere pentru acea afirmație, se creează un precedent periculos: cel al supravegherii fără responsabilitate. Sistemele AI folosite în law enforcement au fost documentate în numeroase studii internaționale ca surse de erori, în special în ceea ce privește recunoașterea facială aplicată unor grupuri demografice minoritare. Mai mult, afirmațiile de tipul «AI-ul ne-a salvat» pot fi folosite politic pentru a justifica extinderea bugetelor și competențelor de supraveghere, fără ca publicul sau Congresul să poată evalua dacă acele investiții sunt justificate sau eficiente. Modelul nu e nou - a mai funcționat cu «algoritmii predictivi» din justiția penală americană, adoptați masiv în anii 2010 și ulterior contestați dur de auditori independenți.
Rămâne de văzut dacă Congresul va solicita clarificări sau dacă declarația lui Patel va trece neexaminată, în contextul unui climat politic în care critica adusă FBI-ului poate fi interpretată partizan în orice direcție. S-ar putea ca adevărul din spatele afirmației să fie parțial real - sisteme AI pot fi folosite în analiza datelor de informații - dar fără detalii verificabile, publicul nu are nicio modalitate de a evalua succesul real față de eșecuri sau de costuri civile. Transparența nu e un lux al democrației. E fundația care face diferența dintre o agenție de securitate și un aparat de supraveghere care răspunde exclusiv față de sine.
TRENDING08 MAI 2026
FBI susține că AI-ul a oprit atacuri violente, fără nicio dovadă
Directorul FBI Kash Patel a declarat că AI-ul a prevenit numeroase atacuri în SUA. Problema: nu există nicio dovadă verificabilă.
Redactia SOM
SOM NEWS







