Sistemul care stă la baza întregii științe moderne se clatină. Revistele academice și editorii de jurnal din toată lumea se confruntă cu un val de lucrări de cercetare generate cu ajutorul inteligenței artificiale - și cele mai multe trec neobservate. Nu pentru că nimeni nu încearcă să le prindă, ci pentru că AI-ul a devenit atât de bun, încât diferența dintre un text scris de un om și unul generat de o mașină aproape că a dispărut.
Conform The Verge, editorii de jurnale și recenzorii implicați în procesul de peer review sunt literalmente copleșiți de manuscrise produse cu ajutorul unor modele de limbaj de mari dimensiuni. Problema nu este nouă, dar în 2026 a atins un nivel critic: volumul de lucrări suspecte a explodat, iar instrumentele existente de detectare a textului generat de AI nu mai țin pasul cu evoluția modelelor. Recenzorii - oameni de știință voluntari care evaluează calitatea cercetărilor trimise spre publicare - sunt nevoiți să petreacă timp din ce în ce mai mult verificând autenticitatea unui text, în loc să se concentreze pe conținutul științific în sine.
Ce face situația cu adevărat îngrijorătoare este că lucrările generate de AI au evoluat calitativ. Nu mai sunt texte pline de erori gramaticale sau fraze ciudate - cele mai noi modele produc paragrafele cu un stil academic fluent, cu referințe corecte și cu o structură logică. Unii cercetători au raportat că au primit spre recenzie articole care sunau impecabil, dar care, la o analiză mai atentă, conțineau date inventate, experimente care nu au existat niciodată sau concluzii nefondate. Termenul folosit de comunitatea academică pentru acest tip de conținut este „slop" - zgomot de înaltă calitate care consumă resursele unui sistem deja supraîncărcat.
De ce contează asta enorm? Pentru că peer review-ul este gardul de siguranță al științei. Înainte ca o cercetare să fie publicată și citată de alți oameni de știință, ea trebuie validată de experți independenți. Dacă acel filtru cedează - fie prin suprasatirare, fie prin incapacitatea de a distinge AI-ul de un autor uman - atunci articolele false pot intra în circuitul academic și pot influența alte cercetări, politici publice sau chiar decizii medicale. Practic, e ca și cum ai permite falsificarea monedei într-un sistem financiar: la un moment dat, nimeni nu mai are încredere în nimic.
Există precedente parțiale care arată cât de rapid se poate deteriora încrederea în informația academică. Criza reproducibilității din anii 2010, când s-a descoperit că o mare parte din studiile de psihologie nu puteau fi replicate, a zguduit comunitatea științifică. Acum, AI-ul ridică o provocare și mai profundă: nu doar că rezultatele pot fi greșite, dar întreaga origine a unui studiu poate fi fictivă.
Comunitatea academică încearcă să răspundă. Unele reviste au impus declarații obligatorii prin care autorii trebuie să specifice dacă au folosit AI în redactarea lucrării. Altele testează noi instrumente de detectare sau cer fișierele brute ale datelor experimentale. Dar aceste măsuri sunt departe de a fi suficiente, iar implementarea lor variază enorm de la un jurnal la altul.
Rămâne de văzut dacă industria academică va reuși să construiască un sistem robust de verificare înainte ca daunele să devină ireversibile. S-ar putea ca soluția să vină din direcția opusă: nu detectarea AI-ului în texte, ci verificarea riguroasă a datelor și metodologiei - adică tocmai ce AI-ul nu poate falsifica fără să lase urme. Cert este un lucru: dacă nu se acționează rapid, credibilitatea unui întreg edificiu construit de omenire în sute de ani riscă să fie erodată de câteva linii de cod.
TECH & AI16 MAI 2026
Lucrările științifice scrise de AI nu mai pot fi detectate
Revistele academice sunt inundate de articole generate de AI aproape imposibil de prins. Știința are o problemă imensă.
Redactia SOM
SOM NEWS







