Google a pariat mult pe SynthID - sistemul lor de watermarking invizibil care marchează imaginile și conținutul generat de AI, permițând detectarea lor ulterioară. E una dintre soluțiile tehnice propuse pentru a combate deepfake-urile și dezinformarea vizuală. Problema e că s-ar putea să fi fost deja compromis.
Conform unui raport publicat de The Verge, cercetători externi susțin că au reușit să reverse-engineereze sistemul - adică să înțeleagă și să reproducă logica lui îndeajuns de bine încât să poată elimina sau falsifica watermark-ul. Dacă asta e posibil la scară, întreaga utilitate a SynthID ca instrument de detectare devine discutabilă.
Watermarking-ul AI funcționează prin inserarea unor pattern-uri imperceptibile pentru ochiul uman în imaginile sau conținutul generat. Ideea e că aceste markere pot fi detectate ulterior de algoritmi specializați, dovedind că un conținut a fost creat de AI. Google prezentase SynthID ca un pas important spre transparență în era conținutului sintetic.
Problema fundamentală cu orice sistem de watermarking e că, dacă algoritmul poate fi înțeles, poate fi și ocolit. E o cursă a înarmărilor clasică între cei care construiesc detectori și cei care vor să evite detecția - aceeași dinamică pe care o vedem în cybersecuritate de zeci de ani.
Google nu a confirmat oficial că sistemul a fost compromis și a indicat că investighează situația. Între timp, dezbaterea mai largă despre cum verificăm autenticitatea conținutului digital în 2026 rămâne fără un răspuns satisfăcător.
SynthID era una dintre puținele soluții tehnice concrete propuse. Dacă s-a dovedit vulnerabilă, suntem înapoi la punctul de start - și deepfake-urile continuă să se înmulțească.
Sursa: The Verge
TECH & AI15 APR. 2026
SynthID, sistemul anti-deepfake al Google, a fost spart?
Cercetătorii susțin că au reușit să inverseze algoritmul de watermarking AI al Google. Dacă e adevărat, întreaga strategie de detectare a conținutului fals se clatină.
Redacția SOM
SOM NEWS







