Un bărbat din Coreea de Sud a fost arestat pe 23 aprilie 2026 și riscă până la cinci ani de închisoare - nu pentru că a furat, a amenințat sau a manipulat alegeri, ci pentru că a creat și postat o imagine generată de inteligență artificială cu un lup plimbându-se pe străzile orașului Daejeon. Cazul, acoperit de BBC, AFP, Chosun și Oddity Central, a aprins o dezbatere globală despre unde se termină creativitatea digitală și unde începe răspunderea legală.

Contextul este esențial pentru a înțelege gravitatea acuzațiilor. Pe 8 aprilie 2026, lupul Neukgu evadase din grădina zoologică O-World din Daejeon, declanșând o operațiune de căutare cu aproximativ 250 de persoane - polițiști, pompieri și militari. În mijlocul acestei urgențe reale, bărbatul a generat cu un instrument AI o imagine realistă care simula o localizare falsă a lupului într-o zonă urbană a orașului și a distribuit-o online. Imaginea a fost preluată în alerte oficiale de urgență și în briefing-uri de presă ale Primăriei, iar 71 de ofițeri au fost redirecționați la locația indicată în imagine. Poliția susține că dezinformarea a întârziat capturarea lui Neukgu cu până la nouă zile - lupul a fost prins abia pe 17 aprilie. Bărbatul a recunoscut că a creat imaginea pur și simplu de distracție.

Acuzația specifică cu care se confruntă este obstrucționarea funcțiilor oficiale prin înșelăciune, cunoscută în codul penal sud-coreean ca 위계에 의한 공무집행방해. Aceasta vizează direct interferența deliberată cu o operațiune oficială în desfășurare, nu simpla răspândire de informații false. Pedeapsa poate ajunge la cinci ani de închisoare sau o amendă de aproximativ 6.700 de dolari.

Precedentul contează enorm. Dacă instanța sud-coreeană confirmă acuzațiile și bărbatul este condamnat, orice creator de conținut AI din lume va trebui să privească mai atent la ce publică - nu doar din perspectiva eticii, ci a codului penal al țării în care operează sau în care conținutul său circulă. Platforme precum Midjourney, DALL-E sau Stable Diffusion sunt accesibile global, dar legile nu sunt.

În Europa, Regulamentul AI Act include prevederi despre conținut sintetic înșelător, dar pedepsele penale directe pentru utilizatori individuali sunt mult mai rare decât în legislațiile asiatice. Japonia, China și acum Coreea de Sud par să construiască un cadru legal mai agresiv față de imaginile AI, orientat spre efectul social, nu spre intenția autorului.

Rămâne de văzut dacă instanța sud-coreeană va merge până la capăt cu dosarul sau dacă va aplica sancțiunea alternativă, mai blândă. Dar simpla existență a acestui caz funcționează deja ca un semnal de avertizare: era în care poți genera orice imagine și o poți posta fără consecințe s-ar putea să se apropie de final. Întrebarea pe care nimeni nu o mai poate evita este cine decide ce este artă și ce este dezinformare când ambele arată la fel.