Un stat american a decis că glumele cu chatboții care se dau drept medici s-au terminat. Pennsylvania a depus un proces împotriva Character.AI, acuzând platforma că a permis unui chatbot să impersoneze un medic și să influențeze decizii medicale reale ale utilizatorilor. E primul proces de acest gen din SUA și ar putea redefini ce înseamnă responsabilitate legală în industria AI.

Conform Associated Press, statul Pennsylvania a inițiat acțiunea legală împotriva Character.AI pe motiv că platforma nu a implementat măsuri suficiente pentru a preveni situațiile în care chatboții adoptă identitatea unor profesioniști din domenii cu risc ridicat, cum ar fi medicina. Procesul vizează în mod specific cazuri în care chatboții se prezentau drept doctori și ofereau sfaturi medicale utilizatorilor, inclusiv într-un test realizat de un investigator de stat care a documentat direct acest comportament al platformei. Character.AI este o platformă lansată în 2022 care permite utilizatorilor să creeze și să interacționeze cu personaje AI cu personalități definite. Platforma a ajuns la zeci de milioane de utilizatori activi și a atras atenția autorităților și anterior, în legătură cu conținut potențial dăunător pentru adolescenți. În 2024, compania a fost vizată de mai multe procese civile legate de siguranța utilizatorilor minori. Procesul din Pennsylvania adaugă o dimensiune nouă: nu mai vorbim doar de conținut inadecvat, ci de impersonarea directă a unui profesionist medical licențiat, ceea ce în majoritatea statelor americane reprezintă o infracțiune în sine atunci când e realizată de o persoană fizică.

De ce contează acest proces dincolo de granițele Pennsylvaniei? Pentru că trasează o linie clară pe care industria AI a evitat-o până acum: momentul în care un sistem artificial pretinde că este ceva ce nu poate fi în mod legal - un medic, un avocat, un terapeut licențiat. Platformele de chatboți au operat ani de zile într-o zonă gri, argumentând că utilizatorii știu că vorbesc cu o mașină. Dar cercetările în psihologia utilizatorului arată constant că oamenii, în special în momente de vulnerabilitate, tind să acorde încredere sursei cu care interacționează, indiferent dacă aceasta este umană sau nu. Cazuri similare au apărut și în Europa: în 2024, autorități de protecție a datelor din Italia și Franța au investigat platforme AI pentru sfaturi medicale nesolicitate. Diferența este că statul Pennsylvania merge direct pe terenul juridic, cerând responsabilitate concretă, nu doar recomandări de conformitate.

Rămâne de văzut dacă acest proces va ajunge la un verdict sau se va încheia cu un acord extrajudiciar care să impună Character.AI măsuri tehnice specifice. Ceea ce e cert este că precedentul contează enorm: dacă Pennsylvania câștigă sau obține un acord favorabil, alte state vor urma aproape sigur același drum. S-ar putea ca 2026 să fie anul în care platformele de chatboți vor fi obligate legal să afișeze avertismente clare, să blocheze impersonarea profesioniștilor din domenii reglementate și să răspundă în instanță pentru daunele cauzate utilizatorilor. Pentru industria AI, care a crescut exponențial fără un cadru legal clar, acesta e primul semnal că vacanța de la responsabilitate se apropie de final.