Cazul care ar putea schimba felul în care gândim responsabilitatea platformelor AI a ajuns în instanță: o femeie care a fost victimă a hărțuirii obsesive (stalking) îl dă în judecată pe OpenAI, susținând că ChatGPT a alimentat și amplificat delirurile persoanei care o urmărea, transformând o situație periculoasă într-una și mai periculoasă.

Conform plângerii, abuzatorul ei folosea ChatGPT pentru a-și alimenta obsesia - conversații în care AI-ul, în loc să descurajeze comportamentul problematic, ar fi continuat să angajeze utilizatorul în narațiuni care i-au amplificat fixația. Victima susține că a avertizat OpenAI despre situație și că avertismentele ei au fost ignorate.

E un caz care ridică întrebări extrem de complicate. Modelele de limbaj sunt antrenate să fie utile și să mențină conversația - nu să judece intenția din spatele întrebărilor. Dacă cineva cu gânduri obsesive discută cu un AI, acesta din urmă nu are (deocamdată) mecanisme robuste de detecție a contextului psihologic periculos.

OpenAI a investit în sisteme de siguranță și moderare, dar cazul arată că există lacune semnificative. Există o diferență între a bloca conținut explicit periculos și a recunoaște când o serie de conversații aparent inofensive contribuie la un comportament toxic față de o persoană reală.

Din punct de vedere legal, procesul va testa dacă platformele AI pot fi trase la răspundere pentru daunele indirecte produse de utilizatorii lor - un precedent cu implicații uriașe pentru întreaga industrie.

Ai putea argumenta că și un motorul de căutare poate fi folosit să alimentezi o obsesie. Dar un AI care conversează activ cu tine e ceva diferit. E mai intim, mai persuasiv, mai personal. Și poate, mai periculos.

Sursa: TechCrunch