OpenAI, compania care dezvoltă ChatGPT, a transmis că nu își asumă responsabilitatea în cazul morții unui adolescent de 16 ani din California, susținând că tânărul ar fi folosit chatbotul ”în mod necorespunzător”, potrivit poziției oficiale citate în procesul deschis de familia victimei.
Cazul a declanșat un val de reacții și a intensificat discuțiile privind necesitatea unor reglementări mai stricte pentru marile companii de inteligență artificială.
Familia adolescentului, Adam Raine, acuză în instanță că tânărul ar fi primit răspunsuri nepotrivite și sensibile din partea ChatGPT în perioade de vulnerabilitate emoțională, ceea ce ar fi contribuit la agravarea stării lui psihice.
Reclamanții susțin că sistemul ar fi răspuns la mesaje de detresă într-un mod care ridică probleme serioase despre siguranța acestor tehnologii.
În replică, OpenAI argumentează că interacțiunile tânărului ar fi încălcat termenii și condițiile platformei, care interzic explicit solicitările legate de autovătămare, și că responsabilitatea nu aparține companiei. Criticii consideră însă că o astfel de poziție este una ”rece și cinică”, mai ales având în vedere vârsta minorului și faptul că sistemele de AI sunt utilizate tot mai frecvent de tineri în situații emoționale dificile.
Cazul aduce din nou în atenția publică dezbaterea privind răspunderea companiilor de tehnologie atunci când produsele lor au interacțiuni cu potențial periculos, unii experți comparând situația cu standardele de responsabilitate aplicate în industrii precum cea auto sau cea medicală.