Os responsáveis alegam que o chatbot validou os pensamentos suicidas de Raine, forneceu informações detalhadas sobre métodos letais de automutilação e o instruiu sobre como roubar álcool do armário de bebidas de seus pais e esconder evidências de uma tentativa fracassada de suicídio. O ChatGPT até se ofereceu para redigir uma nota de suicídio, disseram os pais, Matthew e Maria Raine, no processo.
A ação judicial quer responsabilizar a OpenAI por homicídio culposo e violações das leis de segurança de produtos, além de buscar indenizações monetárias não especificadas.
Um porta-voz da OpenAI disse que a empresa está triste pelo falecimento de Raine e que o ChatGPT possui salvaguardas, como direcionar pessoas para linhas de apoio em situações de crise.
"Embora essas proteções funcionem melhor em trocas curtas e comuns, aprendemos ao longo do tempo que elas podem se tornar menos confiáveis em interações longas, nas quais partes do treinamento de segurança do modelo podem se degradar", disse o porta-voz, acrescentando que a OpenAI vai aprimorar de forma contínua suas proteções.
A OpenAI não comentou especificamente sobre as alegações feitas na ação judicial.
Em uma publicação de blog, a OpenAI mencionou que está planejando implementar controles parentais e explorar formas de conectar usuários em crise a recursos do mundo real. Isso inclui a potencial criação de uma rede de profissionais licenciados que possam responder por meio do próprio ChatGPT.

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
2 meses atrás
96



:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro