Altman disse estar "profundamente arrependido" por a empresa não ter alertado a polícia sobre conteúdos preocupantes da usuária no ChatGPT.
O primeiro-ministro da província canadense da Colúmbia Britânica, David Eby, classificou o pedido de desculpas como "necessário, e ainda assim grosseiramente insuficiente".

Ataque a tiros em escola e casa deixa 10 mortos e 25 feridos no Canadá
Atiradora foi banida do ChatGPT oito meses antes
Em 10 de fevereiro, uma mulher transgênero de 18 anos matou a mãe e o meio-irmão em casa, antes de ir a uma escola secundária local e abrir fogo. Ela matou cinco crianças e um professor e, em seguida, tirou a própria vida.
Após o ataque, a OpenAI afirmou ter identificado a conta da suspeita por meio de seus sistemas de detecção de abuso e banido-a do chatbot ainda em junho, oito meses antes da tragédia.
Altman também justificou o pedido de desculpas mais de dois meses depois da tragédia, alegando que queria respeitar o luto dos moradores de Tumbler Ridge.
Como o ChatGPT denuncia suspeitas de violência?
Em casos graves, os sistemas são projetados para sinalizar comportamentos de alto risco para revisão humana. Se uma ameaça crível for identificada, a empresa pode compartilhar dados relevantes da conta com as autoridades policiais.
Após o ataque, autoridades canadenses convocaram a equipe de segurança da OpenAI e ameaçaram responder com ações regulatórias caso mudanças não fossem feitas. A empresa afirmou que iria reforçar suas medidas de segurança e que criou um canal de contato direto com a polícia.
Na carta, Altman disse que a OpenAI está comprometida em encontrar formas de evitar tragédias semelhantes. "Daqui para frente, nosso foco continuará sendo trabalhar com todos os níveis de governo para ajudar a garantir que algo assim nunca aconteça novamente", afirmou.
A família de uma menina que ficou gravemente ferida no tiroteio entrou com uma ação judicial por negligência contra a gigante de tecnologia dos Estados Unidos.
Eles alegam que a OpenAI sabia que a atiradora planejava um "evento com mortes em massa", mas não "adotou nenhuma medida".

Google e Chat GPT não são médicos; conheça os riscos de se informar somente com eles

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
1 hora atrás
2

/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2024/b/l/u15Uw6TDupxn1iNEaRcA/captura-de-tela-2024-03-31-191032.png)



:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)

:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2024/o/u/v2hqAIQhAxupABJOskKg/1-captura-de-tela-2024-07-19-185812-39009722.png)








Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro