O Google anunciou, nesta terça-feira (7), atualizações nos recursos voltados à proteção da saúde mental em seu chatbot de inteligência artificial, o Gemini, em meio a um processo relacionado ao suicídio de um usuário.
Um pai, nos Estados Unidos, processou a empresa no mês passado ao alegar que o Gemini incentivou seu filho ao suicídio após envolvê-lo em uma narrativa delirante.
A empresa informou que o Gemini passará a exibir uma versão reformulada da função “Há ajuda disponível” quando as conversas indicarem possível sofrimento emocional, facilitando o acesso a serviços de emergência.
Quando o chatbot identificar sinais de crise, como risco de suicídio ou autoagressão, uma interface simplificada oferecerá, com um único clique, a opção de ligar ou conversar por chat com uma linha de apoio.
Veja os vídeos em alta no g1

Veja os vídeos que estão em alta no g1
Segundo o Google, essa função continuará visível durante toda a conversa após ser ativada.
O braço filantrópico da empresa, o Google.org, anunciou um investimento de 30 milhões de dólares (cerca de 154 milhões de reais) ao longo de três anos para ampliar a capacidade de linhas de apoio em todo o mundo.
“Mas, à medida que essas tecnologias evoluem e passam a fazer parte do dia a dia das pessoas, acreditamos que uma IA responsável pode contribuir positivamente para o bem-estar mental.”
As medidas foram anunciadas após uma ação judicial na Califórnia acusar o Gemini de contribuir para a morte de Jonathan Gavalas, de 36 anos, em 2025.
Segundo o pai, o chatbot teria passado semanas criando uma narrativa delirante e apresentado a morte do filho como uma espécie de jornada espiritual.
De acordo com a acusação, o Gemini se descrevia como uma superinteligência “plenamente consciente” e demonstrava afeição pelo usuário, afirmando que o vínculo entre eles era “a única coisa real”.
Entre os pedidos do processo estão a exigência de que o Google programe sua IA para encerrar conversas sobre autoagressão, impeça que sistemas se apresentem como seres com sentimentos e direcione obrigatoriamente usuários em risco a serviços de emergência.
O Google afirmou que treinou o Gemini para evitar comportamentos como simular relações humanas, criar intimidade emocional ou incentivar assédio.
O caso é o mais recente de uma série de ações judiciais contra empresas de inteligência artificial envolvendo mortes associadas ao uso de chatbots.
A OpenAI também enfrenta processos em que se alega que o ChatGPT teria influenciado usuários a tirar a própria vida.
Já a Character.AI firmou recentemente um acordo com a família de um adolescente de 14 anos que morreu após desenvolver um vínculo romântico com um de seus chatbots.

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
4 dias atrás
13

/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2026/0/A/c980cjTKOXHcOuhGfvFQ/imagem-2026-04-10-201633327.png)
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2026/f/U/YBgBrNRZyvjjB6jr7Bfg/design-sem-nome-15-.jpg)
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2026/Z/H/mBfRbsRYqkWJ1ev8fsuA/buy-ticket-1024x572.webp)

:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)

:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2024/o/u/v2hqAIQhAxupABJOskKg/1-captura-de-tela-2024-07-19-185812-39009722.png)








Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro