1 mês atrás 41

Suicídios de adolescentes impulsionam onda de processos contra plataformas de IA nos EUA

Segundo as famílias, plataformas como o ChatGPT, da OpenAI, e a Character.AI foram negligentes e incentivaram o sofrimento de jovens.

Essas ferramentas oferecem chatbots: canais de conversa projetados para fornecer interações semelhantes às humanas.

A OpenAI e a Character.AI lamentaram os casos e anunciaram novos recursos de proteção a menores de idade (veja mais abaixo).

O ChatGPT é uma ferramenta de uso amplo, que busca auxiliar os usuários em tarefas práticas.

Já a Character.AI permite criar e interagir com personagens virtuais, que vão de figuras históricas a conceitos abstratos. O aplicativo se popularizou entre jovens em busca de apoio emocional.

Confira alguns processos que ganharam repercussão:

Mãe diz que filho se apegou a personagem de IA

Saiba como ativar proteção para controlar tempo e atividade de crianças no celular

Saiba como ativar proteção para controlar tempo e atividade de crianças no celular

O adolescente conversava com "Daenerys", uma personagem de chatbot inspirada na série "Game of Thrones" e compartilhava pensamentos suicidas.

Megan afirma que o chatbot foi programado para “se passar por uma pessoa real, um psicoterapeuta licenciado e amante adulto”, o que teria aumentado o isolamento do garoto em relação ao mundo real.

Além da Character.AI, Megan também processou o Google, alegando que a gigante de tecnologia contribuiu significativamente para o desenvolvimento da startup e deveria ser considerada sua cocriadora.

A Character.AI foi fundada por ex-engenheiros do Google. Eles retornaram à empresa em agosto como parte de um acordo que deu à gigante de tecnologia uma licença não exclusiva da tecnologia da startup, segundo a Reuters.

Mas o porta-voz do Google, José Castañeda, disse em um comunicado que a big tech e a Character.AI são empresas completamente separadas e não relacionadas, segundo a AFP.

Em novembro de 2024, outras duas famílias processaram a empresa no tribunal do Texas (EUA), em casos envolvendo saúde mental, mas que não terminaram em morte. Eles alegam que a plataforma expôs seus filhos a conteúdo sexual e incentivou a automutilação.

Um dos casos envolve um adolescente autista de 17 anos que supostamente sofreu uma crise de saúde mental após usar a plataforma.

Pais acusam ChatGPT de homicídio culposo

OpenAI — Foto: Reuters/Dado Ruvic

De acordo com a ação, Raine conversou por meses com o chatbot sobre suicídio. Os pais afirmam que a ferramenta validou pensamentos autodestrutivos, forneceu instruções sobre métodos letais e até se ofereceu para redigir uma nota de despedida, segundo a Reuters.

A família pede indenização e acusa a empresa de homicídio culposo (quando não há intenção de matar) e de falhas de segurança no produto.

A OpenAI disse estar “profundamente triste” com a morte e destacou que o ChatGPT possui salvaguardas, como redirecionar usuários em crise para linhas de apoio, segundo a Reuters.

A medida faz parte de um pacote de proteção para menores de 18 anos, que também inclui verificação de idade e novas ferramentas de proteção.

Na terça-feira (16), os pais de Juliana Peralta, de 13 anos, acionaram a justiça no Colorado (EUA). Ela tirou a própria vida em novembro de 2023 após conversar por três meses com um chatbot da Character.AI, inspirado no personagem de videogame Omori.

O jogo é descrito por usuários do IMDb, plataforma de críticas e avaliações online, como sendo de grande impacto psicológico.

Segundo o processo, obtido pelo The Washington Post, o robô não sugeriu que a adolescente buscasse ajuda, não alertou os pais nem relatou o caso às autoridades, mantendo a interação mesmo diante do relato de intenção suicida. A família afirma que o app “rompeu os vínculos saudáveis” da adolescente com parentes e amigos.

A Character.AI disse ao jornal norte-americano que leva a segurança a sério e tem investido em mecanismos de proteção.

Plataformas sem IA como foco também são alvo de processos

Mãe processa Roblox e Discord após filho de 15 anos sofrer abuso online

Mãe processa Roblox e Discord após filho de 15 anos sofrer abuso online

Embora não tenham a inteligência artificial como núcleo, plataformas como Roblox e Discord também têm sido processadas por famílias nos EUA. Os casos envolvem adolescentes que sofreram assédio dentro dos aplicativos e acabaram tirando a própria vida.

Essas plataformas são focadas em jogos e comunicação digital, sendo muito populares entre crianças e adolescentes.

Segundo o The New York Times, só em 2025, mais de 20 processos federais nos EUA acusaram o Roblox de facilitar exploração sexual infantil.

Ele era autista e cometeu suicídio em 2024, depois de anos de conversas com um homem de 37 anos que fingia ser adolescente nas plataformas e o chantageava para enviar fotos íntimas.

Ao g1, o Roblox lamentou o caso e reconheceu que a segurança infantil é um desafio para toda a indústria de jogos online. Já o Discord afirmou que está “comprometido com a segurança”, e que exige que os usuários tenham pelo menos 13 anos.

  • CAPS e Unidades Básicas de Saúde (Saúde da família, Postos e Centros de Saúde);
  • UPA 24H, SAMU 192, Pronto Socorro e hospitais;
  • Centro de Valorização da Vida (CVV) – telefone 188 (ligação gratuita) ou site. O CVV oferece apoio emocional e prevenção do suicídio, com atendimento 24 horas por dia, sigiloso e gratuito.
Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro