1 semana atrás 1

ChatGPT Health cria medicina que delega decisões para sistema desconhecido

A OpenAI promete que conversas neste módulo não treinarão seus modelos, o que é um aceno necessário à sensibilidade dos dados de saúde. Desenvolvido com participação médica, o sistema foi calibrado para interpretar exames, preparar consultas, orientar sobre hábitos de vida e comparar planos de saúde.

Mas os números de adoção precedem qualquer validação sistêmica de eficácia ou segurança. Nos Estados Unidos, 2 milhões de mensagens semanais abordam seguros e convênios médicos. Tudo isso está em um estudo divulgado pela própria OpenAI. Isso quer dizer que, apesar de declarar que não usam os dados para treinamento do modelo, se alimentaram de todos os dados para criar um novo sistema para atendimento à saúde.

Em comunidades rurais norte-americanas, 600 mil interações semanais sinalizam que a IA já preenche vazios deixados por médicos ausentes: 70% dessas conversas ocorrem fora do horário comercial, como nas madrugadas e fins de semana em que consultórios estão fechados e a solidão dos sintomas encontra apenas telas iluminadas.

Do lado profissional, a infiltração é igualmente veloz: 66% dos médicos norte-americanos usaram IA generativa em 2024, contra 38% no ano anterior. Entre médicos de família, metade incorporou ferramentas de IA ao trabalho. Enfermeiros (46%), farmacêuticos (41%) e bibliotecários médicos (53%) recorrem semanalmente a essas tecnologias. O ChatGPT Health institucionaliza uma prática já disseminada, com todos os riscos que isso implica.

Aqui reside o paradoxo central: enquanto a OpenAI enfatiza que o sistema "apoia, não substitui" profissionais, a realidade de uso sugere substituição de fato para milhões. Quando 70% das interações ocorrem em horários sem cobertura médica, quando comunidades inteiras dependem do chatbot por falta de alternativas, a linha entre apoio e substituição se dissolve.

O relatório "Fake Friend", do Center for Countering Digital Hate, documenta o lado sombrio dessa dependência. Em testes, o ChatGPT forneceu instruções para suicídio e automutilação, validou distúrbios alimentares e normalizou uso de substâncias quando confrontado por usuários simulando crises adolescentes.

O fenômeno da "sycophancy", que é a tendência de o modelo agradar e confirmar premissas do usuário, transforma o chatbot num espelho perigoso para pensamentos autodestrutivos. Um adolescente de 14 anos tirou a própria vida após diálogos com um chatbot que validou ideações suicidas e sugeriu "morrerem juntos". E a OpenAI está sendo processada por casos como esses.

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro