5 horas atrás 2

ChatGPT parou de dar orientações médicas e jurídicas? Veja o que mudou de fato

A OpenAI atualizou no último dia 29 de outubro suas Políticas de Uso e Termos de Serviço, deixando mais explícito que o ChatGPT e outros modelos da empresa não devem ser utilizados para diagnósticos médicos, orientação jurídica ou qualquer tipo de aconselhamento personalizado em áreas que exigem licença profissional sem a supervisão de um especialista qualificado.

A atualização gerou dúvidas entre os usuários sobre o que realmente mudou na prática. Segundo Paulo Henrique Fernandes, advogado e head de produtos e tecnologia da V+ Tech, o ChatGPT não alterou seu comportamento técnico. "As novas diretrizes não adicionam restrições inéditas, mas deixam mais explícito que a IA não deve ser tratada como profissional substituto, seja médico, advogado ou psicólogo", explica. Entenda a seguir mais detalhes sobre o novo posicionamento da OpenAI.

ChatGPT parou de dar orientações médicas e jurídicas? Veja o que mudou de fato — Foto: Reprodução/Rokas Tenys/Shutterstock ChatGPT parou de dar orientações médicas e jurídicas? Veja o que mudou de fato — Foto: Reprodução/Rokas Tenys/Shutterstock

O que dizem as novas políticas

Conforme o documento oficial da OpenAI, está proibido o fornecimento de consultoria personalizada que exija licença profissional, como médica ou jurídica, sem o envolvimento adequado de um profissional licenciado. A empresa também restringiu a automação de decisões críticas em áreas sensíveis sem revisão humana, incluindo aplicações médicas e jurídicas.

Na área da saúde, o ChatGPT não poderá mais analisar imagens médicas, como radiografias ou ressonâncias magnéticas, nem interpretar laudos com finalidade de diagnóstico ou tratamento. Recentemente, alguns usuários exploravam essas funcionalidades, mas a OpenAI reforça que esse tipo de orientação deve ser realizado exclusivamente por profissionais de saúde.

A medida visa garantir segurança e responsabilidade no uso da inteligência artificial em contextos sensíveis, evitando que as respostas geradas sejam interpretadas como substitutas de orientação profissional.

Para o advogado Paulo Henrique, a decisão da OpenAI de reforçar as restrições ao uso do ChatGPT para diagnósticos médicos, elaboração de documentos jurídicos e aconselhamento personalizado é uma medida necessária e, de certa forma, inevitável, já que nos últimos meses, aconteceram casos de alucinações graves. "A IA citou jurisprudências inexistentes, distorceu precedentes e até apresentou diagnósticos falsos de saúde. Esses erros não são fruto de má-fé, mas da natureza probabilística da tecnologia. Um modelo de linguagem como o ChatGPT não “sabe”, ele estima. Trabalha com padrões estatísticos, não com consciência, especialização ou responsabilidade ética", explica o especialista.

Fernandes explica que o modelo já possuía limites técnicos para diagnósticos e documentos jurídicos. "O que a OpenAI faz agora é endurecer a comunicação desses limites, deixando claro que, se o usuário tentar burlar os guardrails (mecanismos de segurança e controle que garantem que os sistemas de IA) e usar o sistema de forma indevida, assume integralmente o risco", afirma.

Em termos técnicos, a IA continua capaz de explicar conceitos, resumir artigos científicos, interpretar jurisprudências ou auxiliar na redação de textos jurídicos ou médicos, desde que isso ocorra em caráter educativo, informativo ou de apoio. A diferença está na clareza: a ferramenta é assistiva, não deliberativa.

 Mariana Saguias/TechTudo OpenAI reforça políticas de uso e deixa mais clara a limitação do ChatGPT em áreas que exigem licença profissional; entenda — Foto: Mariana Saguias/TechTudo

O que continua sendo permitido

O ChatGPT pode ser utilizado como ferramenta de apoio no contexto educacional e informativo, desde que o conteúdo não seja apresentado como diagnóstico ou prescrição médica. Entre as funcionalidades permitidas estão:

  • Explicar possíveis causas gerais de sintomas de forma educativa
  • Ajudar a entender exames, termos médicos ou orientações dadas por profissionais
  • Indicar quando procurar atendimento médico, especialmente em situações de urgência
  • Apontar fontes confiáveis, como Ministério da Saúde, OMS e sociedades médicas
  • Explicar conceitos e institutos jurídicos
  • Resumir legislações e jurisprudências
  • Auxiliar na estruturação de argumentos e redação de textos jurídicos

Movimento estratégico da OpenAI

Segundo Fernandes, a medida tem caráter ético e jurídico. "A OpenAI busca se antecipar a riscos regulatórios e a potenciais litígios. Em resumo: o sistema não ficou mais limitado, ele ficou mais claro sobre o que nunca deveria ter sido", afirma o especialista.

A empresa enfatiza que as restrições não representam retrocesso tecnológico, mas sim avanço no controle ético e regulatório, permitindo que a IA seja utilizada de forma segura em contextos de alto risco.

O ChatGPT continua sendo útil para aprimorar a escrita, estruturar argumentos e democratizar o acesso à informação, mas não pode nem deve substituir o discernimento humano e a responsabilidade técnica de um especialista certificado. As novas políticas entraram em vigor em 29 de outubro de 2025 e estão disponíveis no site oficial da OpenAI.

Veja também: IA não é terapia! Veja porque você nunca deve desabafar com chatbots

IA não é terapia! Veja porque você nunca deve desabafar com chatbots

IA não é terapia! Veja porque você nunca deve desabafar com chatbots

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro