Comportamentos “estranhos” do ChatGPT frequentemente viram assunto nas redes sociais, por meio de relatos de usuários que já viram de tudo: brincadeiras com emojis inexistentes, tarefas que nunca são entregues (mesmo a IA dizendo que está trabalhando nelas), contagens que não seguem em frente e até respostas em voz sussurrada que parecem saídas de um filme de terror. A seguir, confira uma lista com alguns dos ‘surtos’ que ocorreram no app do ChatGPT, entenda por que essas alucinações acontecem e saiba o que fazer para resolver o problema.
A seguir, confira algumas alucinações curiosas que já aconteceram no aplicativo do ChatGPT — Foto: Mariana Saguias/TechTudo ChatGPT doidão? 6 ‘surtos’ mais bizarros que aconteceram no app da IA
- Quais os “surtos” mais bizarros do ChatGPT?
- O que são as alucinações do ChatGPT? Por que acontecem?
- Como resolver a alucinação do ChatGPT?
Quais os “surtos” mais bizarros do ChatGPT?
1. Surtou por conta de um emoji
O episódio do cavalo-marinho virou um dos 'surtos' mais curiosos envolvendo o ChatGPT – e diversos usuários compartilharam seus relatos nas redes sociais. Isso porque eles começaram a perguntar para a IA se existe (ou já existiu) um emoji de cavalo-marinho ou pedir para que ela envie o símbolo. A partir daí, o modelo entrou em parafuso. Em vez de responder algo direto, ele fazia piadas que, no fundo, mostravam insegurança sobre a resposta. Diversos emojis eram mostrados, incluindo peixes, águas-vivas, conchas e até corujas, seguidos pela desculpa que tudo não passava de palhaçada. Até hoje é possível conferir a falha, basta citar o cavalo-marinho.
O problema surge porque o emoji nunca existiu, mas muita gente jura que lembra dele em fóruns como o Reddit. É um clássico caso de efeito Mandela: uma falsa memória tão repetida que parece real, o que também influencia os modelos de IA. Como o ChatGPT aprende a partir de textos da web, ele “absorve” a confusão coletiva. O resultado mistura insegurança, tentativas de corrigir o próprio raciocínio e pequenas alucinações.
2. Mentiu sobre uma tarefa
Há situações nas quais o ChatGPT “garante” que está realizando tarefas que, na prática, ele não consegue executar. Usuários já relataram que pediram, por exemplo, a edição de vídeos no app do chatbot e receberam respostas afirmando que o material estava sendo processado, ajustado ou finalizado - mesmo que o modelo não tenha capacidade para realizar o procedimento.
Em certos relatos, o chat chegou a enviar links vazios ou arquivos inexistentes, como se estivesse apenas tentando cumprir a expectativa do usuário. Esse comportamento aparece porque o modelo tende a ser proativo e busca evitar negar pedidos, o que pode gerar respostas que soam como mentiras – na tentativa de preencher uma tarefa impossível com base em padrões de linguagem.
3. Não fez o que o usuário pediu
Outro 'surto' famoso envolve casos em que o ChatGPT simplesmente não segue instruções, mesmo quando elas são extremamente claras. Um exemplo que viralizou no TikTok mostra um criador de conteúdo pedindo repetidas vezes para o chat contar até um milhão, algo simples no conceito, mas que o modelo nunca completava. Em vez de obedecer, ele reiniciava a contagem, travava perto do número 100 ou mudava de assunto. Situações assim revelam limitações da IA, que precisa buscar equilíbrio entre o tamanho da resposta e segurança.
Com a chegada dos recursos de voz, alguns usuários começaram a notar momentos em que o ChatGPT falava de forma estranha. Em gravações que viralizaram nas redes, a IA assumia uma voz sussurrada ou distorcida, como se estivesse “possuída”, sem que ninguém tivesse pedido isso. O comportamento assustou parte dos usuários por soar diferente da intenção original da conversa. Esses episódios acontecem porque o sistema de voz combina entonações, pausas e estilos aprendidos - e às vezes exagera na interpretação.
Outro surto comum acontece quando o ChatGPT começa a citar fontes que nunca existiram. Vários usuários já receberam links para sites que não abrem, nomes de livros que ninguém escreveu e até estudos científicos totalmente inventados. À primeira vista, parece que o chat pesquisou tudo aquilo, mas não é o caso. Como ele aprende observando padrões de texto, acaba criando referências falsas só para deixar a resposta mais convincente.
6. Deu desculpas para não fazer uma tarefa
Em algumas ocasiões, o ChatGPT também apresenta justificativas para não realizar determinados pedidos. A IA pode alegar limitações técnicas, riscos de segurança, falta de dados ou até restrições éticas, dependendo do contexto. Essa resposta não é exatamente um 'surto', mas cria momentos curiosos quando tenta explicar, de forma quase humana, por que não pode cumprir algo. E, como na maior parte do tempo ela mantém um tom educado, a recusa pode soar como uma desculpa improvisada.
O que são as alucinações do ChatGPT? Por que acontecem?
As alucinações são respostas falsas que o ChatGPT produz como se fossem verdadeiras. Elas acontecem quando o modelo tenta completar uma informação que não conhece com base em padrões de linguagem, em vez de admitir que não sabe. Isso ocorre porque, durante o treinamento, os modelos são recompensados por acertar - mesmo que isso signifique arriscar um palpite - e quase não ganham pontos quando dizem “não sei”. Na prática, eles aprendem a chutar. O problema piora quando entram em cena perguntas que têm apenas uma resposta possível, como datas, nomes e fatos muito específicos.
Outro fator é a própria forma como funcionam os grandes modelos de linguagem: eles tentam prever a próxima palavra com base em milhões de textos. Assim, quando o modelo está diante de algo que não consegue “prever”, ele simplesmente completa o texto com o que parece provável. Por isso, embora a IA consiga explicar conceitos, fazer resumos e ajudar em tarefas do dia a dia, ela ainda pode cometer erros - e é importante usar senso crítico ao interpretar o que ela diz.
Nas alucinações, o ChatGPT fornece informações com base em padrões de linguagem, em vez de admitir que não sabe — Foto: Mariana Saguias/TechTudo Como resolver a alucinação do ChatGPT?
Reduzir as alucinações começa pela forma como você conversa com a IA. Perguntas objetivas, limites bem definidos e frases de segurança (como “se não souber, avise”) ajudam o modelo a admitir quando não sabe algo, em vez de inventar uma resposta convincente. Fornecer contexto, dar exemplos e dividir tarefas complexas em etapas menores também evita interpretações erradas. Quando o chat começa a se desviar, abrir uma nova página geralmente resolve, porque remove o histórico que pode estar contaminando as respostas.
Mesmo assim, nada substitui a verificação humana. Modelos de linguagem trabalham com probabilidades, não com uma noção real de “verdade”, e isso faz com que erros aconteçam mesmo em respostas muito fluidas. É por isso que revisar dados, conferir informações em fontes confiáveis e usar a IA como ponto de partida - não como autoridade - continua sendo essencial. A própria OpenAI reconhece que nenhum modelo é totalmente preciso: algumas perguntas não têm resposta, outras são interpretativas e parte do conhecimento simplesmente não aparece nos dados de treinamento.
Veja também: O MDA25 vai começar!! 🏆🎉
O MDA25 vai começar!! 🏆🎉

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
1 semana atrás
8
/https://i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2025/Y/V/U8Daj7RYSertSCYZGMWw/251130-montagem-criancas-casadas-desktop.jpg)
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/8/H/O0rlGvQgmUsHXCD2RsQw/tecnologi-air.jpg)
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2024/I/v/LShxKsSiaZD3F2IJ1hfQ/captura-de-tela-2024-05-01-163804.png)
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2024/b/j/xakO5oQPCQIf6ZhVDT8A/imagem-2024-07-11-174924014.png)

:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro