Programas de inteligência artificial (IA) generativa, como o ChatGPT e o Claude.AI, podem ter desempenho pior ao analisar muitos textos ao mesmo tempo, principalmente quando as informações importantes estão “escondidas” no meio do conteúdo. Pelo menos é isso o que revela um estudo da Universidade Hebraica de Jerusalém, em Israel. A partir da análise dos modelos de IA GPT, LLaMA, Gemma e Qwen-2, os pesquisadores descobriram que processar menos documentos com informações relevantes gera respostas mais precisas.
As IAs analisadas no experimento utilizam a técnica Retrieval-Augmented Generation (RAG) ou geração aumentada por recuperação. Nessa abordagem, o sistema busca conteúdos relevantes, como páginas da web ou artigos e usa essas informações como base para gerar respostas fundamentadas. Embora fornecer mais dados às ferramentas pareça a melhor opção, o excesso de conteúdo pode confundir e comprometer os resultados. A seguir, saiba mais sobre a pesquisa e entenda por que menos pode ser mais quando se trata de inteligência artificial.
IAs podem ignorar informações quando processam muitos textos simultaneamente, revela pesquisa — Foto: Reprodução/Canva Menos documentos, mais precisão
A pesquisa da Universidade Hebraica de Jerusalém, intitulada Lost in the Middle (ou “Perdido no Meio”, em português), analisou o desempenho de modelos de IA baseados na técnica Retrieval-Augmented Generation (RAG). Essa abordagem combina um modelo de linguagem com uma base externa de informações, como artigos da Wikipedia ou relatórios técnicos, por exemplo. A partir da consulta aos documentos, a IA gera respostas supostamente mais embasadas. Até então, acreditava-se que quanto mais textos fossem recuperados pelas ferramentas, maiores seriam as chances da IA fornecer respostas certas. No entanto, o estudo comprovou que isso nem sempre é verdade.
Os pesquisadores testaram modelos como o GPT 3.5-Turbo, da OpenAI; o Claude-1.3o, da Anthropics Technology; o LLaMA-3.1 (72B e 8B), da Meta e o Gemma-2 (27B e 9B). Quase todos apresentaram melhor desempenho ao trabalhar com menos fontes, desde que bem selecionadas. A única exceção foi o Qwen-2 72B, que manteve o desempenho mesmo diante de grandes volumes de dados.
Gráfico compara precisão de respostas e volume de textos analisados em diferentes modelos de IA — Foto: Reprodução/Arxiv.org O experimento foi feito com base em perguntas reais, acompanhadas de parágrafos da Wikipedia. As questões vinham com 10, 20 ou 30 textos para serem usados como referência, mas só alguns continham as respostas corretas. Quando os sistemas receberam somente dois a quatro documentos relevantes, a precisão aumentou. Em alguns casos, houve 10% mais acertos. Portanto, além de melhorar a qualidade dos resultados, processar menos documentos também torna o sistema mais ágil e econômico, já que cada texto analisado exige mais tempo e recursos computacionais.
Ao eliminar conteúdos desnecessários de suas pesquisas, as IAs trabalham de forma mais eficiente e respondem mais rápido. Com menos distrações, os modelos conseguem focar no que realmente importa. Já ao lidar com muitos textos, o risco de confusão é maior. Nesses casos, as ferramentas podem misturar informações de diferentes fontes, gerar respostas equivocadas e até inventar e mentir, fenômeno conhecido como alucinação.
O risco das distrações disfarçadas
Outro detalhe curioso do estudo é que textos totalmente descontextualizados ou aleatórios causaram menos impacto negativo do que conteúdos que pareciam úteis, mas não eram. As ferramentas de IA ignoram com facilidade informações irrelevantes, mas tiveram dificuldade em descartar trechos semelhantes ao tema pesquisado, mas que não eram essenciais. Essa “armadilha da semelhança” mostra que o maior desafio não é eliminar o que é obviamente inútil, mas filtrar conteúdos que pareçam pertinentes sem desviar a IA do foco. Nesse cenário, analisar menos documentos aumenta as chances de obter respostas precisas e confiáveis.
'Perdidos no meio do caminho'
A pesquisa israelense, também revelou que os modelos de linguagem têm melhor desempenho quando as informações relevantes estão no início ou no fim do texto analisado. Quando esses dados aparecem no meio do conteúdo, a atuação cai consideravelmente. Esse comportamento está relacionado a dois efeitos conhecidos: o primacy bias (tendência de valorizar mais o que aparece primeiro) e o recency bias (dar mais atenção ao que foi visto por último). Em alguns casos, como no GPT-3.5 Turbo, a precisão em tarefas com 20 ou 30 documentos foi menor até mesmo do que quando o modelo não recebeu nenhum texto externo e confiou apenas na própria memória.
GPT-3.5 acerta mais quando a resposta está entre os primeiros ou últimos textos lidos — Foto: Reprodução/Arxiv.org Outro ponto importante do estudo é que modelos com janelas de contexto maiores — ou seja, capazes de ler mais texto de uma só vez — não se saíram necessariamente melhor com grandes volumes de informação. Quando a quantidade de conteúdo cabia dentro do limite dos modelos comparados, o desempenho foi praticamente o mesmo. Isso mostra que apenas aumentar a capacidade de leitura das plataformas não resolve o problema. É preciso ensinar os modelos a identificar e focar no que realmente importa.
Veja também: 3 jeitos de fazer o ChatGPT trabalhar para você — e virar o funcionário do mês
3 jeitos de fazer o ChatGPT trabalhar para você — e virar o funcionário do mês

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
9 meses atrás
14
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/p/U/6iOpzWSieDEQBzcGFvsA/national-cancer-institute-l8twzt4ccvq-unsplash.jpg)
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2026/c/O/2cBJnhT4OBmGyJjta8dw/outriders.jpg)



:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro