Só para assinantes
Assine UOLRelatório da Agência Internacional de Energia Atômica gerado por IA, chatbot banido operando em campo e uma empresa de inteligência artificial desafiando o Pentágono. O ataque norte-americano e israelense ao Irã, em fevereiro de 2026, expôs pela primeira vez a extensão do papel de sistemas algorítmicos em decisões militares de grande escala.
Nos dias seguintes ao ataque coordenado por Estados Unidos e Israel ao Irã, foi exposto o uso de sistemas de inteligência artificial na construção do argumento político que justificou o ataque e no planejamento militar que o executou.
Nenhuma fonte oficial norte-americana ou israelense confirmou publicamente. O que existe são relatos baseados em fontes anônimas, os comunicados públicos da empresa de IA Anthropic, dona do Claude, e o rompimento do governo dos Estados Unidos com a empresa.
Nos dias 26 e 27 de fevereiro, a empresa norte-americana publicou duas declarações detalhando um impasse com o Departamento de Defesa dos EUA sobre os limites do uso de seu modelo de linguagem, o Claude, em operações militares.
O argumento oficial apresentado pelos governos norte-americano e israelense para justificar a operação foi um relatório da Agência Internacional de Energia Atômica (AIEA) concluindo que o Irã estaria próximo de produzir uma bomba atômica. Relatos posteriores afirmaram que esse documento teria sido em grande parte construído ou orientado por sistemas de inteligência artificial.
O sistema citado é o Mosaic, da Palantir, uma plataforma que cruza dados como imagens de satélite, comunicações e consumo de energia para identificar padrões e gerar projeções com aprendizado de máquina, já usada em operações militares.
Ao integrar informações sobre enriquecimento de urânio e atividades correlatas, teria produzido estimativas de que certas instalações poderiam atingir 90% de capacidade em poucos meses.
O relatório se baseava em inferências estatísticas, não em provas diretas, marcando possivelmente o primeiro caso de uma guerra iniciada com forte apoio de projeções de IA.
Enquanto o Mosaic operava na camada do argumento político, outro sistema de IA teria atuado mais próximo das decisões táticas. Segundo relatos do Wall Street Journal, o Comando Central dos EUA no Oriente Médio usou o Claude, modelo de linguagem da empresa Anthropic, para analisar relatórios de inteligência, identificar alvos e simular cenários de guerra.
Em um contexto militar, o modelo teria sido usado para condensar centenas de relatórios técnicos e de inteligência em sínteses operacionais, destacar riscos e contradições entre fontes, comparar cenários de ataque e antecipar possíveis respostas iranianas a diferentes tipos de ação. As ordens de ataque, segundo todas as fontes analisadas, permaneceram sob responsabilidade humana.
No mesmo período, o presidente Donald Trump determinou a suspensão de contratos federais com a Anthropic. O impasse entre a Anthropic e o Pentágono está sendo liderado diretamente por Dario Amodei, CEO e cofundador da empresa.
A empresa, hoje avaliada em US$ 380 bilhões e com perspectiva de abertura de capital, já acumula um histórico de atritos com a administração Trump. Fundos ligados ao presidente tentaram investir na Anthropic, mas foram recusados em razão do posicionamento considerado "progressista" da empresa.
O conflito foi acelerado em uma reunião no Pentágono em fevereiro deste ano, quando oficiais militares apresentaram a Amodei um cenário hipotético de ataque nuclear para demonstrar a necessidade de acesso irrestrito ao Claude Gov, versão do modelo desenvolvida para ambientes classificados, sem as salvaguardas que a empresa impõe ao produto.
Em declaração oficial publicada em 26 de fevereiro, Amodei descreveu o conflito com o Departamento de Defesa norte-americano em termos precisos. Segundo Amodei, a Anthropic havia trabalhado proativamente para implantar seus modelos no governo americano.
"Fomos a primeira empresa de IA de fronteira a implantar nossos modelos nas redes classificadas do governo dos EUA, os primeiros a implantá-los nos Laboratórios Nacionais e os primeiros a fornecer modelos personalizados para clientes de segurança nacional. O Claude está amplamente implantado no Departamento de Guerra e em outras agências de segurança nacional para aplicações de missão crítica, como análise de inteligência, modelagem e simulação, planejamento operacional, operações cibernéticas e mais", afirmou no site da empresa.
O impasse estava em torno de duas exceções que a Anthropic se recusava a remover, que é o uso do Claude em vigilância em massa doméstica de cidadãos norte-americanos e em sistemas de armas totalmente autônomas, capazes de selecionar e atacar alvos sem supervisão humana efetiva.
O Departamento de Defesa exigia uma cláusula de "qualquer uso legal" que eliminasse essas restrições. Estima-se que o contrato em disputa é da ordem de US$ 200 milhões. "Não podemos, em boa consciência, ceder ao pedido deles", escreveu Amodei.
Em 27 de fevereiro, o secretário de Defesa Pete Hegseth anunciou que classificaria a Anthropic como "risco de cadeia de suprimentos", classificação historicamente reservada a adversários dos EUA, nunca antes aplicada publicamente a uma empresa norte-americana. No mesmo dia, o governo Trump ordenou que agências federais interrompessem o uso de serviços da Anthropic dentro de seis meses.
No mesmo dia, a empresa respondeu que contestaria a designação na Justiça e que "nenhuma quantidade de intimidação ou punição do Departamento de Guerra mudará nossa posição sobre vigilância doméstica em massa ou armas totalmente autônomas".
Em entrevista à CBS News, também no dia 27, Amodei detalhou a posição da Anthropic. Sobre vigilância em massa, argumentou que a IA torna possível "reunir dados dispersos e individualmente inofensivos em um retrato abrangente da vida de qualquer pessoa, automaticamente e em escala massiva", e que essa capacidade, mesmo onde tecnicamente legal, representa um risco às liberdades fundamentais que a legislação ainda não acompanhou.
Sobre armas autônomas, o argumento foi de ordem técnica. "Os sistemas de IA de fronteira simplesmente não são confiáveis o suficiente para alimentar armas totalmente autônomas. Não forneceremos conscientemente um produto que coloque em risco os combatentes e civis americanos".
Amodei acrescentou que a Anthropic havia oferecido ao Departamento de Defesa colaboração em pesquisa e desenvolvimento para melhorar a confiabilidade desses sistemas, mas que a oferta não foi aceita.
O Google é um precedente nesse debate. A empresa retirou de seus princípios de IA a cláusula que proibia o uso da tecnologia em armas e sistemas de vigilância que violassem direitos humanos. Essa regra havia sido criada em 2018, após a polêmica do Project Maven, que aplicava IA a drones militares e gerou forte reação interna. A decisão foi vista por analistas como um sinal preocupante de flexibilização ética diante do avanço de contratos na área de defesa.
Outras empresas como Microsoft, Amazon e OpenAI já operavam em sistemas militares e de segurança sem restrições tão explícitas quanto as da Anthropic, embora sem declarar formalmente a remoção de salvaguardas.
Quando um sistema como o Mosaic faz uma previsão sobre uma instalação nuclear, ele toma várias decisões internas: quais dados considerar, quanto peso dar a cada informação e quais critérios usar. Quem recebe o relatório vê só o número final, não o raciocínio por trás dele. O problema é que, se houver erro ou viés no modelo, isso pode influenciar decisões sem que fique claro como a conclusão foi construída.
A própria Anthropic pediu que o Congresso norte-americano definisse os limites legais do uso de IA em guerra e vigilância. "A lei ainda não acompanhou as capacidades rapidamente crescentes da IA", escreveu Amodei.
Reportagem
Texto que relata acontecimentos, baseado em fatos e dados observados ou verificados diretamente pelo jornalista ou obtidos pelo acesso a fontes jornalísticas reconhecidas e confiáveis.

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
4 dias atrás
1
/https://i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2026/R/0/Hyv3PuR2um0i2aIwJK7w/captura-de-tela-2026-03-04-174949-1-.png)




:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)



:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2024/o/u/v2hqAIQhAxupABJOskKg/1-captura-de-tela-2024-07-19-185812-39009722.png)






Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro