Na semana passada, o Pentágono designou a empresa como um risco à cadeia de suprimentos após uma disputa incomumente pública sobre como seu chatbot de IA.
-
A Anthropic está processando o governo Donald Trump, pedindo que tribunais federais revertam a decisão do Pentágono de classificar a companhia como um “risco à cadeia de suprimentos”.
-
A empresa entrou com duas ações judiciais separadas nesta segunda-feira (9): uma em um tribunal federal na Califórnia e outra no tribunal federal de apelações em Washington, D.C.
-
Na semana passada, o Pentágono designou formalmente a empresa de tecnologia sediada em San Francisco como um risco à cadeia de suprimentos após uma disputa incomumente pública sobre como seu chatbot de IA, Claude, poderia ser usado em operações de guerra.
-
O presidente Donald Trump também afirmou que ordenará que agências federais deixem de usar o Claude. Ainda assim, deu ao Pentágono seis meses para eliminar gradualmente o produto, que está profundamente integrado a sistemas militares classificados.

Chefões da OpenIA e da Anthropic se recusam a dar as mãos em evento
A empresa de inteligência artificial Anthropic está processando o governo Donald Trump, pedindo que tribunais federais revertam a decisão do Pentágono de classificar a companhia como um “risco à cadeia de suprimentos” por ela se recusar a permitir o uso militar irrestrito de sua tecnologia.
A Anthropic entrou com duas ações judiciais separadas nesta segunda-feira (9): uma em um tribunal federal na Califórnia e outra no tribunal federal de apelações em Washington, D.C., cada uma contestando aspectos diferentes das medidas adotadas pelo Pentágono contra a empresa.
Dario Amodei, diretor-executivo da Anthropic, e Donald Trump, presidente dos EUA — Foto: Reuters/Bhawika Chhabra; Reuters/Nathan Howard
A Anthropic afirmou que buscou restringir o uso de sua tecnologia em dois tipos de aplicações de alto nível:
- vigilância em massa de cidadãos americanos
- armas totalmente autônomas
O secretário de Defesa Pete Hegseth e outros autoridades insistiram que a empresa deveria aceitar “todos os usos legais” do Claude e ameaçaram punições caso a companhia não cumprisse.
Classificar a empresa como risco à cadeia de suprimentos impede a Anthropic de realizar trabalhos de defesa usando uma autoridade que foi criada originalmente para evitar que adversários estrangeiros prejudiquem sistemas de segurança nacional. Segundo relatos, é a primeira vez que o governo federal usa essa designação contra uma empresa americana.
Mesmo enquanto contesta as ações do Pentágono, a Anthropic tem tentado convencer empresas e outros órgãos governamentais de que a penalidade do governo Trump é limitada e afeta apenas contratantes militares quando usam o Claude em trabalhos para o Departamento de Defesa.
Deixar essa distinção clara é crucial para a empresa privada, porque a maior parte de sua receita projetada de US$ 14 bilhões neste ano vem de empresas e agências governamentais que utilizam o Claude para programação de computadores e outras tarefas.
Mais de 500 clientes pagam pelo menos US$ 1 milhão por ano para usar o Claude, segundo investimentos que avaliaram a Anthropic em US$ 380 bilhões.

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
1 hora atrás
3
/https://i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2024/K/h/pgfsizSGqHrCmW4cBo8Q/img-6316.jpg)


/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2026/N/c/QL8V1LTXW4ekEqalamZA/chatgpt-image-5-de-jan.-de-2026-13-12-14.png)

:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)



:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2024/o/u/v2hqAIQhAxupABJOskKg/1-captura-de-tela-2024-07-19-185812-39009722.png)






Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro