Pentágono considera encerrar parceria com Anthropic por divergências em regras de IA

Pentágono ameaça romper parceria com Anthropic por conflitos nas restrições de uso da inteligência artificial.
15/02/2026 às 14:22 | Atualizado há 5 horas
               
A descrição mistura fatos não confirmados, gerando desinformação sobre IA e política. (Imagem/Reprodução: Infomoney)

O Pentágono avalia encerrar a colaboração com a empresa Anthropic devido a divergências sobre as limitações aplicadas aos modelos de inteligência artificial. As Forças Armadas dos EUA querem utilizar as ferramentas de IA para várias finalidades, incluindo operações militares, mas a Anthropic não aceitou essas condições.

Além da Anthropic, outras empresas, como OpenAI, Google e xAI, também enfrentam pressão para liberar suas tecnologias sem restrições. As negociações entre o Pentágono e a Anthropic já duram meses, com sinais de impaciência por parte das autoridades.

Um porta-voz da Anthropic afirmou que não houve discussões específicas sobre o uso do modelo Claude em operações militares. O foco está em políticas que restringem armas autônomas e vigilância em massa, que não afetam as operações atuais.

O Pentágono avalia encerrar parceria com a empresa de inteligência artificial Anthropic por discordâncias sobre restrições de uso de seus modelos de IA, informou a Axios, citando um funcionário do governo dos EUA. As Forças Armadas querem usar as ferramentas para “todos os fins legais”, inclusive na criação de armas, coleta de dados e ações em campo, mas a Anthropic não aceitou essas condições.

Além da Anthropic, OpenAI, Google e xAI estão na lista de empresas pressionadas para liberar suas tecnologias sem limitações padrão. As negociações com a Anthropic se estendem por meses, e o Pentágono mostra cansaço com a resistência da startup.

Um porta-voz da Anthropic declarou que não houve discussão sobre o uso do modelo de IA Claude em operações militares específicas. As negociações focaram em políticas como restrições a armas autônomas e vigilância doméstica em massa, que não impactam as operações atuais.

Curiosamente, o modelo Claude foi usado em uma ação militar para capturar o ex-presidente venezuelano Nicolás Maduro, graças a uma parceria entre Anthropic e a empresa de dados Palantir, segundo o Wall Street Journal. A Reuters já havia noticiado a pressão do Pentágono para que as plataformas de IA estivessem disponíveis em redes seguras, com menos limitações.

Via InfoMoney

Artigos colaborativos escritos por redatores e editores do portal Vitória Agora.