EUA usaram inteligência artificial Claude em ataque ao Irã mesmo após banimento da Anthropic

Mesmo com Anthropic banida, EUA usaram IA Claude em ataque ao Irã. Saiba como a tecnologia foi empregada em operações militares.
01/03/2026 às 13:01 | Atualizado há 3 horas
               
Claude auxiliou em avaliações, identificação de alvos e simulação de guerra. (Imagem/Reprodução: Tecmundo)

O governo dos Estados Unidos proibiu o uso oficial dos produtos da Anthropic, empresa responsável pela IA Claude, mas mesmo assim o Comando Central americano aplicou essa ferramenta em um ataque ao Irã no fim de janeiro.

A inteligência artificial Claude tem sido usada em diversas operações militares para avaliações, identificação de alvos e simulações, destacando o crescimento da IA em ações estratégicas, apesar das negociações conflitantes entre o Pentágono e a Anthropic.

Esse cenário revela a crescente dependência da tecnologia militar e expõe desafios de segurança e controle sobre o uso da inteligência artificial nas forças armadas dos EUA.

O presidente Donald Trump ordenou que todas as agências federais suspendessem o uso dos produtos da empresa de inteligência artificial Anthropic, responsável pelo Claude. No entanto, dias depois da proibição, o Comando Central dos EUA no Oriente Médio utilizou o Claude para auxiliar em um ataque ao Irã, ocorrido no sábado (28).

Segundo o Wall Street Journal, a IA Claude foi empregada em diversos comandos militares norte-americanos pelo mundo para realizar avaliações de inteligência, identificar alvos e simular cenários militares. Essa utilização aconteceu mesmo enquanto o Pentágono negociava os termos de uso do sistema com a Anthropic.

Além do envolvimento nos recentes ataques militares, o Claude também foi utilizado no início de janeiro durante a ação de captura do presidente venezuelano Nicolás Maduro, demonstrando o papel crescente da inteligência artificial em operações estratégicas americanas.

A decisão de Trump foi divulgada pela rede Truth Social e surgiu após um impasse entre o governo americano e a Anthropic. O Pentágono usava o Claude em redes classificadas e queria ampliar seu emprego, mas a empresa tentou limitar o uso, o que gerou críticas do ex-presidente, que chamou a postura da Anthropic de “erro desastroso” e acusou a empresa de tentar controlar as operações das Forças Armadas.

Mesmo com a proibição oficial, a dependência da inteligência artificial na área militar segue em evidência, colocando em foco o debate sobre segurança e controle tecnológico nas forças de defesa dos Estados Unidos.

Via TecMundo

Artigos colaborativos escritos por redatores e editores do portal Vitória Agora.