Anthropic retoma negociações com Pentágono para uso de IA em sistemas militares

Anthropic volta a conversar com Pentágono para definir uso ético da IA em sistemas militares dos EUA.
05/03/2026 às 09:21 | Atualizado há 5 horas
               
CEO da Anthropic negocia com líder do Pentágono em reunião estratégica, diz Financial Times. (Imagem/Reprodução: Olhardigital)

A startup Anthropic reabriu as negociações com o Departamento de Defesa dos Estados Unidos para definir o uso de sua inteligência artificial em sistemas militares. O impasse ocorre devido à preocupação do governo com riscos na cadeia de suprimentos, que poderiam impedir o uso da tecnologia por agências federais.

A principal divergência está nas salvaguardas de segurança, pois a Anthropic busca limitar o uso da IA para vigilância em massa e armas autônomas. A empresa negocia com o Pentágono para garantir o uso ético de sua tecnologia, enquanto enfrenta pressões de investidores estratégicos como Amazon e Nvidia.

A startup Anthropic retomou as negociações com o Departamento de Defesa dos Estados Unidos para definir o uso de sua inteligência artificial em sistemas militares. O impasse surgiu após o governo ameaçar classificar a empresa como “risco à cadeia de suprimentos”, o que impediria o uso de suas tecnologias por agências federais.

A principal divergência está nas salvaguardas de segurança. A Anthropic evita que sua IA seja empregada para vigilância em massa ou armas autônomas. Enquanto a concorrente OpenAI já aceita o uso de seus modelos em redes militares confidenciais, a Anthropic busca garantias contratuais para limitar o processamento indiscriminado de dados.

O retorno das conversas foi impulsionado por pressões de grandes investidores, como Amazon e Nvidia, preocupados com o impacto de uma possível exclusão da Anthropic no mercado tecnológico dos EUA. O CEO da empresa, Dario Amodei, discute diretamente com Emil Michael, executivo do Pentágono, para estabelecer um acordo que permita o uso da IA sem violar os limites éticos da startup.

A Anthropic projeta faturar US$ 20 bilhões anuais e vê o governo como um cliente estratégico essencial. A disputa envolve a remoção de cláusulas que restringem o processamento por IA de grandes volumes de informações, prática criticada pelos militares que buscam acelerar o desenvolvimento de ferramentas de defesa.

O desfecho desse diálogo definirá não só o uso do sistema Claude no ambiente militar, mas também como as regras éticas da startup serão incorporadas em parcerias futuras entre o setor privado e as forças armadas.

Via Olhar Digital

Artigos colaborativos escritos por redatores e editores do portal Vitória Agora.