EUA banem IA Claude, mas militares seguem usando tecnologia em operações estratégicas

O presidente dos Estados Unidos, Donald Trump, determinou na última sexta-feira (27) que todas as agências federais interrompessem o uso das soluções de inteligência artificial da Anthropic, responsável pelo chatbot Claude.

A decisão, no entanto, não impediu que a tecnologia continuasse sendo utilizada por forças militares norte-americanas em operações recentes no Oriente Médio.

Segundo informações publicadas pelo Wall Street Journal e confirmadas por veículos internacionais, o Comando Central dos EUA e outras unidades militares ainda recorreram ao Claude para apoio estratégico em ações militares, incluindo análises de inteligência, identificação de alvos e simulações de cenários de combate. O uso ocorreu mesmo após o anúncio público do banimento da ferramenta pelo governo.

IA no centro de uma disputa política e militar

A ordem de Trump surgiu após um impasse entre o governo norte-americano e a Anthropic. A empresa se recusou a flexibilizar restrições éticas que limitam o uso de sua IA em aplicações como vigilância em massa e armamentos autônomos.

O presidente classificou a postura da companhia como uma ameaça à segurança nacional e determinou a suspensão imediata do uso da tecnologia em órgãos federais, estabelecendo um período de transição de até seis meses para substituição completa dos sistemas.

Apesar da proibição, especialistas apontam que o Claude já estava profundamente integrado à infraestrutura militar dos EUA, o que torna a remoção imediata praticamente inviável — explicando sua permanência em operações ativas.

IA já havia sido usada em outras missões

Relatórios indicam ainda que o Claude teria sido empregado anteriormente em operações de alto nível, incluindo ações internacionais conduzidas pelas forças norte-americanas no início de 2026. O episódio evidencia o grau de dependência crescente das Forças Armadas em sistemas de inteligência artificial para tomada de decisão tática.

O novo campo de batalha: algoritmos

O caso escancara uma virada histórica curiosa: guerras modernas agora também envolvem disputas entre governos e empresas de tecnologia sobre quem controla os limites da inteligência artificial.

De um lado, militares pressionam por uso irrestrito da tecnologia. Do outro, empresas tentam impor barreiras éticas ao emprego de IA em cenários letais. No meio disso tudo está uma realidade meio cyberpunk: algoritmos participando, direta ou indiretamente, de decisões estratégicas no mundo real.

A tendência é clara — o próximo grande conflito global talvez não comece com tanques, mas com contratos de software e linhas de código.