Enquanto o mundo observava a operação dos EUA na Venezuela e como a tensão com o Irã se tornava central na geopolítica, uma batalha silenciosa em Washington definia o futuro da guerra moderna. O embate entre a startup Anthropic, criadora do modelo Claude, e o Departamento de Defesa dos EUA (agora referido sob a administração Trump como “Departamento de Guerra”) marca a primeira vez que uma empresa de tecnologia desafia diretamente o aparato militar para manter seus limites éticos.
O estopim: A captura de Maduro e a guerra no Irã
O conflito escalou após a operação que resultou na captura do presidente venezuelano Nicolás Maduro, em janeiro de 2026. Relatórios indicam que o modelo Claude, integrado via sistemas da Palantir (projeto Maven), foi utilizado para análise de inteligência e logística na missão. A crise começou quando executivos da Anthropic questionaram se sua tecnologia estava sendo usada em operações letais, o que violaria seus termos de uso.
Atualmente, com a intensificação das operações contra o Irã, o Pentágono exige que a Anthropic remova as “travas” de sua IA. O governo deseja acesso total para “todos os fins lícitos”, incluindo a seleção automática de alvos e vigilância em massa.
A resistência ética vs. A Lei de Produção de Defesa
O CEO da Anthropic, Dario Amodei, manteve-se firme na recusa de permitir que o Claude seja utilizado em armas totalmente autônomas (sem intervenção humana) ou para espionagem de cidadãos americanos. Em resposta, o secretário de Defesa, Pete Hegseth, classificou a empresa como um “risco à cadeia de suprimentos de segurança nacional” — uma designação severa que isola a startup de contratos governamentais.
A administração Trump ameaçou utilizar a Lei de Produção de Defesa (Defense Production Act), uma legislação da era da Guerra Fria, para obrigar a Anthropic a ceder o controle de seus algoritmos ao Estado.
As últimas novidades do conflito:
- Processo Judicial: No dia 9 de março de 2026, a Anthropic entrou com uma ação judicial federal contra o Departamento de Defesa, alegando que a classificação de “risco de segurança” é uma punição ilegal por sua postura ética e viola a liberdade de expressão corporativa.
- Ameaça de Exclusão: O governo ordenou que agências federais e empreiteiras interrompam o uso de ferramentas da Anthropic, o que pode custar à empresa mais de US$ 200 milhões em receita.
- Migração para Rivais: Enquanto a Anthropic resiste, concorrentes como OpenAI e xAI (de Elon Musk) têm demonstrado maior flexibilidade para adaptar seus modelos às demandas de combate, ganhando terreno no bilionário mercado de defesa.
O desfecho desta disputa não decidirá apenas o destino de uma empresa do Vale do Silício, mas quem terá a palavra final sobre a “consciência” das máquinas que decidirão os rumos das próximas guerras: os engenheiros que as criam ou os generais que as operam.




Deixe um comentário
Você precisa fazer o login para publicar um comentário.