Anthropic e Pentágono travam batalha sem precedentes pelo controle ético da IA militar

Enquanto o mundo observava a operação dos EUA na Venezuela e como a tensão com o Irã se tornava central na geopolítica, uma batalha silenciosa em Washington definia o futuro da guerra moderna. O embate entre a startup Anthropic, criadora do modelo Claude, e o Departamento de Defesa dos EUA (agora referido sob a administração Trump como “Departamento de Guerra”) marca a primeira vez que uma empresa de tecnologia desafia diretamente o aparato militar para manter seus limites éticos.

​O estopim: A captura de Maduro e a guerra no Irã

​O conflito escalou após a operação que resultou na captura do presidente venezuelano Nicolás Maduro, em janeiro de 2026. Relatórios indicam que o modelo Claude, integrado via sistemas da Palantir (projeto Maven), foi utilizado para análise de inteligência e logística na missão. A crise começou quando executivos da Anthropic questionaram se sua tecnologia estava sendo usada em operações letais, o que violaria seus termos de uso.

​Atualmente, com a intensificação das operações contra o Irã, o Pentágono exige que a Anthropic remova as “travas” de sua IA. O governo deseja acesso total para “todos os fins lícitos”, incluindo a seleção automática de alvos e vigilância em massa.

​A resistência ética vs. A Lei de Produção de Defesa

​O CEO da Anthropic, Dario Amodei, manteve-se firme na recusa de permitir que o Claude seja utilizado em armas totalmente autônomas (sem intervenção humana) ou para espionagem de cidadãos americanos. Em resposta, o secretário de Defesa, Pete Hegseth, classificou a empresa como um “risco à cadeia de suprimentos de segurança nacional” — uma designação severa que isola a startup de contratos governamentais.

​A administração Trump ameaçou utilizar a Lei de Produção de Defesa (Defense Production Act), uma legislação da era da Guerra Fria, para obrigar a Anthropic a ceder o controle de seus algoritmos ao Estado.

​As últimas novidades do conflito:

  • Processo Judicial: No dia 9 de março de 2026, a Anthropic entrou com uma ação judicial federal contra o Departamento de Defesa, alegando que a classificação de “risco de segurança” é uma punição ilegal por sua postura ética e viola a liberdade de expressão corporativa.
  • Ameaça de Exclusão: O governo ordenou que agências federais e empreiteiras interrompam o uso de ferramentas da Anthropic, o que pode custar à empresa mais de US$ 200 milhões em receita.
  • Migração para Rivais: Enquanto a Anthropic resiste, concorrentes como OpenAI e xAI (de Elon Musk) têm demonstrado maior flexibilidade para adaptar seus modelos às demandas de combate, ganhando terreno no bilionário mercado de defesa.

​O desfecho desta disputa não decidirá apenas o destino de uma empresa do Vale do Silício, mas quem terá a palavra final sobre a “consciência” das máquinas que decidirão os rumos das próximas guerras: os engenheiros que as criam ou os generais que as operam.

Deixe um comentário

Entrar

Cadastrar

Redefinir senha

Digite o seu nome de usuário ou endereço de e-mail, você receberá um link para criar uma nova senha por e-mail.