O Departamento de Defesa dos EUA está considerando incluir a Anthropic — uma das principais empresas de IA dos Estados Unidos e criadora do modelo de linguagem Claude — em sua lista negra, após a empresa se recusar a permitir que os militares usem sua tecnologia sem limites éticos. A Anthropic afirma que seus limites de uso são essenciais para proteger contra a vigilância em massa e a criação de armas autônomas, enquanto o Pentágono estaria considerando designar a empresa como um "risco para a cadeia de suprimentos" e romper os laços de defesa após meses de negociações fracassadas.
A parceria tecnológica, antes discreta, entre o Departamento de Defesa dos EUA e a Anthropic, transformou-se em uma disputa pública, filosófica e potencialmente sem precedentes. Em questão está se uma empresa de IA pode definir limites éticos para o uso de sua tecnologia ou se essa decisão cabe ao governo. Essa disputa levanta questões mais amplas sobre quem controla a IA: as empresas que a desenvolvem, os cidadãos cujas liberdades estão em jogo ou as instituições governamentais que desejam acesso irrestrito.

O impasse: riscos na cadeia de suprimentos e limites éticos
O secretário de Defesa Pete Hegseth é Dizem que estão "perto" até o rompimento de relações com a Anthropic e a classificação da empresa como um risco para a cadeia de suprimentos — um rótulo historicamente reservado para adversários estrangeiros — porque a Anthropic se recusou a flexibilizar as diretrizes éticas associadas às suas ferramentas de IA. Essas restrições incluem a proibição do uso de Claude para vigilância doméstica em massa de cidadãos americanos e para armas totalmente autônomas capazes de disparar sem intervenção humana.
A disputa não é hipotética; o Pentágono tem pressionado quatro dos principais fornecedores de IA — OpenAI, Google, xAI e Anthropic — para que permitam o uso de seus modelos para “todos os fins legais”, incluindo áreas sensíveis como desenvolvimento de armamentos, coleta de informações e operações em campo de batalha. Apenas a Anthropic tem mantido a posição de que algumas aplicações devem permanecer restritas, e essa postura gerou frustração entre altos funcionários da defesa.
O contrato da Anthropic com o Pentágono, firmado em julho de 2025 e avaliado em até US$ 200 milhões, faz parte de um esforço mais amplo das forças armadas dos EUA para integrar tecnologia de IA de ponta aos fluxos de trabalho de defesa. Claude foi o primeiro modelo aprovado para redes militares classificadas e continua sendo o único sistema desse tipo implantado para tarefas sensíveis. Outras empresas concordaram em flexibilizar suas salvaguardas para uso em ambientes governamentais não classificados; somente a Anthropic manteve-se firme na defesa de limites éticos em todos os contextos.
O Pentágono argumenta que pré-estabelecer limites para o uso legal é muito restritivo. Um alto funcionário teria dito à Axios que negociar aprovações individuais caso a caso é impraticável para o planejamento militar e que os parceiros devem estar dispostos a ajudar “nossos combatentes a vencer em qualquer batalha”. Esse funcionário também alertou que a Anthropic poderia sofrer consequências por resistir, o que reflete a gravidade do impasse.
A Anthropic não sabia que a IA Claude foi usada para capturar Maduro.
A divergência filosófica nessa disputa ficou mais clara após relatos de que o sistema Claude foi acessado durante a operação militar dos EUA em janeiro de 2026 para capturar o presidente venezuelano Nicolás Maduro. Segundo diversas fontes, o Claude foi utilizado por meio de um sistema desenvolvido pela Palantir — contudo, as normas da Anthropic sobre violência e política de uso proíbem que seus modelos sejam utilizados para “facilitar ou promover qualquer ato de violência” ou para projetar ou implantar armas. Os militares não confirmaram os detalhes, e a Anthropic afirmou que não discutiu o uso do Claude em operações específicas, insistindo que suas políticas de uso se aplicam a todos os contextos.
O que isso revela é uma desconexão entre como o governo interpreta o “uso legal” e como a Anthropic interpreta a contenção ética. Para muitos, o incidente com Maduro exemplifica o risco inerente à incorporação de IA comercial em operações militares: as empresas prometem padrões morais, mas quando os governos implantam a tecnologia por meio de terceiros, esses padrões podem ser contornados ou ignorados.
Ética ou Eficiência? A Antropia Mantém Sua Posição
Em sua essência, essa disputa é filosófica, e não simplesmente contratual. O CEO e a liderança da Anthropic defenderam publicamente mecanismos de proteção que impeçam a vigilância de civis e o desenvolvimento irrestrito de armas autônomas. Essas posições se baseiam em preocupações com as liberdades civis e os potenciais danos sociais decorrentes da implantação desenfreada de IA. Essa postura encontra eco em certos segmentos do público — particularmente naqueles que veem o abuso de poder governamental como uma ameaça à privacidade e à liberdade — e tornou-se até mesmo um ponto de convergência para apoiadores que retratam a Anthropic como uma empresa pautada por princípios e o Pentágono como autoritário.
Mas, da perspectiva do Pentágono, as restrições retardam a inovação e complicam o planejamento da defesa. Numa era em que concorrentes quase equivalentes estão correndo para aplicar IA avançada em contextos militares, as autoridades veem a hesitação como uma vulnerabilidade operacional. O incentivo do Pentágono para uma IA que possa ser usada para “qualquer propósito legal” reflete essa urgência, mas também levanta questões sobre a supervisão civil do uso da IA militar.
A tensão aumenta devido ao fato de que modelos de IA como o Claude estão amplamente integrados à infraestrutura corporativa — sendo utilizados, segundo relatos, por oito das dez maiores empresas americanas —, o que significa que uma classificação de risco na cadeia de suprimentos não afetaria apenas as relações de defesa, mas poderia ter repercussões em ecossistemas comerciais mais amplos.
O que aprendemos com a disputa entre o Partido Antrópico e o Pentágono
Esse conflito destaca um dilema mais amplo da era da IA: quem determina como a tecnologia avançada será usada depois que sair do desenvolvimento e chegar às instituições de poder? A Anthropic tenta afirmar que os limites devem ser definidos pelos criadores, que compreendem tanto o poder quanto os riscos de suas ferramentas. O Pentágono, encarregado da defesa nacional, afirma que deve ter total liberdade para usar a tecnologia que contratou e implementou.
A questão mais profunda é se as restrições éticas devem acompanhar a tecnologia em todas as esferas de uso, ou se os governos devem ter a capacidade de ignorá-las em nome da segurança. A resposta tem implicações que vão muito além de um único contrato. Ela afeta a privacidade, a autonomia militar, a responsabilidade corporativa e, em última instância, se os cidadãos ou os governos — e que tipo de governos — definem os limites da tecnologia.
Pensamento final
Na disputa entre a Anthropic e o Pentágono, testemunhamos uma questão crucial sobre o nosso futuro: quando ferramentas poderosas são criadas, cujos valores determinarão como elas serão aplicadas — os das empresas que as constroem, os dos governos que as utilizam ou os do público cujas liberdades estão em jogo?
O Expose precisa urgentemente da sua ajuda…
Você pode, por favor, ajudar a manter as luzes acesas com o jornalismo honesto, confiável, poderoso e verdadeiro do The Expose?
Seu governo e organizações de grande tecnologia
tente silenciar e encerrar o The Expose.
Então precisamos da sua ajuda para garantir
podemos continuar a trazer-lhe o
fatos que a corrente principal se recusa a revelar.
O governo não nos financia
para publicar mentiras e propaganda em seus
em nome da grande mídia.
Em vez disso, dependemos exclusivamente do seu apoio. Então
por favor, apoie-nos em nossos esforços para trazer
você jornalismo investigativo honesto e confiável
hoje. É seguro, rápido e fácil.
Escolha seu método preferido abaixo para mostrar seu apoio.
Categorias: EUA Notícias
Nada sobre Trump ainda, rsrs.
O PCC fornecerá um sistema de IA para o Pentágono espionar os americanos, desde que o PCC tenha uma porta dos fundos para…atualizações.
Não sei se esta é uma empresa íntegra ou um inimigo protegendo forças anti-americanas. Não se pode mais confiar em ninguém. A tecnologia foi projetada para destruir toda a liberdade, privacidade e soberania. É a ferramenta usada pelas elites para destruir as massas. E ninguém pode impedi-los, a não ser o próprio Deus. Ele está chegando.
O povo precisa impedir isso. Deus nos deu a liberdade de lutar e resistir às forças do mal.