EUA Notícias

O Pentágono dos EUA inicia lista negra de inteligência artificial antrópica por se recusar a espionar americanos.

Por favor, compartilhe nossa história!

O Departamento de Defesa dos EUA está considerando incluir a Anthropic — uma das principais empresas de IA dos Estados Unidos e criadora do modelo de linguagem Claude — em sua lista negra, após a empresa se recusar a permitir que os militares usem sua tecnologia sem limites éticos. A Anthropic afirma que seus limites de uso são essenciais para proteger contra a vigilância em massa e a criação de armas autônomas, enquanto o Pentágono estaria considerando designar a empresa como um "risco para a cadeia de suprimentos" e romper os laços de defesa após meses de negociações fracassadas.

A parceria tecnológica, antes discreta, entre o Departamento de Defesa dos EUA e a Anthropic, transformou-se em uma disputa pública, filosófica e potencialmente sem precedentes. Em questão está se uma empresa de IA pode definir limites éticos para o uso de sua tecnologia ou se essa decisão cabe ao governo. Essa disputa levanta questões mais amplas sobre quem controla a IA: as empresas que a desenvolvem, os cidadãos cujas liberdades estão em jogo ou as instituições governamentais que desejam acesso irrestrito.

Disputa Ética sobre IA Antrópica no Pentágono dos EUA
O Pentágono está considerando classificar a Anthropic como um risco para a cadeia de suprimentos.

O impasse: riscos na cadeia de suprimentos e limites éticos

O secretário de Defesa Pete Hegseth é Dizem que estão "perto" até o rompimento de relações com a Anthropic e a classificação da empresa como um risco para a cadeia de suprimentos — um rótulo historicamente reservado para adversários estrangeiros — porque a Anthropic se recusou a flexibilizar as diretrizes éticas associadas às suas ferramentas de IA. Essas restrições incluem a proibição do uso de Claude para vigilância doméstica em massa de cidadãos americanos e para armas totalmente autônomas capazes de disparar sem intervenção humana.

A disputa não é hipotética; o Pentágono tem pressionado quatro dos principais fornecedores de IA — OpenAI, Google, xAI e Anthropic — para que permitam o uso de seus modelos para “todos os fins legais”, incluindo áreas sensíveis como desenvolvimento de armamentos, coleta de informações e operações em campo de batalha. Apenas a Anthropic tem mantido a posição de que algumas aplicações devem permanecer restritas, e essa postura gerou frustração entre altos funcionários da defesa.

O contrato da Anthropic com o Pentágono, firmado em julho de 2025 e avaliado em até US$ 200 milhões, faz parte de um esforço mais amplo das forças armadas dos EUA para integrar tecnologia de IA de ponta aos fluxos de trabalho de defesa. Claude foi o primeiro modelo aprovado para redes militares classificadas e continua sendo o único sistema desse tipo implantado para tarefas sensíveis. Outras empresas concordaram em flexibilizar suas salvaguardas para uso em ambientes governamentais não classificados; somente a Anthropic manteve-se firme na defesa de limites éticos em todos os contextos.

O Pentágono argumenta que pré-estabelecer limites para o uso legal é muito restritivo. Um alto funcionário teria dito à Axios que negociar aprovações individuais caso a caso é impraticável para o planejamento militar e que os parceiros devem estar dispostos a ajudar “nossos combatentes a vencer em qualquer batalha”. Esse funcionário também alertou que a Anthropic poderia sofrer consequências por resistir, o que reflete a gravidade do impasse.

A Anthropic não sabia que a IA Claude foi usada para capturar Maduro.

A divergência filosófica nessa disputa ficou mais clara após relatos de que o sistema Claude foi acessado durante a operação militar dos EUA em janeiro de 2026 para capturar o presidente venezuelano Nicolás Maduro. Segundo diversas fontes, o Claude foi utilizado por meio de um sistema desenvolvido pela Palantir — contudo, as normas da Anthropic sobre violência e política de uso proíbem que seus modelos sejam utilizados para “facilitar ou promover qualquer ato de violência” ou para projetar ou implantar armas. Os militares não confirmaram os detalhes, e a Anthropic afirmou que não discutiu o uso do Claude em operações específicas, insistindo que suas políticas de uso se aplicam a todos os contextos.

O que isso revela é uma desconexão entre como o governo interpreta o “uso legal” e como a Anthropic interpreta a contenção ética. Para muitos, o incidente com Maduro exemplifica o risco inerente à incorporação de IA comercial em operações militares: as empresas prometem padrões morais, mas quando os governos implantam a tecnologia por meio de terceiros, esses padrões podem ser contornados ou ignorados.

Ética ou Eficiência? A Antropia Mantém Sua Posição

Em sua essência, essa disputa é filosófica, e não simplesmente contratual. O CEO e a liderança da Anthropic defenderam publicamente mecanismos de proteção que impeçam a vigilância de civis e o desenvolvimento irrestrito de armas autônomas. Essas posições se baseiam em preocupações com as liberdades civis e os potenciais danos sociais decorrentes da implantação desenfreada de IA. Essa postura encontra eco em certos segmentos do público — particularmente naqueles que veem o abuso de poder governamental como uma ameaça à privacidade e à liberdade — e tornou-se até mesmo um ponto de convergência para apoiadores que retratam a Anthropic como uma empresa pautada por princípios e o Pentágono como autoritário.

Mas, da perspectiva do Pentágono, as restrições retardam a inovação e complicam o planejamento da defesa. Numa era em que concorrentes quase equivalentes estão correndo para aplicar IA avançada em contextos militares, as autoridades veem a hesitação como uma vulnerabilidade operacional. O incentivo do Pentágono para uma IA que possa ser usada para “qualquer propósito legal” reflete essa urgência, mas também levanta questões sobre a supervisão civil do uso da IA ​​militar.

A tensão aumenta devido ao fato de que modelos de IA como o Claude estão amplamente integrados à infraestrutura corporativa — sendo utilizados, segundo relatos, por oito das dez maiores empresas americanas —, o que significa que uma classificação de risco na cadeia de suprimentos não afetaria apenas as relações de defesa, mas poderia ter repercussões em ecossistemas comerciais mais amplos.

O que aprendemos com a disputa entre o Partido Antrópico e o Pentágono

Esse conflito destaca um dilema mais amplo da era da IA: quem determina como a tecnologia avançada será usada depois que sair do desenvolvimento e chegar às instituições de poder? A Anthropic tenta afirmar que os limites devem ser definidos pelos criadores, que compreendem tanto o poder quanto os riscos de suas ferramentas. O Pentágono, encarregado da defesa nacional, afirma que deve ter total liberdade para usar a tecnologia que contratou e implementou.

A questão mais profunda é se as restrições éticas devem acompanhar a tecnologia em todas as esferas de uso, ou se os governos devem ter a capacidade de ignorá-las em nome da segurança. A resposta tem implicações que vão muito além de um único contrato. Ela afeta a privacidade, a autonomia militar, a responsabilidade corporativa e, em última instância, se os cidadãos ou os governos — e que tipo de governos — definem os limites da tecnologia.

Pensamento final

Na disputa entre a Anthropic e o Pentágono, testemunhamos uma questão crucial sobre o nosso futuro: quando ferramentas poderosas são criadas, cujos valores determinarão como elas serão aplicadas — os das empresas que as constroem, os dos governos que as utilizam ou os do público cujas liberdades estão em jogo?

Seu governo e organizações de grande tecnologia
tente silenciar e encerrar o The Expose.

Então precisamos da sua ajuda para garantir
podemos continuar a trazer-lhe o
fatos que a corrente principal se recusa a revelar.

O governo não nos financia
para publicar mentiras e propaganda em seus
em nome da grande mídia.

Em vez disso, dependemos exclusivamente do seu apoio. Então
por favor, apoie-nos em nossos esforços para trazer
você jornalismo investigativo honesto e confiável
hoje. É seguro, rápido e fácil.

Escolha seu método preferido abaixo para mostrar seu apoio.

Ficar atualizado!

Fique conectado com atualizações de notícias por e-mail

Carregando


Por favor, compartilhe nossa história!
avatar do autor
g. calder
Sou George Calder — um buscador da verdade desde sempre, um entusiasta de dados e um questionador sem remorsos. Passei a maior parte das últimas duas décadas vasculhando documentos, decifrando estatísticas e desafiando narrativas que não se sustentam sob escrutínio. Minha escrita não é sobre opinião — é sobre evidências, lógica e clareza. Se não puder ser comprovada, não pertence à história. Antes de ingressar na Expose News, trabalhei com pesquisa acadêmica e análise de políticas, o que me ensinou uma coisa: a verdade raramente é gritante, mas está sempre lá — se você souber onde procurar. Escrevo porque o público merece mais do que manchetes. Você merece contexto, transparência e a liberdade de pensar criticamente. Seja desvendando um relatório governamental, analisando dados médicos ou expondo vieses da mídia, meu objetivo é simples: me destacar e apresentar os fatos. Quando não estou escrevendo, você me encontrará caminhando, lendo livros de história obscuros ou experimentando receitas que nunca dão certo.
5 1 voto
Artigo Avaliação
Subscrever
Receber por
convidado
4 Comentários
Comentários em linha
Ver todos os comentários
história
história
dias 21 atrás

Nada sobre Trump ainda, rsrs.

Charlie Seattle
Charlie Seattle
dias 20 atrás

O PCC fornecerá um sistema de IA para o Pentágono espionar os americanos, desde que o PCC tenha uma porta dos fundos para…atualizações.

SZ
SZ
dias 19 atrás

Não sei se esta é uma empresa íntegra ou um inimigo protegendo forças anti-americanas. Não se pode mais confiar em ninguém. A tecnologia foi projetada para destruir toda a liberdade, privacidade e soberania. É a ferramenta usada pelas elites para destruir as massas. E ninguém pode impedi-los, a não ser o próprio Deus. Ele está chegando.

Britta
Britta
Responder a  SZ
dias 19 atrás

O povo precisa impedir isso. Deus nos deu a liberdade de lutar e resistir às forças do mal.