A tática de guerra cultural do Pentágono contra a Anthropic saiu pela culatra
Esta matéria foi publicada originalmente no The Algorithm, nosso boletim informativo semanal sobre IA. Para receber matérias como esta em sua caixa de entrada antes de todo mundo, inscreva-se aqui. Na última quinta-feira, um juiz da Califórnia impediu temporariamente o Pentágono de classificar a Anthropic como um risco à cadeia de suprimentos e de ordenar que as agências governamentais parassem de usar sua IA. Trata-se do mais recente desdobramento de uma disputa que já dura um mês…
Esta matéria foi publicada originalmente no The Algorithm, nosso boletim informativo semanal sobre IA. Para receber matérias como esta em sua caixa de entrada antes de todo mundo, inscreva-se aqui. Na última quinta-feira, um juiz da Califórnia impediu temporariamente que o Pentágono classificasse a Anthropic como um risco à cadeia de suprimentos e ordenasse que as agências governamentais parassem de usar sua IA. É o mais recente desdobramento dessa disputa que já dura um mês. E a questão ainda não está resolvida: o governo teve sete dias para recorrer, e a Anthropic tem um segundo processo contra a designação que ainda não foi decidido. Até lá, a empresa continua sendo persona non grata para o governo. O que está em jogo no caso — até que ponto o governo pode punir uma empresa por não cooperar — ficou claro desde o início. A Anthropic atraiu muitos apoiadores de alto escalão, incluindo aliados improváveis, como ex-autores da política de IA do presidente Trump. Mas o parecer de 43 páginas da juíza Rita Lin sugere que o que é, na verdade, uma disputa contratual nunca precisou chegar a tal frenesi. Isso aconteceu porque o governo desconsiderou o processo existente para a resolução de tais disputas e alimentou o fogo com postagens nas redes sociais de autoridades que acabariam por contradizer as posições que assumiram no tribunal. O Pentágono, em outras palavras, queria uma guerra cultural (além da guerra real no Irã que começou horas depois). O governo utilizou o Claude da Anthropic durante grande parte de 2025 sem reclamações, de acordo com documentos judiciais, enquanto a empresa caminhava na corda bamba da marca como uma empresa de IA focada em segurança que também ganhava contratos de defesa. Os funcionários da defesa que acessavam o sistema por meio da Palantir eram obrigados a aceitar os termos de uma política de uso específica do governo que, segundo o cofundador da Anthropic, Jared Kaplan, “proibia a vigilância em massa de americanos e a guerra autônoma letal” (a declaração de Kaplan ao tribunal não incluiu detalhes da política). Somente quando o governo pretendia contratar a Anthropic diretamente é que as divergências começaram. O que despertou a ira do juiz foi que, quando essas divergências se tornaram públicas, elas tinham mais a ver com punição do que apenas cortar laços com a Anthropic. E elas seguiam um padrão: primeiro o tuíte, depois o advogado. A postagem do presidente Trump no Truth Social em 27 de fevereiro mencionou “malucos de esquerda” na Anthropic e instruiu todas as agências federais a parar de usar a IA da empresa. Isso foi repetido logo em seguida pelo secretário de Defesa Pete Hegseth, que disse que instruiria o Pentágono a classificar a Anthropic como um risco à cadeia de suprimentos. Fazer isso exige que o secretário tome um conjunto específico de medidas, o que o juiz considerou que Hegseth não cumpriu. Cartas enviadas a comissões do Congresso, por exemplo, afirmavam que medidas menos drásticas foram avaliadas e consideradas inviáveis, sem fornecer mais detalhes. O governo também alegou que a designação como risco à cadeia de suprimentos era necessária porque a Anthropic poderia implementar um “kill switch”, mas seus advogados tiveram que admitir posteriormente que não havia provas disso, escreveu o juiz. A postagem de Hegseth também afirmava que “nenhum contratado, fornecedor ou parceiro que faça negócios com as Forças Armadas dos Estados Unidos pode realizar qualquer atividade comercial com a Anthropic”. Mas os próprios advogados do governo admitiram na terça-feira que o secretário não tem o poder de fazer isso e concordaram com o juiz que a declaração “não tinha absolutamente nenhum efeito legal”. As postagens agressivas também levaram a juíza a concluir que a Anthropic tinha fundamentos sólidos para alegar que seus direitos da Primeira Emenda foram violados. O governo, escreveu a juíza citando as postagens, “propôs-se a punir publicamente a Anthropic por sua ‘ideologia’ e ‘retórica’, bem como por sua ‘arrogância’ em não estar disposta a comprometer essas crenças”. Rotular a Anthropic como um risco à cadeia de suprimentos seria essencialmente identificá-la como uma “sabotadora” do governo, para o que a juíza não viu evidências suficientes. Ela emitiu uma ordem na última quinta-feira suspendendo a designação, impedindo o Pentágono de aplicá-la e proibindo o governo de cumprir as promessas feitas por Hegseth e Trump. Dean Ball, que trabalhou com políticas de IA para o governo Trump, mas redigiu um parecer em apoio à Anthropic, descreveu a ordem da juíza na quinta-feira como “uma decisão devastadora para o governo, ao considerar provável que a Anthropic prevaleça em praticamente todas as suas teorias sobre por que as ações do governo foram ilegais e inconstitucionais”. Espera-se que o governo recorra da decisão. Mas o processo separado da Anthropic, movido em Washington, D.C., apresenta alegações semelhantes. Ele apenas faz referência a um segmento diferente da lei que rege os riscos da cadeia de suprimentos. Os documentos judiciais traçam um padrão bastante claro. As declarações públicas feitas por autoridades e pelo presidente não se alinhavam de forma alguma com o que a lei determina que deve acontecer em uma disputa contratual como esta, e os advogados do governo tiveram que criar justificativas consistentemente para as críticas nas redes sociais contra a empresa após o fato. A liderança do Pentágono e da Casa Branca sabia que buscar a opção nuclear desencadearia uma batalha judicial; A Anthropic prometeu, em 27 de fevereiro, lutar contra a designação de risco à cadeia de suprimentos dias antes de o governo apresentá-la formalmente em 3 de março. Prosseguir com isso de qualquer maneira significava que a alta liderança estava, para dizer o mínimo, distraída durante os primeiros cinco dias da guerra com o Irã, lançando ataques enquanto também compilava evidências de que a Anthropic era uma sabotadora do governo, tudo isso quando poderia ter cortado laços com a Anthropic por meios mais simples. Mas mesmo que a Anthropic vença no final, o governo tem outros meios de excluir a empresa dos trabalhos governamentais. Empreiteiras de defesa que desejam manter boas relações com o Pentágono, por exemplo, agora têm poucos motivos para trabalhar com a Anthropic, mesmo que ela não seja sinalizada como um risco à cadeia de suprimentos. “Acho que é seguro dizer que existem mecanismos que o governo pode usar para exercer algum grau de pressão sem infringir a lei”, diz Charlie Bullock, pesquisador sênior do Instituto de Direito e IA. “Isso depende, de certa forma, do quanto o governo está empenhado em punir a Anthropic.” Pelas evidências até o momento, o governo está dedicando tempo e atenção de alto nível para vencer uma guerra cultural em torno da IA. Ao mesmo tempo, o Claude é aparentemente tão importante para suas operações que até mesmo o presidente Trump disse que o Pentágono precisaria de seis meses para parar de usá-lo. A Casa Branca exige lealdade política e alinhamento ideológico das principais empresas de IA, mas o caso contra a Anthropic, pelo menos por enquanto, expõe os limites de sua influência. Se você tiver informações sobre o uso de IA pelas forças armadas, pode compartilhá-las com segurança pelo Signal (nome de usuário jamesodonnell.22).
O que esta cobertura entrega
- Atribuicao clara de fonte com link para a publicacao original.
- Enquadramento editorial sobre relevancia, impacto e proximos desdobramentos.
- Revisao de legibilidade, contexto e duplicacao antes da publicacao.
Fonte original:
MIT Technology Review AISobre este artigo
Este artigo foi curado e publicado pelo AIDaily como parte da nossa cobertura editorial sobre desenvolvimentos em inteligência artificial. O conteúdo é baseado na fonte original citada abaixo, enriquecido com contexto e análise editorial. Ferramentas automatizadas podem auxiliar tradução e estruturação inicial, mas a decisão de publicar, a revisão factual e o enquadramento de contexto seguem responsabilidade editorial.
Saiba mais sobre nosso processo editorial