LLMs

Juiz decide a favor da Anthropic e suspende temporariamente a proibição do Pentágono

Publicado porRedacao AIDaily
7 min de leitura
Autor na fonte original: Hayden Field

Após um impasse de várias semanas entre a Anthropic e o Pentágono, a empresa conquistou uma vitória importante: um juiz concedeu à Anthropic uma liminar em seu processo judicial, que visava reverter sua inclusão na lista negra do governo enquanto o processo judicial segue seu curso. “Os registros do Departamento de Guerra mostram que este designou a Anthropic como um risco à cadeia de suprimentos devido à sua ‘atitude hostil […]

Compartilhar:

A juíza Lin escreveu que “punir a Anthropic… é uma retaliação ilegal clássica contra a Primeira Emenda”.

A juíza Lin escreveu que “punir a Anthropic… é uma retaliação ilegal clássica contra a Primeira Emenda”.

Após um impasse de várias semanas entre a Anthropic e o Pentágono, a empresa conquistou um marco importante: uma juíza concedeu à Anthropic uma liminar em seu processo judicial, que buscava reverter sua inclusão na lista negra do governo enquanto o processo judicial segue seu curso.

“Os registros do Departamento de Guerra mostram que ele designou a Anthropic como um risco à cadeia de suprimentos devido à sua ‘atitude hostil na imprensa’”, escreveu a juíza Rita F. Lin, juíza distrital do distrito norte da Califórnia, na decisão, que entrará em vigor em sete dias. “Punir a Anthropic por levar ao escrutínio público a posição do governo em relação às contratações é uma retaliação ilegal clássica ao abrigo da Primeira Emenda.”

Um veredicto final pode demorar semanas ou meses.

A porta-voz da Anthropic, Danielle Cohen, disse em comunicado na quinta-feira: “Agradecemos ao tribunal por agir rapidamente e estamos satisfeitos por concordarem que a Anthropic provavelmente terá sucesso com base nos méritos. Embora este caso tenha sido necessário para proteger a Anthropic, nossos clientes e nossos parceiros, nosso foco continua sendo trabalhar de forma produtiva com o governo para garantir que todos os americanos se beneficiem de uma IA segura e confiável.”

“Eu realmente acho que este caso aborda um debate importante”, disse a juíza Lin durante a audiência de terça-feira. “Por um lado, a Anthropic afirma que seu produto de IA, o Claude, não é seguro para uso em armas letais autônomas e vigilância em massa doméstica. A posição da Anthropic é que, se o governo quiser usar sua tecnologia, ele deve concordar em não utilizá-la para esses fins. Por outro lado, o Departamento de Guerra afirma que os comandantes militares devem decidir o que é seguro para sua IA fazer.”

Na terça-feira, a juíza Lin continuou: “Não cabe a mim decidir quem está certo nesse debate… O Departamento de Guerra decide qual produto de IA deseja usar e comprar. E todos, incluindo a Anthropic, concordam que o Departamento de Guerra é livre para deixar de usar o Claude e procurar um fornecedor de IA mais permissivo.” Ela acrescentou: “Vejo a questão neste caso como sendo… se o governo violou a lei ao ir além disso.”

Não precisamos ter robôs assassinos sem supervisão

Trump ordena que agências federais abandonem a IA da Anthropic

Funcionários da OpenAI e do Google apoiam a ação judicial da Anthropic contra o Pentágono

Tudo começou com um memorando enviado pelo secretário de Defesa Pete Hegseth em 9 de janeiro, exigindo que a cláusula de “qualquer uso lícito” fosse incluída em qualquer contrato de aquisição de serviços de IA dentro de 180 dias, o que incluiria contratos existentes com empresas como a Anthropic, a OpenAI, a xAI e o Google. As negociações da Anthropic com o Pentágono se estenderam por semanas, girando em torno de duas “linhas vermelhas” para as quais a empresa não queria que os militares usassem sua IA: vigilância em massa doméstica e armas autônomas letais (ou sistemas de IA com o poder de matar alvos sem envolvimento humano no processo de tomada de decisão). A série de eventos cheios de reviravoltas que se seguiu incluiu uma enxurrada de insultos nas redes sociais, uma designação formal de “risco à cadeia de suprimentos” com o potencial de prejudicar significativamente os negócios da Anthropic, empresas concorrentes de IA entrando na jogada para fechar acordos e um processo judicial subsequente.

Com seu processo, a Anthropic argumenta que foi punida por discurso protegido pela Primeira Emenda e busca reverter a designação de risco à cadeia de suprimentos.

É raro, e potencialmente até inédito até agora, que uma empresa norte-americana seja classificada como risco à cadeia de suprimentos, uma designação normalmente reservada a empresas não norte-americanas potencialmente ligadas a adversários estrangeiros. A designação da Anthropic como tal causou espanto em todo o país e gerou controvérsia bipartidária devido a preocupações de que discordar de um governo presidencial pudesse potencialmente levar a retaliações desproporcionais contra uma empresa em qualquer setor.

Os próprios negócios da Anthropic foram significativamente afetados pela designação, de acordo com seus autos judiciais, que afirmam que a empresa “recebeu contatos de inúmeros parceiros externos… expressando confusão sobre o que era exigido deles e preocupação com sua capacidade de continuar a trabalhar com a Anthropic” e que “dezenas de empresas entraram em contato com a Anthropic” em busca de orientação ou informações sobre seus direitos de rescindir o contrato de uso. Dependendo do nível em que o governo proíba o trabalho de seus contratados com a Anthropic, a empresa alegou que receitas totalizando entre centenas de milhões e vários bilhões poderiam estar em risco.

Durante a audiência de terça-feira, ambas as empresas tiveram a oportunidade de responder às perguntas da juíza Lin, que foram divulgadas em um documento no dia anterior e giravam em torno de questões como se Hegseth carecia de autoridade para emitir certas diretrizes e por que a Anthropic foi apontada como um risco à cadeia de suprimentos. A juíza também perguntou, em suas perguntas divulgadas previamente, sobre as circunstâncias em que um contratado do governo poderia enfrentar rescisão por usar a tecnologia da Anthropic em seu trabalho — por exemplo, “se um contratado do Departamento usar o Claude Code como ferramenta para escrever software para os sistemas de segurança nacional do Departamento, esse contratado enfrentaria rescisão como resultado?”

Na terça-feira, a juíza também pareceu repreender o Departamento de Guerra pela postagem de Hegseth no X que causou muita confusão generalizada, de acordo com os autos judiciais anteriores da Anthropic, afirmando que “com efeito imediato, nenhum contratado, fornecedor ou parceiro que faça negócios com as Forças Armadas dos Estados Unidos poderá realizar qualquer atividade comercial com a Anthropic”.

“Você está aqui dizendo: ‘Nós dissemos isso, mas não foi nossa intenção’”, disse o juiz Lin durante a audiência, insistindo posteriormente na questão de por que Hegseth escreveu o texto acima, proibindo contratados de trabalhar com a Anthropic, em vez de simplesmente designar a Anthropic como um risco na cadeia de suprimentos.

Em uma série de perguntas na terça-feira, o juiz Lin perguntou se o Departamento de Guerra planeja rescindir contratos com base no trabalho dos contratados com a Anthropic, caso esse trabalho seja separado de suas atividades com o departamento, e um representante do Departamento de Guerra respondeu: “É o que eu entendo.”

O juiz Lin perguntou: “Digamos que eu seja um contratante militar. Eu não forneço TI para as Forças Armadas. Eu forneço papel higiênico para as Forças Armadas. Eu não serei demitido por usar a Anthropic — isso está correto?” O representante do Departamento de Guerra respondeu: “Para trabalhos não relacionados ao Departamento de Guerra, é o que eu entendo.” Mas quando a juíza perguntou se um contratante militar que presta serviços de TI ao Departamento de Guerra, mas não para sistemas de segurança nacional, poderia ser demitido por usar a Anthropic, o representante do Departamento de Guerra não deu uma resposta concreta.

Durante a audiência, a juíza Lin citou um dos pareceres amicus curiae, que, segundo ela, usava o termo “tentativa de assassinato corporativo”. Ela disse: “Não sei se é ‘assassinato’, mas parece uma tentativa de paralisar a Anthropic.”

“Continuamos a ser irreparavelmente prejudicados por esta diretiva”, disse um advogado da Anthropic durante a audiência, citando a postagem de nove parágrafos de Hegseth no X.

Em um recente documento judicial, o Departamento de Defesa alegou que a Anthropic poderia ostensivamente “tentar desativar sua tecnologia ou alterar preventivamente o comportamento de seu modelo, seja antes ou durante operações de combate em andamento”, caso sentisse que os militares estivessem ultrapassando seus limites — uma situação teórica que o Pentágono disse considerar um “risco inaceitável para a segurança nacional”. As perguntas divulgadas antecipadamente pelo juiz parecem contestar essa afirmação, ou pelo menos solicitar mais informações a respeito, afirmando: “Que evidência nos autos demonstra que a Anthropic tinha acesso contínuo ou controle sobre o Claude após entregá-lo ao governo, de modo que a Anthropic pudesse se envolver em tais atos de sabotagem ou subversão?”

Mais em: IA x Pentágono: robôs assassinos, vigilância em massa e limites

A Sony aumentará os preços do PS5 em US$ 100 em abril

A Meta se prepara para lançar dois novos óculos Ray-Ban com IA

O Mac Pro da Apple está morto, aparentemente de vez desta vez

Ao retornarem de uma viagem de ajuda humanitária a Cuba, americanos têm telefones apreendidos em aeroporto dos EUA

O que esta cobertura entrega

  • Atribuicao clara de fonte com link para a publicacao original.
  • Enquadramento editorial sobre relevancia, impacto e proximos desdobramentos.
  • Revisao de legibilidade, contexto e duplicacao antes da publicacao.

Fonte original:

The Verge AI

Sobre este artigo

Este artigo foi curado e publicado pelo AIDaily como parte da nossa cobertura editorial sobre desenvolvimentos em inteligência artificial. O conteúdo é baseado na fonte original citada abaixo, enriquecido com contexto e análise editorial. Ferramentas automatizadas podem auxiliar tradução e estruturação inicial, mas a decisão de publicar, a revisão factual e o enquadramento de contexto seguem responsabilidade editorial.

Saiba mais sobre nosso processo editorial