LLMs

O “compromisso” da OpenAI com o Pentágono é o que a Anthropic temia

Publicado porRedacao AIDaily
6 min de leitura
Autor na fonte original: James O'Donnell

Em 28 de fevereiro, a OpenAI anunciou que havia fechado um acordo que permitirá às Forças Armadas dos EUA usar suas tecnologias em ambientes confidenciais. O CEO Sam Altman disse que as negociações, que a empresa só começou a buscar após a repreensão pública do Pentágono à Anthropic, foram “definitivamente apressadas”. Em seus anúncios, a OpenAI se esforçou para dizer que...

Compartilhar:

Em 28 de fevereiro, a OpenAI anunciou que havia fechado um acordo que permitirá às Forças Armadas dos EUA usar suas tecnologias em ambientes confidenciais. O CEO Sam Altman disse que as negociações, que a empresa só começou a buscar após a repreensão pública do Pentágono à Anthropic, foram “definitivamente apressadas”. Em seus anúncios, a OpenAI se esforçou para dizer que não cedeu para permitir que o Pentágono fizesse o que quisesse com sua tecnologia. A empresa publicou uma postagem no blog explicando que seu acordo protegia contra o uso para armas autônomas e vigilância doméstica em massa, e Altman disse que a empresa não aceitou simplesmente os mesmos termos que a Anthropic recusou. Você poderia interpretar isso como se a OpenAI tivesse ganho tanto o contrato quanto a superioridade moral, mas ler nas entrelinhas e na linguagem jurídica deixa outra coisa clara: a Anthropic adotou uma abordagem moral que lhe rendeu muitos apoiadores, mas fracassou, enquanto a OpenAI adotou uma abordagem pragmática e jurídica que, em última análise, é mais branda com o Pentágono. Ainda não está claro se a OpenAI poderá incorporar as precauções de segurança que promete, já que os militares estão apressando uma estratégia politizada de IA durante os ataques ao Irão, ou se o acordo será considerado satisfatório pelos funcionários que queriam que a empresa adotasse uma linha mais dura. Será difícil andar nessa corda bamba. (A OpenAI não respondeu imediatamente aos pedidos de informações adicionais sobre o seu acordo.) Mas o diabo também está nos detalhes. A razão pela qual a OpenAI conseguiu fechar um acordo quando a Anthropic não conseguiu foi menos sobre limites, disse Altman, e mais sobre abordagem. “A Anthropic parecia mais focada em proibições específicas no contrato, em vez de citar leis aplicáveis, com as quais nos sentimos confortáveis”, escreveu ele. A OpenAI diz que uma das bases para sua disposição de trabalhar com o Pentágono é simplesmente a suposição de que o governo não infringirá a lei. A empresa, que compartilhou um trecho limitado de seu contrato, cita uma série de leis e políticas relacionadas a armas autônomas e vigilância. Elas são tão específicas quanto uma diretiva de 2023 do Pentágono sobre armas autônomas (que não as proíbe, mas emite diretrizes para seu projeto e teste) e tão amplas quanto a Quarta Emenda, que tem apoiado proteções para os americanos contra a vigilância em massa. No entanto, o trecho publicado “não dá à OpenAI um direito independente, ao estilo da Anthropic, de proibir o uso governamental que de outra forma seria legal”, escreveu Jessica Tillipman, reitora associada de estudos de direito de compras governamentais da faculdade de direito da George Washington University. Ele simplesmente afirma que o Pentágono não pode usar a tecnologia da OpenAI para violar nenhuma dessas leis e políticas, conforme estão estabelecidas hoje. A razão pela qual a Anthropic conquistou tantos apoiadores em sua luta — incluindo alguns dos próprios funcionários da OpenAI — é que eles não acreditam que essas regras sejam suficientes para impedir a criação de armas autônomas habilitadas por IA ou vigilância em massa. E a suposição de que as agências federais não infringirão a lei é pouca garantia para quem se lembra de que as práticas de vigilância expostas por Edward Snowden foram consideradas legais pelas agências internas e só foram consideradas ilegais após longas batalhas (sem mencionar as muitas táticas de vigilância permitidas pela lei atual que a IA poderia expandir). Nesse aspecto, basicamente voltamos ao ponto de partida: permitir que o Pentágono use sua IA para qualquer uso legal. A OpenAI poderia dizer, como escreveu ontem seu chefe de parcerias de segurança nacional, que se você acredita que o governo não seguirá a lei, então também não deve confiar que ele respeitará os limites propostos pela Anthropic. Mas isso não é um argumento contra estabelecê-los. A aplicação imperfeita não torna as restrições sem sentido, e os termos do contrato ainda moldam o comportamento, a supervisão e as consequências políticas. A OpenAI reivindica uma segunda linha de defesa. A empresa diz que mantém o controle sobre as regras de segurança que regem seus modelos e não fornecerá aos militares uma versão de sua IA desprovida desses controles de segurança. “Podemos incorporar nossos limites — sem vigilância em massa e sem direcionar sistemas de armas sem envolvimento humano — diretamente no comportamento do modelo”, escreveu Boaz Barak, um funcionário da OpenAI que Altman designou para falar sobre a questão do X. Mas a empresa não especifica como suas regras de segurança para as forças armadas diferem das regras para usuários normais. A aplicação também nunca é perfeita, e é especialmente improvável que seja quando a OpenAI está implementando essas proteções em um ambiente confidencial pela primeira vez e deve fazê-lo em apenas seis meses. Há outra questão por trás de tudo isso: deve caber às empresas de tecnologia proibir coisas que são legais, mas que elas consideram moralmente questionáveis? O governo certamente considerou inaceitável a disposição da Anthropic de desempenhar esse papel. Na noite de sexta-feira, oito horas antes dos EUA lançarem ataques em Teerã, o secretário de Defesa Pete Hegseth fez comentários severos sobre o X. “A Anthropic deu uma aula magistral de arrogância e traição”, escreveu ele, ecoando a ordem do presidente Trump para que o governo parasse de trabalhar com a empresa de IA depois que a Anthropic tentou impedir que seu modelo Claude fosse usado para armas autônomas ou vigilância doméstica em massa. “O Departamento de Guerra deve ter acesso total e irrestrito aos modelos da Anthropic para todos os fins LEGAIS”, escreveu Hegseth. Mas, a menos que o contrato completo da OpenAI revele mais, é difícil não ver a empresa como estando em uma gangorra ideológica, prometendo que tem influência que usará orgulhosamente para fazer o que considera certo, enquanto se submete à lei como principal apoio para o que o Pentágono pode fazer com sua tecnologia. Há três coisas a serem observadas aqui. Uma é se essa posição será boa o suficiente para os funcionários mais críticos da OpenAI. Com as empresas de IA gastando tanto em talentos, é possível que alguns na OpenAI vejam na justificativa de Altman um compromisso imperdoável. Em segundo lugar, há a campanha de terra arrasada que Hegseth prometeu empreender contra a Anthropic. Indo muito além de simplesmente cancelar o contrato do governo com a empresa, ele anunciou que ela seria classificada como um risco à cadeia de suprimentos e que “nenhum contratado, fornecedor ou parceiro que faça negócios com as Forças Armadas dos Estados Unidos poderá realizar qualquer atividade comercial com a Anthropic”. Há um debate significativo sobre se esse golpe fatal é legalmente possível, e a Anthropic disse que entrará com uma ação judicial se a ameaça for levada adiante. A OpenAI também se posicionou contra a medida. Por fim, como o Pentágono substituirá Claude — o único modelo de IA que usa ativamente em operações confidenciais, incluindo algumas na Venezuela — enquanto intensifica os ataques contra o Irã? Hegseth concedeu à agência seis meses para fazer isso, durante os quais as Forças Armadas irão implementar gradualmente os modelos da OpenAI, bem como os da xAI de Elon Musk. Mas Claude teria sido usado nos ataques ao Irã horas após a proibição ter sido emitida, sugerindo que a eliminação gradual será tudo menos simples. Mesmo que a disputa de meses entre a Anthropic e o Pentágono tenha acabado (o que duvido), agora estamos vendo o plano de aceleração de IA do Pentágono pressionar as empresas a abrir mão das linhas que haviam traçado, com novas tensões no Oriente Médio como principal campo de testes. Se você tiver informações para compartilhar sobre como isso está se desenrolando, entre em contato comigo pelo Signal (nome de usuário: jamesodonnell.22).

O que esta cobertura entrega

  • Atribuicao clara de fonte com link para a publicacao original.
  • Enquadramento editorial sobre relevancia, impacto e proximos desdobramentos.
  • Revisao de legibilidade, contexto e duplicacao antes da publicacao.

Sobre este artigo

Este artigo foi curado e publicado pelo AIDaily como parte da nossa cobertura editorial sobre desenvolvimentos em inteligência artificial. O conteúdo é baseado na fonte original citada abaixo, enriquecido com contexto e análise editorial. Ferramentas automatizadas podem auxiliar tradução e estruturação inicial, mas a decisão de publicar, a revisão factual e o enquadramento de contexto seguem responsabilidade editorial.

Saiba mais sobre nosso processo editorial