US government increases AI suppliers and rethinks Anthropic’s role
The US administration has added four more AI companies to its roster of favoured suppliers, with the Pentagon signing agreements with Microsoft, Reflection AI (which has yet to release a publicly-available model), Amazon, and Nvidia that mean their products can be used on classified operations. The companies join OpenAI, xAI, and Google as companies that […] The post US government increases AI suppliers and rethinks Anthropic’s role appeared first on AI News .
The US administration has added four more AI companies to its roster of favoured suppliers, with the Pentagon signing agreements with Microsoft, Reflection AI (which has yet to release a publicly-available model), Amazon, and Nvidia that mean their products can be used on classified operations. The companies join OpenAI, xAI, and Google as companies that the Department for Defense can deploy “for any lawful use.” The phrase “any lawful use” formed the centre of the recent disagreement between Anthropic AI and the US administration, with CEO Darius Amodei claiming that it would let the US government use Anthropic technology to subject the American civilian population to surveillance, and produce autonomous weapons, areas of Anthropic’s use that he wanted walled off. The Pentagon cancelled a $200 million contract with the company, a decision which Anthropic swiftly took to court, claiming millions in lost revenues from the government and others influenced by the government’s decision. The Trump administration termed the company a “supply chain risk”, the first time a US-based company had ever been given such a status. Ensuing statements from government sources described Anthropic as a “woke” company. The Pentagon’s statement on its new agreements reads, “The Department will continue to build an architecture that prevents AI vendor lock-in and ensures long-term flexibility for the Joint force.” The technologies will “give warfighters the tools they need to act with confidence and safeguard the nation against any threat.” The AIs will be used for ‘Impact Levels’ six (secret data) and seven (the most highly-classified materials) use-cases, helping create what the statement describes as an “AI-first fighting force”. The Pentagon’s current use of generative AI is largely confined to non-classified tasks carried out inside the various defence departments, such as working on document drafting and summary, and research. The new suppliers will help defence forces “streamline data synthesis” too, but also “elevate situational understanding, and augment warfighter decision-making in complex operational environments.” It’s not clear whether those descriptions include domestic deployments inside US borders. The expansion of the raft of AI suppliers to the US military and security forces means it will become more immune to apparent changes of heart by individual vendors affecting military and security operations. By broadening their technological base, the personal whims of individual company leaders become less relevant. Google and Amazon have in the past fired employees for protesting against their companies’ technology being used in weaponry and warfare. Anthropic’s Claude AI had been used on classified material as part of Palantir’s Maven toolset, a role which the most recent signees may replace. However, the company’s Mythos model is reportedly in use currently by the National Security Agency in the context of the platform’s purported cyber warfare and defence abilities. Worldwide, Anthropic’s Mythos is currently under assessment by 40 organisations, of which only 12 have been named, with the UK’s MI5 and the US NSA thought to be among the remaining 28. According to Axios , the US administration may be walking back on its most recent public stance on Anthropic. The website said it had a source in the White House who stated the administration was trying to find ways to “save face and bring ’em back in.” Anthropic’s Claude coding model is allegedly still in use by US government security organisations, and has been throughout recent events. According to the White House, the US government “continues to proactively engage across government and industry to protect our country and the American people, including by working with frontier AI labs.” (Image source: “BEST OF THE MARINE CORPS – May 2006 – Defense Visual Information Center” by expertinfantry is licensed under CC BY 2.0. Licence .) Want to learn more about AI and big data from industry leaders? Check out AI & Big Data Expo taking place in Amsterdam, California, and London. The comprehensive event is part of TechEx and co-located with other leading technology events. Click here for more information. AI News is powered by TechForge Media . Explore other upcoming enterprise technology events and webinars here . The post US government increases AI suppliers and rethinks Anthropic’s role appeared first on AI News .
Pontos-chave
- A expansão da lista de fornecedores de IA do governo dos EUA indica uma estratégia de diversificação e fortalecimento da infraestrutura tecnológica militar.
- A controvérsia em torno da Anthropic destaca a necessidade de um debate ético sobre o uso de IA, que o Brasil deve considerar ao desenvolver suas próprias diretrizes.
- O fortalecimento da base tecnológica militar dos EUA pode pressionar outros países, incluindo o Brasil, a acelerar suas iniciativas em IA militar e de segurança.
Análise editorial
A recente decisão do governo dos EUA de expandir sua lista de fornecedores de IA, incluindo gigantes como Microsoft, Amazon e Nvidia, reflete uma estratégia clara de diversificação e fortalecimento da infraestrutura tecnológica militar. Para o setor de tecnologia brasileiro, essa movimentação pode ser um indicativo do que está por vir: uma necessidade crescente de inovação e adaptação às demandas de segurança nacional e defesa. O Brasil, que já enfrenta desafios em sua própria indústria de IA, deve observar atentamente como essas parcerias se desenvolvem e quais tecnologias emergentes podem ser incorporadas em suas próprias operações de defesa e segurança pública.
Além disso, a controvérsia em torno da Anthropic e sua relação com o governo dos EUA levanta questões importantes sobre a ética no uso de IA. A preocupação do CEO Darius Amodei sobre a vigilância da população civil e o uso de tecnologias para armamentos autônomos destaca a necessidade de um debate mais profundo sobre os limites e a regulamentação da IA. Para o Brasil, isso pode ser um chamado para que se estabeleçam diretrizes claras que garantam que a tecnologia seja utilizada de maneira responsável e ética, evitando os erros cometidos em outros contextos.
O fortalecimento da base tecnológica militar dos EUA também pode ter implicações globais, especialmente em um cenário geopolítico cada vez mais tenso. À medida que os EUA buscam se tornar uma "força de combate orientada por IA", outros países, incluindo o Brasil, podem sentir a pressão para acelerar suas próprias iniciativas em IA militar e de segurança. Isso pode levar a uma corrida armamentista tecnológica, onde a inovação em IA se torna um fator decisivo para a soberania e a segurança nacional.
Por fim, a expansão da lista de fornecedores de IA do Pentágono pode resultar em um ambiente mais competitivo para startups e empresas de tecnologia que desejam colaborar com o governo. No Brasil, isso pode inspirar novas parcerias entre o setor público e privado, especialmente em áreas como defesa cibernética e segurança pública. O que resta a observar é como o Brasil irá se posicionar nesse novo cenário, e se conseguirá aproveitar as lições aprendidas com as experiências dos EUA para moldar sua própria abordagem em relação à IA e segurança.
O que esta cobertura entrega
- Atribuicao clara de fonte com link para a publicacao original.
- Enquadramento editorial sobre relevancia, impacto e proximos desdobramentos.
- Revisao de legibilidade, contexto e duplicacao antes da publicacao.
Fonte original:
AI NewsSobre este artigo
Este artigo foi curado e publicado pelo AIDaily como parte da nossa cobertura editorial sobre desenvolvimentos em inteligência artificial. O conteúdo é baseado na fonte original citada abaixo, enriquecido com contexto e análise editorial. Ferramentas automatizadas podem auxiliar tradução e estruturação inicial, mas a decisão de publicar, a revisão factual e o enquadramento de contexto seguem responsabilidade editorial.
Saiba mais sobre nosso processo editorial