Segurança Cibernética

Unauthorized group has gained access to Anthropic’s exclusive cyber tool Mythos, report claims

Publicado porRedacao AIDaily
3 min de leitura
Autor na fonte original: Lucas Ropek

Anthropic told TechCrunch it is investigating the claims, but maintains that there is no evidence that its systems have been impacted.

Compartilhar:

A group of unauthorized users has reportedly gained access to Mythos , the cybersecurity tool recently announced by Anthropic.

Much has been made of Mythos and its purported power — an AI product designed for enterprise security that, in the wrong hands, could become a potent hacking tool, according to the company. Now Bloomberg has reported that a “private online forum,” the members of which have not been publicly identified, has managed to gain access to the tool through a third-party vendor.

“We’re investigating a report claiming unauthorized access to Claude Mythos Preview through one of our third-party vendor environments,” an Anthropic spokesperson told TechCrunch. The company said that, so far, it has found no evidence that the supposedly unauthorized activity has impacted Anthropic’s systems in any way.

The unauthorized group tried a number of different strategies to gain access to the model, including using “access” enjoyed by the person who was interviewed by Bloomberg. That person is currently employed at a third-party contractor that works for Anthropic, the outlet reported.

Members of the group are part of a Discord channel that seeks out information about unreleased AI models, the outlet reported. The group has been using Mythos regularly since gaining access to it, and provided evidence to Bloomberg in the form of screenshots and a live demonstration of the software.

Bloomberg reports that the group, which supposedly gained access to the tool on the same day it was publicly announced, “made an educated guess about the model’s online location based on knowledge about the format Anthropic has used for other models.” The group in question is “interested in playing around with new models, not wreaking havoc with them,” the source told the outlet.

Mythos was released to a select number of vendors, including big names like Apple, as part of an initiative called Project Glasswing. The limited release of the model was designed to prevent its use by bad actors. The tool could be weaponized against corporate security instead of bolstering it, Anthropic said.

Meet your next investor or portfolio startup at Disrupt

Meet your next investor or portfolio startup at Disrupt

If true, unauthorized use of Mythos could spell trouble for Anthropic, which provided the exclusive release to allay the company’s concern for enterprise security.

When you purchase through links in our articles, we may earn a small commission . This doesn’t affect our editorial independence.

StrictlyVC kicks off the year in SF. Get in the room for unfiltered fireside chats with industry leaders, insider VC insights, and high-value connections that actually move the needle. Tickets are limited.

Tim Cook stepping down as Apple CEO, John Ternus taking over Amanda Silberling Connie Loizos

Tim Cook stepping down as Apple CEO, John Ternus taking over

Tim Cook stepping down as Apple CEO, John Ternus taking over

Rivian’s factory hit by tornado ahead of R2 launch Sean O'Kane

Rivian’s factory hit by tornado ahead of R2 launch

Rivian’s factory hit by tornado ahead of R2 launch

Blue Origin’s New Glenn put a customer satellite in the wrong orbit during its third launch Sean O'Kane

Blue Origin’s New Glenn put a customer satellite in the wrong orbit during its third launch

Blue Origin’s New Glenn put a customer satellite in the wrong orbit during its third launch

Palantir posts mini-manifesto denouncing inclusivity and ‘regressive’ cultures Anthony Ha

Palantir posts mini-manifesto denouncing inclusivity and ‘regressive’ cultures

Palantir posts mini-manifesto denouncing inclusivity and ‘regressive’ cultures

‘Tokenmaxxing’ is making developers less productive than they think Tim Fernholz

‘Tokenmaxxing’ is making developers less productive than they think

‘Tokenmaxxing’ is making developers less productive than they think

Anthropic launches Claude Design, a new product for creating quick visuals Aisha Malik

Anthropic launches Claude Design, a new product for creating quick visuals

Anthropic launches Claude Design, a new product for creating quick visuals

Anthropic CPO leaves Figma’s board after reports he will offer a competing product Tim Fernholz

Anthropic CPO leaves Figma’s board after reports he will offer a competing product

Anthropic CPO leaves Figma’s board after reports he will offer a competing product

Pontos-chave

  • O acesso não autorizado ao Mythos destaca a vulnerabilidade das cadeias de suprimento de tecnologia e a necessidade de segurança rigorosa.
  • A situação serve como um alerta para o setor de tecnologia brasileiro sobre a importância de proteger inovações em IA.
  • A resposta da Anthropic pode influenciar a confiança do mercado em tecnologias de IA e moldar práticas de segurança em outras empresas.

Análise editorial

A notícia sobre o acesso não autorizado ao Mythos, ferramenta de cibersegurança da Anthropic, levanta questões cruciais sobre a segurança de sistemas de IA e a responsabilidade das empresas em proteger suas inovações. Para o setor de tecnologia brasileiro, que tem visto um crescimento significativo em startups de IA, essa situação serve como um alerta sobre a importância de implementar medidas rigorosas de segurança cibernética, especialmente quando se trata de ferramentas que podem ser potencialmente mal utilizadas. O caso ressalta a necessidade de um debate mais amplo sobre a ética e a segurança na implementação de tecnologias emergentes.

Além disso, a forma como o grupo conseguiu acesso ao Mythos, utilizando informações de um funcionário de um fornecedor terceirizado, destaca a vulnerabilidade que pode existir nas cadeias de suprimento de tecnologia. Isso é particularmente relevante para empresas brasileiras que frequentemente dependem de parcerias externas para desenvolver e implementar soluções de IA. A situação exige que as organizações reavaliem suas práticas de segurança e considerem a adoção de protocolos mais rigorosos para proteger informações sensíveis.

O que observar a seguir é como a Anthropic responderá a essa violação e quais medidas serão tomadas para evitar que incidentes semelhantes ocorram no futuro. A transparência na comunicação e a implementação de melhorias nas práticas de segurança serão fundamentais para restaurar a confiança dos clientes e do mercado. A resposta da Anthropic pode também influenciar a forma como outras empresas, tanto no Brasil quanto globalmente, abordam a segurança de suas tecnologias de IA.

Por fim, o caso Mythos pode impactar a percepção pública sobre ferramentas de IA, especialmente em um momento em que a sociedade está cada vez mais consciente dos riscos associados à inteligência artificial. A forma como as empresas lidam com incidentes de segurança pode moldar a aceitação e a confiança do público em relação a essas tecnologias, um fator crítico para a adoção em larga escala no Brasil e em outros mercados emergentes.

O que esta cobertura entrega

  • Atribuicao clara de fonte com link para a publicacao original.
  • Enquadramento editorial sobre relevancia, impacto e proximos desdobramentos.
  • Revisao de legibilidade, contexto e duplicacao antes da publicacao.

Fonte original:

TechCrunch AI

Sobre este artigo

Este artigo foi curado e publicado pelo AIDaily como parte da nossa cobertura editorial sobre desenvolvimentos em inteligência artificial. O conteúdo é baseado na fonte original citada abaixo, enriquecido com contexto e análise editorial. Ferramentas automatizadas podem auxiliar tradução e estruturação inicial, mas a decisão de publicar, a revisão factual e o enquadramento de contexto seguem responsabilidade editorial.

Saiba mais sobre nosso processo editorial