Programação

Hugging Face hosted malicious software masquerading as OpenAI release

Publicado porRedacao AIDaily
4 min de leitura
Autor na fonte original: AI News

A malicious Hugging Face repository that posed as an OpenAI release delivered infostealer malware to Windows machines and recorded about 244,000 downloads before removal, according to research from AI security firm HiddenLayer. The number of downloads may have been artificially inflated by the attackers to make the model seem more popular, so the extent of […] The post Hugging Face hosted malicious software masquerading as OpenAI release appeared first on AI News .

Compartilhar:

A malicious Hugging Face repository that posed as an OpenAI release delivered infostealer malware to Windows machines and recorded about 244,000 downloads before removal, according to research from AI security firm HiddenLayer. The number of downloads may have been artificially inflated by the attackers to make the model seem more popular, so the extent of the effects of the attack is unknown. ‘Open-OSS/privacy-filter’ imitated OpenAI’s Privacy Filter release. HiddenLayer said the original model card had been copied nearly exactly, and the bad actors included a malicious loader.py file that fetched and ran credential-stealing malware on Windows hosts. The repos reached the top of the ‘trending’ list on Hugging Face with 667 likes accrued in less than 18 hours – again, this figure may have been changed by the attackers. Public AI model registries may be becoming risks in the software supply chain as developers and data scientists clone models directly into corporate environments, environments that have access to source code, cloud credentials, and internal systems. That situation alone makes a compromised model repository more than a nuisance. The README file for the fake model closely resembled that of the legitimate project, but it departed from the original in that it instructed users to run start.bat on Windows or execute python loader.py on Linux and macOS, instructions central to the infection chain HiddenLayer described. Researchers have previously warned that malicious code can be hidden inside AI model files or related setup scripts on Hugging Face and other public registries. Previous cases involved Pickle-serialised model files that bypassed platform scanners. Malicious loader disguised as setup code HiddenLayer said loader.py began with decoy code that resembled a normal AI model loader, moving quickly to a concealed infection chain. A script disabled SSL verification, decoded a base64-encoded URL linked to jsonkeeper.com, retrieved a remote payload instruction, and passed commands to PowerShell on Windows machines. HiddenLayer said the use of the command-and-control channel jsonkeeper.com allowed the attacker to rotate the payload without changing the repo’s contents. The PowerShell command then downloaded an additional batch file from an attacker-controlled domain, and the malware established persistence by creating a scheduled task designed to resemble a legitimate Microsoft Edge update process. The final payload was a Rust-based infostealer. According to HiddenLayer, it targeted Chromium and Firefox-derived browsers, Discord local storage, cryptocurrency wallets, FileZilla configurations, and host system information. The malware also tried to disable Windows Antimalware Scan Interface and Event Tracing. Wider campaigns HiddenLayer also said it found six further Hugging Face repositories containing virtually identical loader logic that shared infrastructure with the cited attack. The case follows other warnings about malicious AI models on Hugging Face, including poisoned AI SDKs and fake OpenClaw installers. The common thread is that attackers are treating AI development workflows as a route into normally secure environments. AI repositories often contain executable code, setup instructions, dependency files, notebooks, and scripts, and its these peripheral elements that cause the problems, rather than the models themselves. Sakshi Grover, senior research manager for cybersecurity services at IDC, said traditional SCA was designed to inspect dependency manifests, libraries, and container images. It is less effective at identifying malicious loader logic in AI repositories. They also cited IDC’s November 2025 FutureScape report, which contained the call that by 2027, 60% of agentic AI systems should have a bill of materials. This would help companies track which AI artefacts they use, their source, which versions were approved, and whether they contain executable components. Response and mitigation HiddenLayer advised anyone who cloned Open-OSS/privacy-filter and ran start.bat, python loader.py or any file from the repository on a Windows host to treat the system as compromised, and recommends re-imaging systems. Browser sessions should considered compromised even if passwords are not held locally, as session cookies let attackers bypass MFA in some circumstances. Hugging Face has confirmed the repo has been removed. (Image source: Pixabay, under licence .) Want to learn more about AI and big data from industry leaders? Check out AI & Big Data Expo taking place in Amsterdam, California, and London. The comprehensive event is part of TechEx and co-located with other leading technology events. Click here for more information. AI News is powered by TechForge Media . Explore other upcoming enterprise technology events and webinars here . The post Hugging Face hosted malicious software masquerading as OpenAI release appeared first on AI News .

Pontos-chave

  • A vulnerabilidade de repositórios de modelos abertos pode comprometer a segurança em ambientes corporativos.
  • A inflacionação artificial de downloads e likes indica que os atacantes estão se tornando mais sofisticados.
  • A educação sobre práticas de segurança é essencial para desenvolvedores e usuários de IA.

Análise editorial

A descoberta de um repositório malicioso no Hugging Face que se disfarçou como uma liberação da OpenAI levanta sérias preocupações sobre a segurança no ecossistema de IA, especialmente em um momento em que o Brasil está cada vez mais investindo em tecnologia e inovação. O incidente destaca a vulnerabilidade das plataformas de modelos abertos, onde desenvolvedores e cientistas de dados podem, inadvertidamente, incorporar código malicioso em seus projetos. Essa situação é particularmente crítica em ambientes corporativos, onde o acesso a credenciais e sistemas internos pode ser comprometido, resultando em consequências severas para a segurança da informação.

Além disso, o fato de que o repositório malicioso conseguiu acumular 244.000 downloads antes de ser removido sugere que os mecanismos de verificação de segurança em plataformas de código aberto precisam ser aprimorados. O uso de técnicas como a inflacionação artificial de downloads e likes indica que os atacantes estão se tornando mais sofisticados em suas abordagens, o que exige uma resposta proativa da comunidade de tecnologia. No Brasil, onde a adoção de IA está em ascensão, a conscientização sobre esses riscos deve ser uma prioridade para empresas e desenvolvedores.

O incidente também ressalta a importância de educar os usuários sobre as melhores práticas de segurança ao utilizar modelos de IA, incluindo a verificação da autenticidade de repositórios e a análise crítica de scripts de instalação. À medida que o uso de IA se torna mais prevalente, a necessidade de um ambiente seguro e confiável para o desenvolvimento e a implementação de modelos de IA se torna ainda mais urgente. O que se observa é uma necessidade crescente de colaboração entre a comunidade de desenvolvedores, pesquisadores e plataformas de hospedagem para mitigar esses riscos.

Por fim, é fundamental que as empresas brasileiras que estão adotando IA em suas operações estejam cientes dessas ameaças e implementem medidas de segurança robustas. Isso inclui a realização de auditorias regulares de segurança em modelos e repositórios utilizados, bem como a implementação de políticas de segurança que protejam dados sensíveis contra acessos não autorizados. O futuro da IA no Brasil depende não apenas da inovação, mas também da segurança e da confiança nas tecnologias que estamos desenvolvendo e utilizando.

O que esta cobertura entrega

  • Atribuicao clara de fonte com link para a publicacao original.
  • Enquadramento editorial sobre relevancia, impacto e proximos desdobramentos.
  • Revisao de legibilidade, contexto e duplicacao antes da publicacao.

Fonte original:

AI News

Sobre este artigo

Este artigo foi curado e publicado pelo AIDaily como parte da nossa cobertura editorial sobre desenvolvimentos em inteligência artificial. O conteúdo é baseado na fonte original citada abaixo, enriquecido com contexto e análise editorial. Ferramentas automatizadas podem auxiliar tradução e estruturação inicial, mas a decisão de publicar, a revisão factual e o enquadramento de contexto seguem responsabilidade editorial.

Saiba mais sobre nosso processo editorial