LLMs

Supercharged scams

Publicado porRedacao AIDaily
3 min de leitura
Autor na fonte original: Rhiannon Williams

When ChatGPT was released to the public in late 2022, it opened people’s eyes to how easily generative AI could churn out vast amounts of human-seeming text from simple prompts. This quickly caught the attention of criminals, who soon began using large language models to produce malicious emails—both the untargeted spam kind and more sophisticated,…

Compartilhar:

When ChatGPT was released to the public in late 2022, it opened people’s eyes to how easily generative AI could churn out vast amounts of human-seeming text from simple prompts. This quickly caught the attention of criminals, who soon began using large language models to produce malicious emails —both the untargeted spam kind and more sophisticated, targeted attacks designed to steal money and sensitive information. Since then, cybercriminals have adopted AI tools to supercharge their operations . They’ve used the technology to do everything from composing phishing emails and creating hyperrealistic, convincing deepfake clips to tweaking malicious software (commonly known as malware) so it is harder to detect. They can also use AI to automate the search for vulnerabilities in networks and computer systems , quickly generate ransom notes, and analyze vast swathes of stolen data to pinpoint what’s most valuable. AI’s impact on hacking itself is not so clear-cut. But we do know that AI is lowering the barriers for would-be attackers, providing them with an ever-evolving arsenal of new capabilities, and making it faster, cheaper, and easier than ever before for them to try to infiltrate their targets. For example, scam centers across Southeast Asia are embracing inexpensive AI tools to quickly target greater numbers of potential victims and to swiftly switch to new locations, Interpol has warned. Similarly, the United Arab Emirates recently claimed to have foiled a series of shadowy AI-backed attacks on its vital sectors. And because these spammy, scattergun attacks can be pumped out at a colossal scale, they don’t need to be very sophisticated to have the desired effect—just lucky enough to get into a machine that happens to be undefended, or into the inbox of an unsuspecting victim at the right time. Many organizations are already struggling to cope with the sheer volume of cyberattacks targeting them. The problem is likely to get significantly worse as increasing numbers of criminals try their luck, and as the capabilities of publicly available generative AI systems continue to improve. Earlier this month, AI company Anthropic claimed that Mythos, a model it’s developed and is now testing, found thousands of critical vulnerabilities, including some in every major operating system and web browser. Anthropic says all of them have been patched, but it’s delaying the model’s release as a result of these new capabilities and set up a consortium of tech companies called Project Glasswing that it says will try to put these capabilities to work for defensive purposes in the meantime. Right now, cybersecurity researchers are optimistic that sloppier attacks can be thwarted through basic defenses, highlighting just how important it is to keep on top of software updates and stick to network security protocols. How well positioned we’ll be to ward off more sophisticated attacks in the future is much less clear. The good news is that AI is also being used to defend. Each day, Microsoft—just one of the many businesses keeping tabs on such threats—processes more than 100 trillion signals flagged by its AI systems as potentially malicious or suspicious. The company says that between April 2024 and April 2025, it managed to block $4 billion worth of scams and fraudulent transactions, many of which may have been aided by AI content. The same technology that makes such attacks possible could also be our best bet at keeping us safe in years to come.

Pontos-chave

  • A adoção de IA por cibercriminosos representa um desafio crescente para a segurança digital no Brasil.
  • Organizações brasileiras precisam investir em tecnologias de defesa cibernética para se proteger contra fraudes online.
  • A colaboração entre o setor público e privado será crucial para desenvolver diretrizes que protejam os cidadãos e incentivem a inovação.

Análise editorial

A ascensão de ferramentas de IA generativa, como o ChatGPT, não apenas revolucionou a forma como interagimos com a tecnologia, mas também abriu novas avenidas para atividades criminosas. No Brasil, onde a digitalização avança rapidamente, a adoção de IA por cibercriminosos representa um desafio significativo para empresas e instituições. A capacidade de gerar e-mails maliciosos convincentes com facilidade pode levar a um aumento nas fraudes online, especialmente em um país onde a confiança nas comunicações digitais ainda está em desenvolvimento. Isso exige que as organizações brasileiras reavaliem suas estratégias de segurança cibernética e adotem tecnologias mais robustas para se proteger contra essas ameaças emergentes.

Além disso, a utilização de IA para automatizar a busca por vulnerabilidades em sistemas pode resultar em um cenário onde ataques se tornam mais frequentes e sofisticados. As empresas brasileiras, especialmente as que operam em setores críticos, devem estar atentas a essas mudanças e considerar a implementação de soluções de inteligência artificial para detectar e mitigar riscos antes que se tornem problemas reais. O investimento em capacitação e em tecnologias de defesa cibernética será crucial para manter a integridade dos dados e a confiança dos consumidores.

Por fim, é importante observar como as regulamentações e políticas públicas podem evoluir em resposta a essa nova realidade. O governo brasileiro, junto com as empresas de tecnologia, deve trabalhar em conjunto para estabelecer diretrizes que não apenas protejam os cidadãos, mas também incentivem a inovação responsável no uso de IA. O futuro da segurança cibernética no Brasil dependerá da colaboração entre o setor privado e o público, além da conscientização contínua sobre as ameaças que a tecnologia pode trazer.

O que esta cobertura entrega

  • Atribuicao clara de fonte com link para a publicacao original.
  • Enquadramento editorial sobre relevancia, impacto e proximos desdobramentos.
  • Revisao de legibilidade, contexto e duplicacao antes da publicacao.

Sobre este artigo

Este artigo foi curado e publicado pelo AIDaily como parte da nossa cobertura editorial sobre desenvolvimentos em inteligência artificial. O conteúdo é baseado na fonte original citada abaixo, enriquecido com contexto e análise editorial. Ferramentas automatizadas podem auxiliar tradução e estruturação inicial, mas a decisão de publicar, a revisão factual e o enquadramento de contexto seguem responsabilidade editorial.

Saiba mais sobre nosso processo editorial