LLMs
O pesadelo da segurança da IA está aqui e parece suspeitosamente com uma lagosta
2 min de leitura
4 visualizações
Um hacker enganou uma popular ferramenta de codificação de IA para instalar o OpenClaw — o agente de IA viral e de código aberto OpenClaw que “realmente faz coisas” — em absolutamente todos os lugares. Engraçado como uma brincadeira, mas um sinal do que está por vir, à medida que mais e mais pessoas permitem que softwares autônomos usem seus computadores em seu nome. O hacker aproveitou-se de [...]
Um hacker enganou o fluxo de trabalho alimentado por Claude da Cline para instalar o OpenClaw nos computadores. Um hacker enganou o fluxo de trabalho alimentado por Claude da Cline para instalar o OpenClaw nos computadores. Um hacker enganou uma popular ferramenta de codificação de IA para instalar o OpenClaw — o agente de IA viral e de código aberto OpenClaw que “realmente faz coisas” — em absolutamente todos os lugares. Engraçado como uma brincadeira, mas um sinal do que está por vir, à medida que mais e mais pessoas permitem que softwares autônomos usem seus computadores em seu nome. O hacker aproveitou uma vulnerabilidade no Cline, um agente de codificação de IA de código aberto popular entre desenvolvedores, que o pesquisador de segurança Adnan Khan havia revelado poucos dias antes como uma prova de conceito. Simplificando, o fluxo de trabalho do Cline usava o Claude da Anthropic, que podia receber instruções sorrateiras e ser feito para fazer coisas que não deveria, uma técnica conhecida como injeção de prompt. O hacker usou seu acesso para inserir instruções para instalar automaticamente o software nos computadores dos usuários. Eles poderiam ter instalado qualquer coisa, mas optaram pelo OpenClaw. Felizmente, os agentes não foram ativados após a instalação, ou esta teria sido uma história muito diferente.
Isso é um sinal de como as coisas podem se desenrolar rapidamente quando os agentes de IA recebem controle sobre nossos computadores. Eles podem parecer jogos de palavras inteligentes — um grupo seduziu chatbots a cometer crimes com poesia —, mas em um mundo de software cada vez mais autônomo, as injeções de prompt são riscos de segurança enormes e muito difíceis de se defender. Reconhecendo isso, algumas empresas preferem bloquear o que as ferramentas de IA podem fazer se forem sequestradas. A OpenAI, por exemplo, introduziu recentemente um novo Modo de Bloqueio para o ChatGPT, impedindo-o de divulgar seus dados. Obviamente, proteger-se contra injeções de prompt é mais difícil se você ignorar os pesquisadores que sinalizam falhas para você em particular. Khan disse que alertou Cline sobre a vulnerabilidade semanas antes de publicar suas descobertas. A exploração só foi corrigida depois que ele as denunciou publicamente.
A escassez de RAM está chegando para tudo o que você considera importante A Dyson transformou seu fino PencilVac em um limpador de piso úmido leve O Pixel 10A é um pouco parecido demais com o telefone do ano passado A escassez de RAM pode prejudicar produtos e até mesmo empresas inteiras, admite executivo do setor de memória
Fonte original:
The Verge AI