Usando inteligência artificial para lançar ataques cibernéticos em larga escala
Grandes chatbots estão ganhando destaque, como o ChatGPT-5 da OpenAI, o Gemini do Google e muito mais.
Claude costuma ser manchete com suas últimas atualizações. Mas esta semana foi diferente.
Em primeiro lugar, a OpenAI enfrenta duras críticas por Preocupações de segurança, والآن Relatório Notícias da Anthropic revelam que um hacker usou Assistente de codificação de IA Automatizar quase todas as etapas de uma cadeia de crimes cibernéticos em larga escala foi descrito como "sem precedentes".
A operação teve como alvo pelo menos 17 organizações nos setores de saúde, governo, serviços de emergência e até instituições religiosas.
Usando o Claude Code, a ferramenta de escrita de código com tecnologia de IA da Anthropic, o invasor cuidou de tudo, desde a varredura de vulnerabilidades até a criação de ransomware, calculando valores de resgate e até mesmo elaborando mensagens de extorsão refinadas.
Como o hacker fez isso?

O relatório da Anthropic indica que o agente malicioso, conhecido como GTG-5004, utilizou a nuvem para terceirizar todo o ataque. Tarefas que antes exigiam habilidades técnicas aprofundadas agora estão sendo executadas pela IA em minutos.
Veja o que o hacker fez:
- Enquete: Ajude Claude a identificar sistemas vulneráveis e pontos de entrada exploráveis.
- Criando malware: A inteligência artificial criou códigos maliciosos e os empacotou em kits de ransomware.
- Configuração de chantagem: Ele elaborou mensagens de resgate e administrou contas de pagamento em criptomoedas.
- Automação em larga escala: O sistema simplifica ataques contra vários alvos ao mesmo tempo.
A Anthropic confirmou que os pedidos de resgate chegaram a ultrapassar US$ 500,000.
O que há de especial nesse incidente?

Os cibercriminosos usam automação há anos, mas este caso demonstra como a IA está reduzindo as barreiras a ataques sofisticados. Você não precisa mais de habilidades de hacking de elite para realizar invasões em larga escala; nem mesmo habilidades de programação são necessárias quando você tem a ferramenta de IA certa.
Isso também significa que Mensagens de phishingOs pedidos de ransomware e golpes que chegam à sua caixa de entrada estão se tornando mais inteligentes, sofisticados e difíceis de detectar. Até mesmo e-mails falsos
Os dados gerados pela IA podem ser exatamente iguais aos do seu banco, do seu local de trabalho ou até mesmo de um familiar de confiança.
O que a Anthropic está fazendo a respeito?

A Anthropic afirma ter encerrado as contas envolvidas e implementado novas medidas de segurança para evitar esse tipo de uso indevido no futuro. A empresa também lançou ferramentas de detecção e compartilhou indicadores de comprometimento com as autoridades de segurança cibernética.
Mas muitos no setor alertam que isso pode ser apenas o começo. À medida que as ferramentas avançadas de IA se tornam mais sofisticadas e acessíveis, sem dúvida veremos mais incidentes como este; eles serão mais rápidos, mais escaláveis e muito mais difíceis de interromper.
Como se proteger?

Embora as empresas sejam o alvo principal neste caso, você deve tomar precauções extras:
- Seja cético em relação a e-mails e links, especialmente aqueles que solicitam informações pessoais ou pagamentos.
- Use senhas fortes e exclusivas e ative a autenticação de dois fatores sempre que possível.
- Mantenha seus dispositivos atualizados para corrigir vulnerabilidades de segurança.
- Cuidado com ofertas que “parecem boas demais para ser verdade” ou solicitações de login inesperadas, pois muitas delas são golpes gerados por IA.
A inteligência artificial torna os hackers mais produtivos.
Este ataque destaca uma nova realidade: a IA não está apenas nos ajudando a trabalhar de forma mais inteligente, mas também está ajudando os hackers a se tornarem mais inteligentes. O que a Anthropic descreveu como um incidente "sem precedentes" hoje pode em breve se tornar a norma, à medida que mais cibercriminosos recorrem à IA em busca de velocidade e escala.
Comentários estão fechados.