Apesar de “barreiras sofisticadas”, a empresa de infraestrutura de IA Anthropic afirmou que cibercriminosos ainda estão encontrando maneiras de usar seu chatbot Claude de forma indevida para executar ataques em grande escala.

Em um relatório de “Inteligência de Ameaças” publicado na quarta-feira, membros da equipe de Inteligência de Ameaças da Anthropic, incluindo Alex Moix, Ken Lebedev e Jacob Klein, compartilharam vários casos em que criminosos abusaram do chatbot Claude, com alguns ataques exigindo mais de US$ 500.000 em resgates.

Eles descobriram que o chatbot foi usado não apenas para fornecer conselhos técnicos aos criminosos, mas também para executar diretamente invasões em seu nome por meio do chamado “vibe hacking”, permitindo que eles realizassem ataques com apenas conhecimento básico de programação e criptografia.

Vibe hacking é a engenharia social com uso de IA para manipular emoções humanas, confiança e tomada de decisões. Em fevereiro, a empresa de segurança blockchain Chainalysis previu que os golpes com criptomoedas poderiam ter seu maior ano em 2025, já que a IA generativa tornou os ataques mais escaláveis e acessíveis.

A Anthropic descobriu um hacker que havia praticado “vibe hacking” com Claude para roubar dados sensíveis de pelo menos 17 organizações — incluindo instituições de saúde, serviços de emergência, governo e instituições religiosas — com pedidos de resgate variando de US$ 75.000 a US$ 500.000 em Bitcoin.

Uma simulação de nota de resgate demonstra como os cibercriminosos se aproveitam de Claude para fazer ameaças. Fonte: Anthropic

O hacker treinou o Claude para avaliar registros financeiros roubados, calcular valores apropriados para resgate e escrever bilhetes personalizados para maximizar a pressão psicológica.

Embora a Anthropic tenha banido posteriormente o invasor, o incidente mostra como a IA está facilitando que até programadores com nível básico cometam crimes cibernéticos em uma “escala sem precedentes”.

“Atores que não conseguem implementar criptografia básica ou entender mecânicas de chamadas de sistema agora estão criando ransomware com capacidade de evasão e implementando técnicas anti-análise com sucesso.”

Trabalhadores norte-coreanos de TI também usaram o Claude da Anthropic

A Anthropic também descobriu que trabalhadores norte-coreanos de TI têm usado o Claude para forjar identidades convincentes, passar em testes técnicos de codificação e até conseguir cargos remotos em empresas de tecnologia da Fortune 500 nos EUA. Eles também usaram Claude para preparar respostas de entrevistas para essas vagas.

O Claude também foi utilizado para realizar o trabalho técnico depois da contratação, afirmou a Anthropic, observando que os esquemas de emprego tinham como objetivo canalizar lucros para o regime norte-coreano, apesar das sanções internacionais.

Análise das tarefas com o Claude que os profissionais de TI norte-coreanos utilizaram. Fonte: Anthropic

No início deste mês, um trabalhador norte-coreano de TI foi contra-hackeado e descobriu-se que uma equipe de seis pessoas compartilhava pelo menos 31 identidades falsas, obtendo de documentos oficiais do governo e números de telefone até contas do LinkedIn e UpWork para mascarar suas verdadeiras identidades e conseguir empregos no setor cripto.

Um dos trabalhadores teria feito entrevista para a vaga de engenheiro full-stack na Polygon Labs, enquanto outras evidências mostravam respostas roteirizadas de entrevistas nas quais afirmavam ter experiência no mercado de NFTs OpenSea e na provedora de oráculos blockchain Chainlink.

A Anthropic afirmou que seu novo relatório tem como objetivo discutir publicamente incidentes de uso indevido para ajudar a comunidade de segurança e segurança da IA em geral e fortalecer a defesa do setor contra abusos de IA.

Disse ainda que, apesar de implementar “medidas sofisticadas de segurança e proteção” para prevenir o uso indevido do Claude, atores maliciosos continuam encontrando formas de contornar essas barreiras.