A ascensão da inteligência artificial está impulsionando um forte aumento nas fraudes relacionadas a criptomoedas, com a tecnologia de deepfake alimentando uma onda de golpes sofisticados, segundo um novo relatório.

No primeiro trimestre de 2025, pelo menos 87 quadrilhas de golpes com deepfakes gerados por IA foram desmanteladas, de acordo com o Relatório de Pesquisa Antifraude 2025, elaborado em parceria pela exchange de criptomoedas Bitget, a empresa de segurança em blockchain SlowMist e a provedora de análises Elliptic.

O relatório também revela que os golpes com criptomoedas alcançaram US$ 4,6 bilhões em 2024, representando um aumento de 24% em relação ao ano anterior. Quase 40% dos casos de fraude de alto valor envolveram tecnologias de deepfake, com golpistas usando cada vez mais imitações sofisticadas de figuras públicas, fundadores e executivos de plataformas para enganar os usuários.

Distribuição das causas de incidentes de segurança em 2024. Fonte: SlowMist

“A velocidade com que os golpistas agora conseguem gerar vídeos sintéticos, aliada à natureza viral das redes sociais, dá aos deepfakes uma vantagem única em alcance e credibilidade”, afirmou Gracy Chen, CEO da Bitget.

Deepfakes representam novas ameaças

O relatório detalha a anatomia dos golpes modernos com criptomoedas, apontando três categorias predominantes: imitações com deepfakes gerados por IA, esquemas de engenharia social e fraudes do tipo pirâmide disfarçadas como projetos de finanças descentralizadas (DeFi) ou GameFi. Os deepfakes, segundo o alerta, são especialmente difíceis de detectar.

A IA pode simular texto, mensagens de voz, expressões faciais e até ações. Por exemplo, vídeos falsos de apoio a plataformas de investimento com figuras públicas como o primeiro-ministro de Singapura e Elon Musk têm sido usados para explorar a confiança do público por meio do Telegram, X e outras redes sociais.

Vídeo falso do primeiro-ministro de Singapura, Lee Hsien Loong. Fonte: Lianhe Morning Newspaper

A IA pode até simular reações em tempo real, tornando esses golpes cada vez mais difíceis de distinguir da realidade. Sandeep Nailwal, cofundador da plataforma de blockchain Polygon, soou o alarme em uma publicação no X em 13 de maio, revelando que invasores estavam se passando por ele via Zoom.

Ele mencionou que várias pessoas o contataram no Telegram perguntando se ele estava em uma chamada no Zoom com elas e se estava pedindo para instalarem um script.

Yu Xian, CEO da SlowMist, pediu que os usuários verifiquem a legitimidade de links do Zoom e nomes de domínio para evitar cair em golpes de personificação com vídeo.

Alerta do CEO da SlowMist sobre deepfake. Fonte: Cos

Novas ameaças exigem defesas mais inteligentes

À medida que os golpes com deepfake se tornam mais convincentes, especialistas em segurança alertam que a educação e a vigilância são essenciais. Para as instituições, treinamentos regulares em segurança e defesas técnicas robustas são indispensáveis, diz o relatório. As empresas devem realizar simulações de phishing, proteger sistemas de e-mail e monitorar códigos em busca de vazamentos. Construir uma cultura de segurança, em que os funcionários verifiquem antes de confiar, é a melhor forma de evitar golpes desde o início, acrescenta o relatório.

Guia de prevenção a golpes. Fonte: Anti-Scam Report 2025

Chen ofereceu aos usuários comuns uma abordagem direta: “Verifique, isole e desacelere”. Ela completou:

“Sempre verifique informações por meio de sites oficiais ou contas confiáveis nas redes sociais — nunca confie em links compartilhados em chats no Telegram ou comentários no Twitter.”

Chen também destacou a importância de isolar ações de risco utilizando carteiras separadas ao explorar novas plataformas.