As perdas com criptomoedas devido a truques e golpes com deep fake devem ultrapassar US$ 25 bilhões em 2024 — mais do que o dobro das perdas do ano passado, de acordo com a Bitget Research.

A exchange de criptomoedas observou um aumento de 245% no número de deep fakes em todo o mundo em 2024, em um relatório de 27 de junho, com base em dados de pesquisa anteriores da Sumsub.

A Bitget descobriu que China, Alemanha, Ucrânia, Estados Unidos, Vietnã e Reino Unido tiveram a maior quantidade de deep fakes detectados no primeiro trimestre de 2024, enquanto a indústria de criptomoedas viu um ganho de 217% em comparação com o primeiro trimestre de 2023.

Previsão de perdas com deep fakes relacionadas a criptomoedas com valor projetado para 2024 Fonte: Bitget Research

A Bitget disse que o aumento nos deep fakes levou a US$ 6,3 bilhões em perdas com criptomoedas no primeiro trimestre. Acrescentou que viu as perdas subirem para US$ 10 bilhões por trimestre até 2025.

“Os deep fakes estão entrando no setor de criptomoedas com força, e há pouco que podemos fazer para detê-los sem a devida educação e conscientização”, disse a CEO da Bitget, Gracy Chen, ao Cointelegraph em um comunicado.

Perdas com criptomoedas devido a deep fakes, divididas por tipo. Fonte: Bitget Research

Curiosamente, os fraudadores com deep fake não mudaram muito suas táticas ao longo dos anos.

As maiores perdas com criptomoedas devido a deep fakes ocorrem na forma de projetos falsos, ataques de phishing e esquemas Ponzi, onde a tecnologia deep fake é usada para ganhar a confiança dos investidores em criptomoedas.

Nos últimos dois anos, esse método representou mais da metade de todas as perdas com criptomoedas relacionadas a deep fakes.

“Ao personificar figuras influentes, esses esquemas criam a ilusão de credibilidade e capitalização substancial de projetos, recebendo assim grandes investimentos das vítimas sem a devida diligência”, disse a Bitget Research.

O presidente executivo da MicroStrategy, Michael Saylor, tem sido uma escolha popular para os fraudadores. Em janeiro, Saylor disse que sua equipe remove cerca de 80 vídeos falsos gerados por inteligência artificial (IA) falsos dele diariamente, geralmente para promover algum tipo de golpe relacionado ao Bitcoin (BTC).

Fonte: Michael Saylor

A Bitget observou que os deep fakes são usados de outras maneiras, incluindo extorsão cibernética, fraude de identidade e fraude de personificação e manipulação de mercado. Por exemplo, uma declaração falsa de um influenciador ou âncora de notícias na tentativa de manipular o preço de um token. No entanto, esses representam uma parcela muito menor em comparação com os golpes de criptomoedas.

Deep fakes poderiam ser usados em 70% dos crimes com criptomoedas

Sem medidas eficazes, a participação dos deep fakes sendo usados em crimes com criptomoedas poderia chegar a 70% até 2026, prevê a Bitget.

“Os criminosos estão empregando cada vez mais fotos, vídeos e áudios falsos para exercer uma influência mais forte sobre suas vítimas”, disse o analista-chefe da Bitget Research, Ryan Lee, ao Cointelegraph.

“Por exemplo, um vídeo personificando alguém próximo à vítima pode ser crucial para os fraudadores, enquanto um vídeo falso de um influenciador pode aumentar a confiança dos investidores em um projeto fraudulento como uma ferramenta auxiliar.”

Lee acredita que uma das preocupações mais imediatas sobre a tecnologia deep fake é o uso de imitadores de voz apoiados por IA, que permitem que os fraudadores liguem para os usuários fingindo ser seus parentes e peçam dinheiro.

Outra preocupação poderia ser deep fakes que contornam as medidas de Conheça Seu Cliente (KYC) para obter acesso não autorizado aos fundos de um usuário.

“No momento, as exchanges precisam prestar atenção aos seus recursos de 'Prova de Vida' dos sistemas KYC”, disse Lee.

“Esse recurso essencialmente confirma que o usuário é uma pessoa real e não uma imagem estática ou um vídeo, por meio de ações em tempo real, como piscar, mover-se ou solicitações secundárias de 'Prova de Vida'.”

“Avisamos todos os nossos usuários no momento do registro que usamos soluções avançadas de IA para identificar rapidamente e prevenir casos de uso de deepfake”, acrescentou.