À medida que golpes envolvendo deepfakes impulsionados por inteligência artificial se tornam mais prevalentes, empresas de segurança alertam que o método de ataque pode se estender além de vídeos e áudios.

Em 4 de setembro, a empresa de software Gen Digital relatou que atores mal-intencionados usando golpes de deepfake com IA para fraudar detentores de criptomoedas intensificaram suas operações no segundo trimestre de 2024.

A empresa afirmou que o grupo de golpistas chamado “CryptoCore” já havia enganado mais de US$ 5 milhões em criptomoedas usando deepfakes de IA.

Embora o montante pareça baixo em comparação com outros métodos de ataque no espaço das criptomoedas, profissionais de segurança acreditam que os ataques de deepfake com IA podem se expandir ainda mais, ameaçando a segurança dos ativos digitais.

Deepfakes de IA ameaçam a segurança de carteiras

A empresa de segurança Web3 CertiK acredita que golpes de deepfake impulsionados por IA se tornarão mais sofisticados. Um porta-voz da CertiK disse ao Cointelegraph que isso também pode se expandir além de vídeos e gravações de áudio no futuro.

O porta-voz explicou que o vetor de ataque poderia ser usado para enganar carteiras que utilizam reconhecimento facial, dando aos hackers acesso:

“Por exemplo, se uma carteira depende de reconhecimento facial para proteger informações críticas, é necessário avaliar a robustez dessa solução contra ameaças impulsionadas por IA.”

O porta-voz afirmou que é importante que os membros da comunidade cripto se tornem cada vez mais conscientes de como esse ataque funciona.

Deepfakes de IA continuarão a ameaçar as criptomoedas

Luis Corrons, evangelista de segurança da empresa de cibersegurança Norton, acredita que ataques impulsionados por IA continuarão a mirar os detentores de criptomoedas. Corrons observou que as criptomoedas oferecem recompensas financeiras significativas e menos riscos para os hackers. Ele disse:

“As transações com criptomoedas geralmente são de alto valor e podem ser conduzidas de forma anônima, tornando-as um alvo mais atraente para os cibercriminosos, já que ataques bem-sucedidos resultam em recompensas financeiras mais significativas e menor risco de detecção.”

Além disso, Corrons afirmou que as criptomoedas ainda carecem de regulamentações, oferecendo menos consequências legais para os cibercriminosos e mais oportunidades de ataque.

Como detectar ataques de deepfake impulsionados por IA

Embora ataques impulsionados por IA possam representar uma grande ameaça para os usuários de criptomoedas, profissionais de segurança acreditam que existem maneiras para os usuários se protegerem desse tipo de ameaça. De acordo com um porta-voz da CertiK, a educação seria um bom ponto de partida.

Um engenheiro da CertiK explicou que é importante conhecer as ameaças e as ferramentas e serviços disponíveis para combatê-las. Além disso, o profissional acrescentou que é importante ficar atento a solicitações não solicitadas. Ele disse:

“Ser cético em relação a solicitações não solicitadas de dinheiro ou informações pessoais é crucial, e ativar a autenticação multifatorial para contas sensíveis pode ajudar a adicionar uma camada extra de proteção contra esses golpes.”

Enquanto isso, Corrons acredita que há “sinais de alerta” que os usuários podem tentar identificar para evitar golpes de deepfake com IA. Isso inclui movimentos oculares, expressões faciais e movimentos corporais não naturais.

Além disso, a falta de emoção também pode ser um grande indício. “Você também pode identificar distorções faciais ou emendas de imagem se o rosto de alguém não parecer exibir a emoção que deveria acompanhar o que estão supostamente dizendo,” explicou Corrons.

Além disso, o executivo afirmou que formas corporais estranhas, desalinhamentos e inconsistências no áudio devem ajudar os usuários a determinar se estão olhando para um deepfake de IA ou não.