Cidadãos em New Hampshire receberam um pedido político incomum durante o fim de semana de 20 a 21 de janeiro. Ligações automatizadas apresentando o que para muitos soava como a voz do presidente dos Estados Unidos, Joe Biden, diziam para eles não votarem na primária de 23 de janeiro.

As mensagens automáticas foram aparentemente geradas por uma ferramenta de deepfake de inteligência artificial (AI) com o propósito aparente de interferir na eleição presidencial de 2024.

Segundo áudio gravado pela NBC, os moradores foram informados para ficar em casa durante a primária:

“Votar nesta terça-feira só permite aos Republicanos em sua busca para eleger Donald Trump novamente. Seu voto faz diferença em novembro, não nesta terça-feira.”

O escritório do procurador-geral do estado emitiu uma declaração denunciando as chamadas como desinformação, adicionando que “os eleitores de New Hampshire devem desconsiderar completamente o conteúdo desta mensagem.” Enquanto isso, um porta-voz do ex-presidente Donald Trump negou qualquer envolvimento do candidato do GOP ou de sua campanha.

Os investigadores aparentemente ainda não identificaram a fonte das chamadas automatizadas, mas as investigações estão em andamento.

Em notícias relacionadas, outro escândalo político relacionado a áudio deepfake ocorreu durante o fim de semana quando áudio gerado por IA imitando o líder democrata de Manhattan, Keith Wright, surgiu em 21 de janeiro. O áudio deepfake apresentava uma imitação da voz de Wright falando mal da colega democrata da Assembleia, Inez Dickens.

Segundo um relatório do Politico, o áudio foi descartado como falso por alguns, mas pelo menos um insider político foi momentaneamente convencido de que era real.

A democrata de Manhattan e ex-presidente do Conselho Municipal, Melissa Mark-Viverito, disse ao Politico que, inicialmente, acharam que os falsos eram críveis:

“Eu fiquei tipo ‘oh merda.’ Eu pensei que era real.”

Especialistas acreditam que os malfeitores escolheram falsificações de áudio em vez de vídeo porque os consumidores tendem a ser mais críticos quando se trata de falsificações visuais. Como o consultor de IA Henry Ajder recentemente disse ao Financial Times, “todo mundo está acostumado com o Photoshop ou pelo menos sabe que ele existe.”

Não parece haver, no momento da publicação deste artigo, nenhum método universal pelo qual deepfakes possam ser detectados ou dissuadidos. Especialistas recomendam exercitar cautela ao se engajar em mídia de fontes desconhecidas ou duvidosas, especialmente quando reivindicações extraordinárias estão em jogo.

VEJA MAIS: