A Meta, empresa controladora do Facebook e do Instagram, delineou sua estratégia para combater o uso indevido de inteligência artificial (IA) generativa em suas plataformas para garantir a integridade do processo eleitoral antes das eleições para o Parlamento Europeu de 2024, que ocorrem em junho.

Em uma postagem publicada no blog da empresa em 25 de fevereiro, o chefe de assuntos da UE da Meta, Marco Pancini, disse que os princípios por trás dos "Padrões da comunidade" e "Padrões de anúncios" da plataforma também se aplicarão a conteúdos gerados por IA.

"O conteúdo gerado por IA também está qualificado para ser revisado e classificado por nossos parceiros independentes de verificação de fatos", afirmou ele. Um dos parâmetros visa indicar se o conteúdo é "alterado", ou seja, "falsificado, manipulado ou transformado em áudio, vídeo ou fotos."

As políticas da plataforma já exigem que as imagens fotorrealistas criadas usando as ferramentas de IA da Meta sejam rotuladas como tal.

Esse último anúncio revelou que a Meta também está desenvolvendo novos recursos para rotular conteúdos gerados por IA criado por outras ferramentas, como Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock, que sejam publicados em qualquer uma de suas plataformas.

Além disso, a Meta disse que planeja adicionar um recurso para que os usuários revelem ao público quando estão compartilhando um vídeo ou uma gravação em áudio gerada por IA para que os mesmos sejam sinalizados e rotulados, podendo sofrer possíveis penalidades se não o fizerem.

Os anunciantes que veiculam anúncios políticos ou relacionados a eleições que foram alterados ou criados usando IA também devem divulgar que usaram recursos desse tipo. A postagem do blog da Meeta informa que, entre julho e dezembro de 2023, o Meta removeu 430.000 anúncios em toda a União Europeia por não conterem um aviso de isenção de responsabilidade.

O uso de IA para fins políticos tem se tornado cada vez mais relevante, pois há muitas eleições importantes no mundo todo marcadas para 2024. Antes dessa recente atualização, tanto a Meta quanto o Google se manifestaram publicamente sobre as regras relativas à publicidade política gerada por IA em suas plataformas.

Em 19 de dezembro de 2023, o Google disse que limitaria as respostas a consultas eleitorais em seu chatbot de IA Gemini – que se chamava Bard na época – e em seu recurso de pesquisa generativa no período que antecede a eleição presidencial de 2024 nos Estados Unidos.

A OpenAI, desenvolvedora do chatbot de IA ChatGPT, também tentou minimizar os temores em relação à interferência da IA nas eleições globais criando padrões internos para monitorar a atividade em suas plataformas.

Em 17 de fevereiro, 20 empresas, incluindo Microsoft, Google, Anthropic, Meta, OpenAI, Stability AI e X, assinaram um compromisso para conter a interferência da IA em processos eleitorais, reconhecendo o perigo potencial da situação caso não sejam estabelecidos padrões de controle.

Governantes de todo o mundo também tomaram medidas para combater o uso indevido da IA antes da realização de eleições locais. A Comissão Europeia iniciou uma consulta pública sobre as diretrizes de segurança eleitoral propostas para reduzir as ameaças à democracia representadas pela IA generativa e por deepfakes.

Nos Estados Unidos, as vozes geradas por IA em ligações automatizadas foram banidas e tornadas ilegais depois de terem sido usadas em chamadas fraudulentas em que um um deepfake do presidente Joe Biden entrou em circulação, em uma clara tentativa de ludibriar os eleitores.

LEIA MAIS